- "ChatGPT ใหม่ที่ออกแบบมาเพื่อสุขภาพและเวลเนส"
- บริการที่ช่วยเชื่อมต่อข้อมูลสุขภาพส่วนบุคคลกับ AI ของ ChatGPT อย่างปลอดภัย เพื่อช่วยให้เข้าใจและจัดการภาวะสุขภาพได้
- ใช้ โครงสร้างการเข้ารหัสและการแยกข้อมูลเพื่อปกป้องข้อมูลทางการแพทย์ และบทสนทนาเกี่ยวกับสุขภาพจะไม่ถูกนำไปใช้ฝึกโมเดล
- ให้คำแนะนำด้านสุขภาพแบบปรับให้เหมาะกับแต่ละบุคคลผ่านการเชื่อมต่อกับ เวชระเบียนอิเล็กทรอนิกส์ (EHR) และ แอปเวลเนส เช่น Apple Health, MyFitnessPal
- ร่วมมือกับ บุคลากรทางการแพทย์กว่า 260 คนทั่วโลก และตรวจสอบคุณภาพโมเดลด้วยระบบประเมิน HealthBench ตามเกณฑ์ทางคลินิก
- พัฒนาเป็น เครื่องมือดูแลสุขภาพที่เน้นความเป็นส่วนตัวและความน่าเชื่อถือ เพื่อเสริมการรักษาพยาบาล ไม่ใช่ทดแทน
ภาพรวมของ ChatGPT Health
- ChatGPT Health เป็นบริการที่เชื่อมต่อข้อมูลสุขภาพส่วนบุคคลกับ ChatGPT อย่างปลอดภัย เพื่อช่วยให้ เข้าใจภาวะสุขภาพและจัดการได้อย่างเป็นระบบ
- เพิ่มมาตรการปกป้องข้อมูลทางการแพทย์บนพื้นฐานของระบบคุ้มครองความเป็นส่วนตัว ความปลอดภัย และการควบคุมข้อมูลของ ChatGPT
- บทสนทนาเกี่ยวกับสุขภาพจะถูกจัดการแบบเป็นส่วนตัวผ่านการเข้ารหัสและโครงสร้างการแยกข้อมูล
- ผู้ใช้สามารถเชื่อมต่อเวชระเบียนและแอปเวลเนสเข้ากับ ChatGPT เพื่อ ตีความผลตรวจ เตรียมตัวก่อนพบแพทย์ และวางแผนอาหารหรือการออกกำลังกาย ได้
- จุดประสงค์ของบริการคือ เสริมการดูแลของผู้เชี่ยวชาญทางการแพทย์ และไม่ใช้แทนการวินิจฉัยหรือการรักษา
สถานะการใช้งานข้อมูลสุขภาพ
- ChatGPT เป็นหนึ่งในบริการที่ถูกใช้งานมากที่สุดในด้านสุขภาพอยู่แล้ว โดยมีผู้ใช้มากกว่า 230 ล้านคนต่อสัปดาห์ ที่ถามคำถามเกี่ยวกับสุขภาพ
- เป็นความพยายามในการแก้ปัญหาที่ข้อมูลสุขภาพกระจัดกระจายอยู่บนหลายแพลตฟอร์ม ทำให้ผู้ใช้มองภาพรวมของตนเองได้ยาก
- ChatGPT Health ขยายแนวทางนี้ต่อไปด้วยการให้ คำตอบที่สะท้อนบริบทของผู้ใช้
ฟีเจอร์หลักและการเชื่อมต่อ
- สามารถเชื่อมต่อกับเวชระเบียนอิเล็กทรอนิกส์ (EHR), Apple Health, Function, MyFitnessPal เป็นต้น
- ในสหรัฐฯ รองรับ การเชื่อมต่อข้อมูลทางการแพทย์ที่เชื่อถือได้ ผ่านเครือข่าย b.well
- การเข้าถึงเวชระเบียนมีให้เฉพาะผู้ใช้ที่มีอายุ 18 ปีขึ้นไป
- แอปที่จะรวมอยู่ใน ChatGPT Health ต้องผ่าน การตรวจสอบความปลอดภัยและข้อกำหนดการเก็บข้อมูลขั้นต่ำ ก่อน
- ผู้ใช้สามารถยกเลิกการเชื่อมต่อแอปได้ทุกเมื่อ และสิทธิ์เข้าถึงข้อมูลจะสิ้นสุดทันทีเมื่อยกเลิก
- บทสนทนาและไฟล์ภายใน ChatGPT Health จะถูกเก็บใน หน่วยความจำเฉพาะที่แยกจากแชตปกติ
- บทสนทนาภายนอกไม่สามารถเข้าถึงข้อมูล Health ได้
- ผู้ใช้สามารถตรวจสอบหรือลบข้อมูลได้จากอินเทอร์เฟซ Health หรือในการตั้งค่า
ความเป็นส่วนตัวและความปลอดภัย
- ChatGPT Health ทำงานในพื้นที่แยกต่างหากที่ใช้ ระบบคุ้มครองความเป็นส่วนตัวที่เข้มงวดขึ้น
- เนื้อหาการสนทนาจะไม่ถูกใช้ฝึกโมเดล
- ทั้งการจัดเก็บและการส่งข้อมูลมีการ เข้ารหัส
- OpenAI มี ฟีเจอร์แชตชั่วคราว และ ตัวเลือกการลบข้อมูลภายใน 30 วัน สำหรับ ChatGPT โดยรวม
- บทสนทนาใน Health ต่างจากบทสนทนาทั่วไปของ ChatGPT โดยถูกจัดการด้วย ระบบเข้ารหัสเฉพาะสำหรับข้อมูลทางการแพทย์ และ โครงสร้างแบบแยกส่วน
ความร่วมมือกับบุคลากรทางการแพทย์และระบบประเมิน
- OpenAI ร่วมมือกับ บุคลากรทางการแพทย์กว่า 260 คน จาก 60 ประเทศทั่วโลกมานานกว่า 2 ปี
- เก็บรวบรวมฟีดแบ็กมากกว่า 600,000 ครั้ง ใน 30 สาขาหลัก
- บุคลากรทางการแพทย์ช่วยตรวจสอบว่าเมื่อใดคำตอบของ ChatGPT มีประโยชน์ และเมื่อใดอาจมีความเสี่ยง
- ผลจากความร่วมมือนี้ถูกนำไปใช้กับการออกแบบโมเดลและรูปแบบการตอบ เพื่อเสริม ความชัดเจน ความปลอดภัย และการเชื่อมต่อกับการรักษา
- โมเดลได้รับการตรวจสอบตามเกณฑ์ทางคลินิกผ่าน กรอบการประเมิน HealthBench
- HealthBench สะท้อนวิธีตัดสินใจในการรักษาจริง โดยอิงจากเกณฑ์ประเมินที่บุคลากรทางการแพทย์เป็นผู้เขียนโดยตรง
- วัดคุณภาพคำตอบโดยเน้นความปลอดภัย การสื่อสารที่ชัดเจน และการเคารพบริบทเฉพาะของผู้ใช้
ตัวอย่างการใช้งานและแนวทางการเข้าถึง
- ผู้ใช้สามารถเข้าใช้งานได้โดยเลือก Health จากแถบด้านข้างของ ChatGPT
- สามารถเชื่อมต่อข้อมูลผ่านการอัปโหลดไฟล์ การเชื่อมต่อแอป เครื่องมือ (+) หรือเมนู ‘แอป’ ในการตั้งค่า
- บทสนทนาใน Health ยังรองรับความสามารถทั่วไปของ ChatGPT เช่น การค้นหา โหมดเสียง และการป้อนตามคำบอก
- ตัวอย่างคำถาม: “ระดับคอเลสเตอรอลของฉันเปลี่ยนไปอย่างไรบ้าง?”, “ช่วยสรุปผลตรวจเลือดก่อนเข้าพบแพทย์ให้หน่อย”
- สามารถเพิ่ม คำสั่งแบบกำหนดเองของผู้ใช้ ในบทสนทนา Health เพื่อปรับวิธีตอบของ ChatGPT และการจัดการหัวข้อที่ละเอียดอ่อน
- คำสั่งแบบกำหนดเองนี้ใช้เฉพาะกับบทสนทนา Health และแก้ไขหรือลบได้ทุกเมื่อ
การให้บริการและแผนขยายต่อไป
- ขณะนี้ เปิดให้ผู้ใช้กลุ่มแรกจำนวนน้อยใช้งานก่อน และสามารถใช้งานได้ผ่านการลงทะเบียนรายชื่อรอ
- มีแผนจะ ขยายสู่เว็บและ iOS อย่างเต็มรูปแบบภายในไม่กี่สัปดาห์ข้างหน้า
- การเชื่อมต่อเวชระเบียนอิเล็กทรอนิกส์และแอปบางส่วน ให้บริการเฉพาะในสหรัฐฯ ส่วนการเชื่อมต่อ Apple Health ต้องใช้ iOS
- OpenAI วางแผนจะช่วยให้ผู้ใช้เข้าใจภาวะสุขภาพและทางเลือกของตนได้ดียิ่งขึ้น ผ่าน การขยายการเชื่อมต่อข้อมูลและอินไซต์ ในอนาคต
1 ความคิดเห็น
ความเห็นจาก Hacker News
ลุงของผมเคยทรมานจากปัญหาการทรงตัวและความผิดปกติด้านการพูด แพทย์วินิจฉัยว่าเป็นภาวะสมองเสื่อมแล้วก็ส่งกลับบ้านไป แต่เขาอาการแย่ลงเรื่อย ๆ เลยลองป้อนอาการเข้า ChatGPT (หรือ Gemini) แล้วถามสมมติฐาน 3 อันดับแรก ข้อแรกเกี่ยวกับภาวะสมองเสื่อม ส่วนข้อที่สองเป็นอีกโรคหนึ่ง ผมเลยเอาข้อมูลนั้นไปหาหมอประจำตัวและขอให้ช่วยพิจารณาอีกสองความเป็นไปได้ สุดท้ายสมมติฐานข้อที่สองถูกต้อง และหลังผ่าตัดเขาก็หายเป็นปกติเต็มที่
ลูกพี่ลูกน้องของผมเปิดคลินิกเป็นจิตแพทย์ ผมเลยกังวลว่าเครื่องมือแพทย์ AIแบบนี้จะคุกคามอาชีพเขาหรือไม่ คนไข้ต้องผ่านทั้งโทรศัพท์ อีเมล และขั้นตอนประกัน แต่ AI คุยได้ทันที นอกจากกรณีที่ต้องสั่งยาแล้ว มนุษย์หมอคงแข่งเรื่องความสะดวกได้ยาก ถ้าอเมริกาจะดูแลประชาชนจริง ก็ควรทำระบบสุขภาพให้เรียบง่ายด้วยระบบประกันแบบผู้จ่ายรายเดียว
ผมเคยพัฒนาซอฟต์แวร์การแพทย์มาก่อน การเอาระบบเชิงความน่าจะเป็นมาใช้กับการแพทย์ถือเป็นสัญญาณอันตราย ตัวตรวจสอบปฏิกิริยาระหว่างยาสำหรับโรงพยาบาลต้องเป็นแบบกำหนดแน่นอน (deterministic) ต้องให้ผลเหมือนเดิมเมื่ออินพุตเหมือนเดิม เพราะถ้าพลาด ชีวิตคนเป็นเดิมพัน
ChatGPT คิดว่าผมเป็น ADHD มาตลอด 9 เดือน ทั้งที่จริงไม่ใช่ พอถามว่ามันได้ข้อมูลนั้นมาจากไหน ก็ยกหลักฐานที่ชัดเจนไม่ได้ สุดท้ายก็ขอโทษและบอกว่าจะลืมคุณลักษณะนั้นไป แต่ผมมองว่าเรื่องแบบนี้ถึงขั้นฟ้องร้องแบบกลุ่มได้เลย
ChatGPT ใช้เวลา 5 นาทีในการหาสาเหตุของโรคเรื้อรังของแม่ผมที่อายุ 80 กว่า ๆ ซึ่งหมอหลายคนหาไม่เจอมาตลอด 3 ปี จากนั้นแพทย์ก็ไปตรวจยืนยันความเป็นไปได้นั้น และถูกต้อง 100% แน่นอนว่าใช้ไม่ได้กับทุกโรค แต่ LLM ทำให้เกิดการคิดแบบบูรณาการข้ามสาขาเฉพาะทางได้
หลายคนบอกว่า AI แบบนี้ดีเพราะระบบสุขภาพอเมริกาแย่มาก แต่แม้ในประเทศที่ระบบรักษาพยาบาลฟรีทำงานได้ดี เครื่องมือแบบนี้ก็ยังเกิดขึ้นได้ ต่อให้มีหมอที่ผ่านการฝึกอบรมและตรวจให้ฟรี ก็ยังมีคนเลือก ChatGPT อยู่ดี สุดท้ายแล้วสำหรับคนอีก95% ของโลก มันอาจให้โทษมากกว่าประโยชน์ ตรรกะของ OpenAI ที่ว่า “ถ้าเราไม่ทำ เดี๋ยวก็มีคนอื่นทำ” ก็แทบไม่ต่างจากข้ออ้างของคนขาย fentanyl
ผมเจอหมอมาเป็นสิบ ๆ คนเพราะปวดเข่ากับข้อศอก แต่ ChatGPT ช่วยได้มากกว่าเยอะ การทำตาม AI แบบตรง ๆ มันอันตรายก็จริง แต่ถ้าใช้ผลตรวจเป็นฐานเพื่อหาคำถามเพิ่มเติมหรือทิศทางการตรวจต่อ มันมีประโยชน์ เหมือนให้ช่วย review code ได้ แต่ถ้าให้มันเขียนโค้ดทั้งหมดเลยก็เสี่ยง
ถ้า AI สามารถช่วยผมได้ถึงขั้นเขียนใบสั่งยาหรือทำการรักษาผ่านหุ่นยนต์ก็คงอีกเรื่อง แต่ถ้ายังทำไม่ได้ ผมคิดว่าให้หมอเอาการวิเคราะห์จาก AI มาใช้ประกอบก็พอแล้ว
ผมไม่ได้กังวลมากนักเรื่องการเข้าถึงข้อมูลสุขภาพของผม ตรงกันข้าม ผมคาดหวังกับนวัตกรรมสุขภาพส่วนบุคคล มากกว่า Apple Health เป็นแค่การเก็บข้อมูล ส่วน 23andMe ก็ไม่ได้มีประโยชน์นัก ตอนนี้ผมทำโปรเจ็กต์ ChatGPT ที่ใส่ประวัติสุขภาพของตัวเองไว้ใน system prompt แล้ว มันถึงขั้นช่วยวิเคราะห์จากงานวิจัยและทำภาพข้อมูลให้ได้ ซึ่งน่าทึ่งมาก
แม้จะมีความเห็นด้านลบเยอะ แต่ผมเองก็แก้ปัญหาสุขภาพได้เพราะ ChatGPT