- รัฐบาลสหรัฐฯ ประกาศ ‘แผนปฏิบัติการ AI แห่งชาติ (AAIAP)’ เพื่อการพัฒนาและการใช้งานปัญญาประดิษฐ์ (AI) อย่างปลอดภัยและมีความรับผิดชอบ
- เสนอเป้าหมายเชิงยุทธศาสตร์ 5 ด้าน ได้แก่ การเพิ่มการลงทุนด้านการวิจัยและพัฒนา AI, การสร้างความน่าเชื่อถือและความรับผิดชอบ, การพัฒนาบุคลากร, การเสริมความเข้าถึงโครงสร้างพื้นฐานและข้อมูล, ความร่วมมือระดับโลก
- มุ่งเน้นการวาง รากฐานด้านกฎหมายและนโยบาย เพื่อให้ AI สร้างประโยชน์ทางสังคมและเศรษฐกิจ พร้อมลดความเสี่ยงให้เหลือน้อยที่สุด
- เน้นมาตรการเพื่อป้องกันการใช้งาน AI ในทางที่ผิดทั้งทางทหารและไม่ใช่ทางทหาร คุ้มครองจริยธรรมและสิทธิมนุษยชน ตลอดจนปกป้องความมั่นคงของชาติและประโยชน์สาธารณะ
- ผลักดันนวัตกรรม AI และการกำหนดบรรทัดฐานไปพร้อมกันผ่านความร่วมมือระหว่างภาครัฐและเอกชน
ภาพรวมแผนปฏิบัติการ AI แห่งชาติ
- ฝ่ายบริหารของสหรัฐฯ เห็นว่าจำเป็นต้องมียุทธศาสตร์แบบองค์รวมในระดับชาติ โดยคำนึงถึง อิทธิพลของเทคโนโลยี AI ที่มีต่อสังคมโดยรวม
- นำเสนอทิศทางนโยบายเพื่อบรรลุสองเป้าหมายพร้อมกัน คือ การส่งเสริมนวัตกรรมและการควบคุมความเสี่ยง
1. เพิ่มการลงทุนด้านการวิจัยและพัฒนา (R&D) AI และเสริมโครงสร้างพื้นฐาน
- สหรัฐฯ จะ ขยายการลงทุนด้าน R&D ในระดับรัฐบาลกลาง เพื่อ ผลักดันความก้าวหน้าของ AI และเสริมความสามารถในการแข่งขันระดับโลก
- เดินหน้าขยาย โครงสร้างพื้นฐานสาธารณะ ที่จำเป็นต่อการวิจัย AI เช่น ซูเปอร์คอมพิวติ้ง ชุดข้อมูลคุณภาพสูง และเครื่องมือโอเพนซอร์ส
- เปิดโอกาสให้ เข้าถึงข้อมูลและทรัพยากรคอมพิวติ้ง สำหรับนักวิจัย สตาร์ตอัป และกลุ่มประชากรส่วนน้อยด้วย
- สนับสนุนงานวิจัยการประยุกต์ใช้ AI ในอุตสาหกรรมเฉพาะอย่างจริงจังในระดับชาติ เช่น การแพทย์ ภูมิอากาศ เกษตรกรรม และพลังงาน
- เพิ่มการลงทุนด้าน R&D ข้ามสาขาวิชา ในวิทยาศาสตร์พื้นฐาน ความน่าเชื่อถือ ความปลอดภัย และ AI เชิงจริยธรรม
2. สร้างระบบนิเวศ AI ที่น่าเชื่อถือและมีความรับผิดชอบ
- ภาครัฐจะเป็นผู้นำในการกำหนด มาตรฐานด้านความโปร่งใส ความปลอดภัย และความสามารถในการอธิบายของ AI แล้วขยายผลไปสู่ภาคเอกชน
- รับประกันความเป็นธรรมของ AI (การไม่เลือกปฏิบัติ การลดความเหลื่อมล้ำ) การคุ้มครองข้อมูลส่วนบุคคล และการปฏิบัติตามจริยธรรม ผ่านกฎหมายและสถาบันที่เกี่ยวข้อง
- เสริมความเข้มแข็งของ ระบบทดสอบและตรวจสอบ ก่อนนำไปใช้งานจริง เช่น การประเมินความเสี่ยงของอัลกอริทึมและการวิเคราะห์ผลกระทบ
- สำหรับการใช้งาน AI ที่มีความเสี่ยงสูง (เช่น การแพทย์ การเงิน ความปลอดภัยสาธารณะ) จะมี กฎระเบียบและการตรวจสอบเพิ่มเติม
- จัดให้มี กระบวนการระบุความรับผิดและการเยียวยาอย่างรวดเร็วเมื่อ AI ทำงานผิดพลาดหรือถูกใช้งานในทางที่ผิด
3. พัฒนาบุคลากรและกำลังคนด้าน AI
- ยกระดับ การศึกษา AI literacy อย่างรอบด้าน ตั้งแต่ระดับประถมศึกษา มหาวิทยาลัย ไปจนถึงการศึกษาผู้ใหญ่
- ขยายการสนับสนุนเพื่อให้นักเรียนจากกลุ่มด้อยโอกาสและพื้นที่เปราะบางสามารถเข้าถึงการศึกษา AI ได้
- ขยายการผลิต ดุษฎีบัณฑิตและผู้เชี่ยวชาญด้าน AI รวมถึงโปรแกรม reskilling/upskilling สำหรับผู้ปฏิบัติงานปัจจุบัน
- เสริมศักยภาพด้าน AI ให้ภาครัฐและหน่วยงานสาธารณะ พร้อมสนับสนุนการแลกเปลี่ยนและความร่วมมือกับบุคลากรจากภาคเอกชนและอุตสาหกรรม
- รวมถึงมาตรการ ดึงดูดบุคลากร AI นโยบายตรวจคนเข้าเมือง และการรับผู้มีความสามารถจากต่างประเทศ
4. ขยายการเข้าถึงข้อมูลและโครงสร้างพื้นฐาน
- จัดทำนโยบายเพื่อการจัดหา แบ่งปัน และใช้ประโยชน์จากข้อมูลที่มีคุณภาพสูง เป็นธรรม และปลอดภัย
- เปิดข้อมูลภาครัฐและ เชื่อมโยงกับข้อมูลภาคเอกชน พร้อมสร้างความสามารถในการทำงานร่วมกัน
- กำหนดมาตรฐานด้านความเป็นส่วนตัวของข้อมูล ความมั่นคงปลอดภัย และจริยธรรมให้ชัดเจน
- สนับสนุนการใช้งานร่วมกันของ โครงสร้างพื้นฐาน เช่น ซูเปอร์คอมพิวติ้งและคลาวด์ สำหรับนักวิจัยและนักพัฒนา AI รวมถึงบริษัท โรงเรียน และองค์กรไม่แสวงหากำไร
- เสริมความแข็งแกร่งของ การทำมาตรฐานข้อมูล การควบคุมคุณภาพ และระบบธรรมาภิบาลข้อมูล
5. ธรรมาภิบาล AI ระดับโลกและความร่วมมือระหว่างประเทศ
- เป็นผู้นำในการกำหนด มาตรฐานและบรรทัดฐานระดับโลก ด้านจริยธรรม ความปลอดภัย และความน่าเชื่อถือของ AI
- เสริมความร่วมมือด้านนโยบาย เทคโนโลยี และการวิจัยกับ G7, OECD, UN และประเทศพันธมิตร
- สร้างความร่วมมือระหว่างประเทศเพื่อป้องกัน การทำ AI ให้เป็นอาวุธ การสอดส่อง และการใช้งานในทางที่ผิดแบบอำนาจนิยม
- ผลักดัน การทำมาตรฐาน AI ระดับโลก ความสามารถในการทำงานร่วมกัน และการรับประกันการเคลื่อนย้ายข้อมูล
- ขยาย การพัฒนาศักยภาพด้าน AI และการสนับสนุนระหว่างประเทศ ให้กับประเทศกำลังพัฒนาและรัฐที่เปราะบาง
ระบบการดำเนินงานและการติดตามประเมินผล
- สำนักงานนโยบายวิทยาศาสตร์และเทคโนโลยีทำเนียบขาว (OSTP) จะเป็นผู้กำกับยุทธศาสตร์ทั้งหมด
- แต่ละหน่วยงาน (กลาโหม พาณิชย์ การศึกษา พลังงาน สาธารณสุข ฯลฯ) จะจัดทำและดำเนินแผนปฏิบัติการเฉพาะของตน
- รับประกัน การมีส่วนร่วมของผู้มีส่วนได้ส่วนเสีย ผ่านคณะหารือภาครัฐ-เอกชน กลุ่มผู้เชี่ยวชาญ และการรับฟังความคิดเห็นจากประชาชน
- จัดทำโรดแมปรายเป้าหมาย ตัวชี้วัดผลสัมฤทธิ์ และระบบติดตามตรวจสอบและรายงานผลเป็นระยะ
- เสริม ความโปร่งใส การมีส่วนร่วมอย่างครอบคลุม และความรับผิดชอบ ในกระบวนการดำเนินนโยบาย
บทสรุปและภารกิจในระยะต่อไป
- เดินหน้าสองเป้าหมายพร้อมกัน คือ ส่งเสริมนวัตกรรม AI และ ลดความเสี่ยงให้น้อยที่สุด
- เน้นย้ำว่าเมื่อเทคโนโลยีก้าวหน้าไปพร้อมกัน การวาง มาตรฐานด้านจริยธรรม กฎหมาย และสังคม เป็นสิ่งจำเป็น
- ความเป็นผู้นำระดับโลก ความร่วมมือระหว่างประเทศ การพัฒนาบุคลากร และการเสริมกฎระเบียบและธรรมาภิบาล เป็นภารกิจหลักในระยะกลางถึงยาว
- ระบุว่า การออกกฎกำกับที่ใช้งานได้จริง การติดตามอย่างต่อเนื่อง และการมีส่วนร่วมอย่างแข็งขันจากทุกภาคส่วนของสังคม คือเงื่อนไขของนโยบายที่ประสบความสำเร็จ
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
เห็นชัดว่า AI เป็นสาขาที่สำคัญอย่างยิ่งต่อการเติบโตทางเศรษฐกิจ แต่ก็อยากเน้นว่าพลังงานสะอาดก็สำคัญไม่แพ้กัน ตอนนี้ทั้งสองด้านกำลังอยู่ในจุดเปลี่ยนสำคัญ อย่างไรก็ตาม สหรัฐกำลังพยายามเร่งนำหน้าในด้าน AI แต่ในด้านพลังงานกลับทำเหมือนไม่มีอะไรเกิดขึ้นและไม่ยอมเผชิญความจริง ท่าทีแบบนี้เสี่ยงทำให้สหรัฐสูญเสียความเป็นผู้นำทางเศรษฐกิจด้านพลังงานให้ประเทศอื่นภายใน 20 ปีข้างหน้า ที่แย่กว่านั้นคือจุดยืนปัจจุบันของรัฐบาลอาจทำให้บริษัทพลังงานสหรัฐยึดติดกับวิธีเดิม ๆ และสุดท้ายอาจล้มละลายในอีก 10~20 ปี เมื่อถึงตอนนั้นสหรัฐอาจต้องเผชิญสถานการณ์ที่ต้องอุ้มบริษัทเหล่านี้ในเชิงยุทธศาสตร์
เป็นเรื่องดีที่เห็นว่ามีการสนับสนุนโอเพนซอร์สและโอเพนเวต AI โดยเฉพาะการระบุให้ชัดว่าโอเพนเวตกับโอเพนซอร์สไม่ใช่สิ่งเดียวกัน
ถ้าไม่มีการสนับสนุนจริง เช่น เงินทุน การที่รัฐบาลแค่พูดว่าให้กำลังใจก็แทบไม่มีความหมายในทางปฏิบัติ ดูจากส่วนที่เกี่ยวข้องในเอกสารแล้ว (อ้างอิงไฟล์ PDF) จะเห็นว่าแทบไม่มีเนื้อหาอะไรเลย
สงสัยว่าเป้าหมายหลักเรื่องการรักษาความได้เปรียบของสหรัฐจะอยู่ร่วมกับนโยบายโอเพนเวตได้อย่างไร เพราะเมื่อเปิดเผยเวตแล้ว ใคร ๆ ก็ใช้เทคโนโลยีนั้นได้
สงสัยว่าความสนใจของรัฐบาลต่อโมเดลที่ "เป็นธรรม" จะตัดกับนโยบายโอเพนซอร์สอย่างไร โดยเฉพาะเมื่อ "ความเป็นธรรม" ตามที่รัฐบาลคิดกลับให้ความรู้สึกน่ากลัวเสียด้วยซ้ำ
เป็นนโยบายที่แทบไม่มีความหมาย
นโยบายทั้งหมดนี้สุดท้ายแล้วมีต้นตอมาจากความต้องการควบคุม ไม่ได้สนใจผลประโยชน์ร่วมกันอย่างแท้จริง ความถูกต้อง หรือความแม่นยำ แต่มีเป้าหมายให้ผู้มีอำนาจควบคุมโอเพนเวตและซอร์สของโมเดล เพื่อป้องกันความคิด คำถาม และแนวคิดเสรีที่ไม่ได้รับอนุมัติ
โดยส่วนตัวคิดว่าจุดที่สำคัญที่สุดคือการแสดงจุดยืนที่หนักแน่นต่อโมเดล AI แบบโอเพนซอร์สและโอเพนเวต จุดยืนนี้ขัดกับกฎระเบียบบางส่วน เช่น EU AI Act แม้ EU AI Act จะไม่ได้ห้ามโมเดลโอเพนเวต แต่ก็มีข้อยกเว้นสำหรับโครงการที่ต่ำกว่า FLOPS 10²⁵ และยังเป็นสภาพแวดล้อมด้านกฎระเบียบที่ค่อนข้างเป็นภาระสำหรับโครงการโอเพนแบบกระจายศูนย์
ถ้าดูหัวข้อ "ข้อเสนอเชิงนโยบาย" จะเห็นว่าส่วนใหญ่เป็นแค่ถ้อยคำที่ไม่มีเนื้อหาจริง
ดูเหมือนจะเน้นพลังงานที่ไม่หมุนเวียนและอุดมการณ์ที่รัฐบังคับ มากกว่าจะเน้นโอเพนซอร์สและพลังงานหมุนเวียน ไม่แน่ใจว่านี่เป็นการมองโลกในแง่ดีแบบไร้เดียงสาหรือเป็นการปฏิเสธความจริง
ในส่วนพลังงาน การพูดถึงการใช้พลังงานฟิวชันเพื่อจ่ายไฟให้ AI แต่ไม่พูดถึงพลังงานแสงอาทิตย์เลย ฟังดูเหมือนเรื่องตลก
ในทางเทคนิค พลังงานแสงอาทิตย์ก็อาจนับเป็นพลังงานฟิวชันในความหมายกว้างได้เหมือนกัน เพราะมันคือพลังงานฟิวชันจากอวกาศที่ส่งมาถึงเราในรูปโฟตอน
สงสัยว่าถ้าจะใช้พลังงานแสงอาทิตย์เดินระบบโครงสร้างพื้นฐาน AI ทั้งหมด จะต้องใช้ที่ดินมากแค่ไหน อยากจะบอกว่าโซลาร์ไม่ค่อยใช้งานได้จริง แต่ก็สงสัยเรื่องนี้อย่างจริงใจเหมือนกัน
ดูเหมือนจะไม่มีวิธีห้ามบริษัท AI ใช้พลังงานจากพลังงานหมุนเวียนเพียงอย่างเดียว
บ้านเกิดของฉันติดตั้งโซลาร์ขนาดใหญ่บนพื้นที่เกษตร โซลาร์เหมาะกับหลังคาบ้าน แต่ถ้าจะใช้กับดาต้าเซ็นเตอร์ที่ทำงาน 24 ชั่วโมงโดยไม่มีแบตเตอรี่ก็ค่อนข้างยาก
ปัญหาคือความต้องการไฟฟ้าของ AI ไม่สอดคล้องกับกราฟการผลิตไฟฟ้าจากโซลาร์
หลังจากหน้า AI Action Page ของสหรัฐ ยังมีนโยบายต่อเนื่องที่น่าสนใจคือ PREVENTING WOKE AI IN THE FEDERAL GOVERNMENT เอกสารนี้นิยาม DEI ว่ารวมถึงการบิดเบือนข้อเท็จจริงเกี่ยวกับเชื้อชาติและเพศ ความหลากหลายเชิงผลลัพธ์ ทฤษฎีเชื้อชาติเชิงวิพากษ์ คนข้ามเพศ อคติโดยไม่รู้ตัว intersectionality การเหยียดเชื้อชาติอย่างเป็นระบบ และการเลือกปฏิบัติ เป็นต้น พร้อมอ้างว่า DEI เป็นภัยต่อ AI ที่น่าเชื่อถือ เพราะทำให้ต้องเสียสละความยึดมั่นต่อความจริง
ในทางปฏิบัติ เป้าหมายเกือบทั้งหมดของ Action Plan มุ่งไปที่การส่งเสริมการใช้ AI แต่มีเพียงเป้าหมายสุดท้ายที่ระบุว่า "ต่อสู้กับสื่อสังเคราะห์ในระบบกฎหมาย" ทั้งที่ AI ส่วนใหญ่รวมถึง LLM มีหน้าที่หลักคือการสร้างสื่อสังเคราะห์ จึงสงสัยว่าสิ่งนี้จะอยู่ร่วมกันได้อย่างไร
ไม่แน่ใจว่าประโยคแรกเป็นการเสียดสีหรือพูดจริง เพราะทั้งเอกสารให้ความรู้สึกเหมือนคำขอจากกลุ่มล็อบบี้อุตสาหกรรม ตัวอย่างการใช้ LLM ในระบบกฎหมายก็คล้ายกับทนายอาวุโสให้ทนายรุ่นน้องร่างเอกสาร ปัญหาเกิดขึ้นเมื่อไม่ตรวจร่างแล้วส่งขึ้นศาลทันที ทำให้เกิดการอ้างกฎหมายอย่างหละหลวม อ้างคดีปลอม หรือใช้ข้อโต้แย้งที่ผิด
ถ้าอ่านเอกสารทั้งฉบับด้วยเสียงของ Patrick Bateman น่าจะเข้าใจมากขึ้น
บางคนก็ตีความว่าสิ่งสำคัญที่สุดคือการได้ AGI ก่อน เพราะใครควบคุม AGI ได้ก็เท่ากับมีพลังจะครองโลก
ส่วนนี้เกี่ยวกับการทำวอเตอร์มาร์ก กล่าวคือระบบระบุและรับรองสื่อสังเคราะห์โดย AI เช่น จำเป็นต้องมีมาตรฐานเฉพาะเพื่อป้องกันไม่ให้ดีปเฟกที่มีเจตนาร้ายทำลายความยุติธรรมทางกฎหมาย จากนั้นจึงมีข้อเสนอเชิงนโยบาย เช่น จัดหาเครื่องมือรับมือดีปเฟกให้ศาลและหน่วยงานยุติธรรม พัฒนาแนวทาง benchmark ด้านนิติวิทยาศาสตร์ และแก้ไขกฎพยานหลักฐานของรัฐบาลกลาง
มีข้อความว่า "หากรัฐบาลกลางจะต่อสัญญากับผู้พัฒนา LLM จะยอมรับเฉพาะระบบที่ให้ผลลัพธ์ 'เป็นกลางและปราศจากอคติ' ตามที่รัฐบาลนี้ยอมรับเท่านั้น" กล่าวคือ ผลลัพธ์ของ AI ต้องสอดคล้องกับมาตรฐานความจริงของรัฐบาลชุดนี้
เคยพูดถึงความกังวลลักษณะนี้มาก่อนแล้วโดนประเมินในทางลบ น่าจะเป็นเพราะมันสวนกระแสความมองบวกต่อ LLM
เอกสารที่เกี่ยวข้อง อธิบายตัวอย่างที่แนวคิด DEI กลายเป็นข้อจำกัดใน AI และอ้างว่าการหมกมุ่นกับ "ความจริง" กำลังคุกคามการมีอยู่ของ AI ที่น่าเชื่อถือเอง
สำนวนอย่าง "ไม่มี top-down ideological bias" โดยแก่นแล้วแทบไม่ต่างจากความหมายดั้งเดิมของ "ความถูกต้องทางการเมือง"
ถ้าต้องยอมจำนนต่อ "ความจริงแบบอเมริกัน" ในลักษณะนี้ ก็อยากออกจากวงการ IT ไปเสียเลย อย่างน้อยก็ยังดีที่ EU AI Act ช่วยชะลอการเผชิญสิ่งนี้ไว้ได้บ้าง
"เป็นกลาง" และ "ไม่มีอคติแบบ top-down" ฟังดูเหมือนการกำหนดว่า 2+2=5 และบังคับให้เชื่อว่าเอเชียตะวันออกกำลังทำสงครามกับเราอยู่ตลอดเวลา
อยากชี้ให้เห็นว่าหลายข้อที่ไล่ไว้ใน Action Plan เช่น "ผ่อนคลายกฎระเบียบฝ่ายบริหาร, เปิดทางให้ใช้ AI อย่างเสรี, สนับสนุนโอเพนซอร์ส, ปกป้องคุณค่าแบบอเมริกัน, จัดหาชุดข้อมูลวิทยาศาสตร์สำหรับ AI, เร่งนำ AI เข้าสู่ภาครัฐ" ล้วนขัดกับนโยบายจริงในทางปฏิบัติ การเคลื่อนไหวจริงของรัฐบาลช่วงหลังสวนทางกับเป้าหมายที่เขียนไว้ตรง ๆ สำหรับฉัน ทั้งหมดนี้ดูเป็นทิศทางที่อันตรายในเวลานี้จนยากจะมองอย่างจริงจัง
ดูเหมือนสูตรสำเร็จคือไม่มีกฎกำกับ แต่เดินหน้าเป้าหมายทางการเมืองอย่างเดียว
เอกสารทั้งฉบับใกล้เคียงกับงานโฆษณาชวนเชื่อแนว "ทำให้อเมริกายิ่งใหญ่ผ่าน AI"
มีคำว่า "ผ่อนคลายกฎระเบียบฝ่ายบริหาร" แต่ในความเป็นจริงตอนนี้ก็ไม่มีข้อบังคับอะไรเกี่ยวกับการเช่า GPU และการฝึกโมเดลอยู่แล้ว
สรุปคืออยากชี้ว่าคำประกาศที่มีแต่คำพูดนั้นไม่มีความหมาย คนที่จริงจังกับคำมั่นที่ไม่มีการลงมือทำมีอยู่น้อยมาก
หลายส่วนให้ความรู้สึกเหมือน "คำขวัญชวนเชื่อ" แบบพรรคคอมมิวนิสต์จีน เพียงแต่ในสหรัฐ รัฐบาลไม่มีศักยภาพจะระดมทุกภาคส่วนอย่างเป็นเอกภาพแบบรัฐอำนาจนิยม ดังนั้นบรรยากาศว่างเปล่าแบบนี้อาจใช้ไม่ได้ผลนัก
หลังโรคระบาด คำว่า "แผน" ดูแทบไม่มีความหมาย เพราะความไร้ความสามารถระดับชาติ คาดว่า Action Plan แบบนี้สุดท้ายจะไม่มีผลลัพธ์จริงนอกจากคำปราศรัยกับการใช้งบประมาณ
ถ้าเป็นแบบนี้ก็มีแต่สัญญามูลค่าหลายล้านดอลลาร์ที่ถูกเผาผลาญไปโดยไม่มีผลงานจริง อุดมการณ์อนุรักษนิยมก็คือตรรกะที่ให้สิทธิพิเศษแก่คนบางกลุ่มเท่านั้น และมองค่ารักษาพยาบาลของคนธรรมดาเป็นของฟุ่มเฟือยที่ควรถูกตัดลด
การพยายามแก้ปัญหาโลกจริงด้วยนโยบายบนกระดาษเพียงอย่างเดียว เป็นปัญหาเรื้อรังที่สหรัฐ สหราชอาณาจักร และสหภาพยุโรปเผชิญมานานแล้ว
ในแคนาดา แค่ประกาศโครงการของรัฐบาลผ่านสื่อสาธารณะก็สามารถเรียกเสียงสนับสนุนจากประชาชนได้ แม้ไม่มีการดำเนินการจริงหรือการสนับสนุนด้านงบประมาณ ราวกับ Pravda
มีข้อความว่า "อุตสาหกรรมการแพทย์ของสหรัฐนำ AI มาใช้ช้า เนื่องจากความไม่ไว้วางใจต่อเทคโนโลยี กฎระเบียบที่ซับซ้อน และการขาดเกณฑ์กำกับดูแลกับการบริหารความเสี่ยงที่ชัดเจน จึงจำเป็นต้องมีความพยายามที่สอดคล้องกันในระดับรัฐบาลกลาง" แต่ก็สงสัยว่าแนวทางแบบ "ลองก่อนแล้วค่อยแก้" จะเหมาะกับวงการแพทย์หรือไม่ เพราะวงการนี้มีเกณฑ์ที่ชัดเจนและเข้มงวดอยู่แล้ว และไม่ค่อยเข้ากับการนำระบบทดลองมาใช้
เคยสัมผัสได้ว่าระบบสาธารณสุขสหรัฐใกล้พังอยู่แล้ว ความต่างระหว่างหมอชนบทสมัยเด็กกับระบบฉุกเฉินแบบ "ฟาสต์ฟู้ด" ในปัจจุบันนั้นชัดเจนมาก ประสบการณ์รักษาช่วงหลังมีแต่ความเมินเฉยและความไร้ความสามารถของบุคลากรทางการแพทย์ ทุกครั้งหลังพบแพทย์ก็ไม่ได้ดีขึ้น แค่ได้บิลก้อนโตกลับมา แม้แต่ทันตกรรมก็แย่ลงอย่างหนักหลังถูกกองทุนไพรเวทอิควิตี้ครอบงำ จากนี้คงไม่ไปสถานพยาบาลเองอีก เว้นแต่เสี่ยงตายจริง ๆ
การใช้ AI เพื่อการรักษาต้องมีการตรวจสอบอย่างเข้มงวด แต่หากนำ AI มาใช้กับงานเรียกเก็บเงิน/งานธุรการ จะช่วยลดต้นทุนได้มาก ค่าใช้จ่ายด้านการแพทย์ของสหรัฐส่วนใหญ่เป็นต้นทุนงานบริหาร
ระบบสาธารณสุขสหรัฐเปราะบางมากอยู่แล้ว และมีผู้เสียชีวิตนับพันจากการรอรักษา การวินิจฉัยผิด และความไร้ประสิทธิภาพ ในด้านการวินิจฉัย AI เหนือกว่าแพทย์ไปแล้วในกรณีส่วนใหญ่
กลยุทธ์แบบ "move fast and break things" อาจสร้างการเปลี่ยนแปลงเชิงบวกในวงการแพทย์ได้เช่นกัน หากสามารถประเมินความเสี่ยงได้อย่างเหมาะสม ถ้าความเสี่ยงจากการรักษาเชิงทดลองไม่สูงกว่าความเสี่ยงเสียชีวิตจากการชะลอรักษาโรคทั่วไป การเร่งนวัตกรรมก็อาจคุ้มค่าในระยะยาว มีผลวิจัยจริงที่ระบุว่า AI เหนือกว่าแพทย์ในห้องฉุกเฉิน
ระบบสาธารณสุขสหรัฐไปถึงขีดจำกัดแล้ว จึงไม่น่าจะแย่ไปกว่านี้ได้ และต่อให้พังกว่านี้ สุดท้ายผู้คนก็อาจมองว่าเป็นการปรับปรุงอยู่ดี