Sam Altman อาจควบคุมอนาคตของเราได้ — เราไว้ใจเขาได้หรือไม่?
(newyorker.com)- ตั้งแต่ช่วงเริ่มก่อตั้ง OpenAI ได้ให้นิยาม AI ว่าเป็นเทคโนโลยีที่ทรงพลังที่สุดและอาจเป็นอันตรายที่สุดในประวัติศาสตร์มนุษยชาติ โดยเริ่มต้นในฐานะองค์กรไม่แสวงหากำไรและใช้โครงสร้างที่ให้ ความปลอดภัยของมนุษยชาติสำคัญกว่าการคงอยู่ของบริษัท แต่หลังจากนั้นเมื่อเปลี่ยนไปสู่รูปแบบแสวงหากำไร หลักการดังกล่าวก็เริ่มกลายเป็นเพียงเปลือก
- เหตุการณ์ 'Blip' ในเดือนพฤศจิกายน 2023 ซึ่งบอร์ดนำโดยผู้ร่วมก่อตั้ง Ilya Sutskever ปลด Altman แบบสายฟ้าแลบ ก่อนจะให้กลับมาในอีก 5 วันถัดมา เป็นกรณีที่ความกังขาพื้นฐานต่อ ความน่าเชื่อถือและความโปร่งใส ของ Altman ปะทุออกมาเป็นการต่อสู้แย่งชิงอำนาจภายในองค์กรจริง ๆ
- บันทึกหลายร้อยหน้าที่อดีตเพื่อนร่วมงานทิ้งไว้มีข้อกล่าวหาอย่างเป็นรูปธรรมว่า Altman ปกปิดข้อเท็จจริงหรือพูดไม่ตรงกันต่อบอร์ด ผู้บริหาร และนักลงทุนซ้ำแล้วซ้ำเล่า โดยมีสมาชิกบอร์ดคนหนึ่งอธิบายว่าเขาเป็น "คนที่ไม่ถูกผูกมัดด้วยความจริง"
- ปัจจุบัน OpenAI กำลังเตรียม IPO ที่มูลค่าบริษัท 1 ล้านล้านดอลลาร์ และ Altman ก็กำลังผลักดันการสร้างโครงสร้างพื้นฐาน AI ขนาดใหญ่โดยใช้เงินทุนจากประเทศอ่าวอาหรับ รวมถึงการคว้าสัญญากับกองทัพสหรัฐ โดยทำหน้าที่เป็น นายหน้าคนสำคัญของการแข่งขันชิงความเป็นใหญ่ด้าน AI
- ในขณะที่ทีมวิจัยด้านความปลอดภัยของ AI ถูกยุบต่อเนื่อง และวัฒนธรรมที่ให้ความสำคัญกับผลิตภัณฑ์และรายได้มากกว่าความปลอดภัยได้หยั่งราก ระบบ ความปลอดภัยระดับภาวะคุกคามต่อการดำรงอยู่ ของ OpenAI ก็ยิ่งห่างไกลจากคำมั่นสัญญาตอนก่อตั้งมากขึ้นเรื่อย ๆ
ชนวนของเหตุการณ์ปลดออก — บันทึกของ Ilya และการตัดสินใจของบอร์ด
- ในฤดูใบไม้ร่วงปี 2023 Ilya Sutskever หัวหน้านักวิทยาศาสตร์ของ OpenAI ได้ส่ง บันทึกลับยาว 70 หน้า ถึงกรรมการอีก 3 คน โดยตั้งคำถามต่อความเหมาะสมของ CEO Sam Altman และประธานบริษัท Greg Brockman
- เนื้อหาถูกเรียบเรียงจากข้อความ Slack และเอกสาร HR พร้อมภาพที่ถ่ายจากอุปกรณ์ส่วนตัวเพื่อหลีกเลี่ยงการตรวจจับ
- ส่งในรูปแบบข้อความที่ลบหายได้เพื่อป้องกันการรั่วไหลออกภายนอก
- บันทึกดังกล่าวอ้างว่า Altman บิดเบือนข้อเท็จจริง ต่อผู้บริหารและบอร์ด และ หลอกลวงเกี่ยวกับโปรโตคอลความปลอดภัยภายใน
- ชื่อหัวข้อแรกในบันทึกคือ: "Sam exhibits a consistent pattern of… Lying"
- สมาชิกบอร์ด Helen Toner (ผู้เชี่ยวชาญนโยบาย AI) และ Tasha McCauley (ผู้ประกอบการ) มองว่าบันทึกนี้เป็น "การยืนยันสิ่งที่เชื่ออยู่แล้ว"
- ระหว่างที่ Altman กำลังชมการแข่งขัน F1 ที่ลาสเวกัส Sutskever ได้แจ้งการปลดเขาผ่านวิดีโอคอล
- ในแถลงการณ์ต่อสาธารณะระบุเพียงว่าเขา "ไม่ได้สื่อสารอย่างตรงไปตรงมาอย่างสม่ำเสมอ"
'Blip' — การแย่งชิงอำนาจ 5 วันหลังการปลด
- Microsoft เพิ่งได้รับแจ้งก่อนการปลดไม่นาน และ Satya Nadella กล่าวว่า "ไม่รู้เลยว่าเกิดอะไรขึ้น"
- Thrive Capital ซึ่งกำลังเตรียมลงทุนใน OpenAI ที่มูลค่า 8.6 พันล้านดอลลาร์ ได้ ระงับการลงทุนโดยมีเงื่อนไขว่า Altman ต้องกลับมา
- ทันทีที่กลับถึงบ้าน Altman ได้จัดตั้งห้องวางแผน ทีมรับมือวิกฤต ภายในบ้านพักของตน
- มีนักลงทุน Ron Conway, ผู้ร่วมก่อตั้ง Airbnb Brian Chesky, และผู้เชี่ยวชาญด้านการจัดการวิกฤต Chris Lehane เข้าร่วม
- ทนายความประจำอยู่ในห้องทำงานข้างห้องนอน และ Altman เดินไปมาด้วยชุดนอน
- มีคำให้การว่า ฝั่ง Altman เคยเตือนว่ากำลัง "มองหาข้อมูลที่จะทำลายชื่อเสียง" ของคนฝั่งตรงข้าม เช่น Mira Murati (Altman ปฏิเสธว่าไม่จำได้)
- Microsoft เพิ่มแรงกดดันด้วยการประกาศตั้งทีมแยกสำหรับ Altman และพนักงานที่ย้ายออก
- พนักงาน OpenAI ส่วนใหญ่ลงนามในจดหมายเปิดผนึกเรียกร้องให้ Altman กลับมา ทำให้บอร์ดถอนมติปลด
- ในที่สุด Sutskever ก็ลงนามในจดหมายด้วย และบอร์ดตัดสินใจให้กลับมา หลังถูกกดดันว่าถ้าไม่ทำ "บริษัทจะพัง"
หลังการกลับมา — การทำให้การสอบสวนไร้น้ำหนักและการปรับโครงสร้างธรรมาภิบาล
- Altman เรียกร้องให้กรรมการที่ปลดเขาลาออก โดย Helen Toner, Tasha McCauley, และ Sutskever ซึ่งลงคะแนนสนับสนุนการปลด ถูกขับออกจากบอร์ด
- เงื่อนไขก่อนพ้นตำแหน่งคือให้มีการสอบสวนภายนอกอย่างอิสระ และเมื่อแต่งตั้งกรรมการใหม่ก็เลือกบุคคลที่ปรึกษาใกล้ชิดกับ Altman
- Lawrence Summers และ Bret Taylor เข้าร่วมเป็นกรรมการใหม่
- บริษัทกฎหมาย WilmerHale รับผิดชอบการสอบสวน แต่มีผู้เกี่ยวข้องอย่างน้อย 6 คนอ้างว่าเป็น "การสอบสวนที่ถูกออกแบบมาเพื่อจำกัดความโปร่งใส"
- มีการชี้ว่าละเว้นการสัมภาษณ์บุคคลสำคัญ และรับประกันการไม่เปิดเผยตัวตนได้ไม่เพียงพอ
- ในเดือนมีนาคม 2024 OpenAI สรุปว่า Altman ไม่มีความผิด แต่ ไม่ได้จัดทำรายงานขึ้นมาเลย
- มีเพียงการบรีฟด้วยวาจา และมีรายงานว่าการตัดสินใจไม่ทำรายงานเป็นไปตามคำแนะนำของทนายส่วนตัวของ Summers และ Taylor
- มีคำให้การจากผู้เกี่ยวข้องว่า "การไม่มีรายงานช่วยลดทอนความร้ายแรงของข้อกล่าวหา"
- ต่อมา Summers ลาออกจากตำแหน่งกรรมการ หลังมีการเปิดเผยอีเมลที่เกี่ยวข้องกับ Jeffrey Epstein
- หลังจากนั้น OpenAI ก็เติบโตเป็นหนึ่งในบริษัทที่มีมูลค่าสูงที่สุดในโลก พร้อมกับ การเตรียม IPO มูลค่า 1 ล้านล้านดอลลาร์
- Altman ยังมีส่วนเกี่ยวข้องกับ การขยายโครงสร้างพื้นฐาน AI, สัญญากับภาครัฐ, และ การทำมาตรฐานระบบเฝ้าระวังและอาวุธ
- แต่ภายในองค์กรยังคงมีเสียงวิจารณ์ต่อ พฤติกรรมเชิงหลอกลวง ของ Altman ว่าเกิดซ้ำต่อเนื่อง
บุคลิกและเส้นทางอาชีพช่วงต้นของ Altman — การพูดเกินจริง การโน้มน้าว และความทะเยอทะยานในอำนาจ
- เขาเติบโตมาในครอบครัวฐานะดีจากเมืองเคลย์ตัน รัฐมิสซูรี และเคยมีประสบการณ์ถูกทำร้ายจาก ความเกลียดกลัวคนรักเพศเดียวกัน ในช่วงวัยรุ่น
- ระหว่างเรียนที่สแตนฟอร์ด เขาได้ฝึกเซนส์ด้านธุรกิจผ่าน เกมโป๊กเกอร์ และหลังลาออกก็เข้าร่วมเป็นผู้ก่อตั้งรุ่นแรกของ Y Combinator(YC) พร้อมก่อตั้ง Loopt
- Loopt เป็นโซเชียลเน็ตเวิร์กตามตำแหน่งที่ตั้ง แต่ไม่สามารถเติบโตได้และถูกขายในปี 2012
- ตั้งแต่สมัย Loopt ก็มีคนชี้ถึง นิสัยชอบพูดเกินจริง ของเขา: เขาเคยอวดว่าตัวเองเป็นแชมป์ปิงปอง แต่ความจริงแล้วฝีมืออยู่ระดับท้าย ๆ ของออฟฟิศ
- Mark Jacobstein อดีตพนักงานกล่าวว่า: "ถ้าเส้นแบ่งระหว่างสิ่งที่ฉันคิดกับสิ่งที่ทำสำเร็จไปแล้วพร่าเลือนในรูปแบบที่เลวร้ายที่สุด มันก็จะกลายเป็น Theranos"
- กลุ่มพนักงานเคยร้องขอต่อบอร์ดให้ปลดเขาสองครั้ง แต่ไม่สำเร็จ
- Loopt ถูกขายให้บริษัทฟินเทคในปี 2012 โดยมีคำให้การจากผู้เกี่ยวข้องว่าเป็น "ดีลที่จัดขึ้นเป็นหลักเพื่อรักษาหน้าของ Altman"
- Paul Graham แต่งตั้ง Altman เป็นผู้สืบทอดตำแหน่งประธาน Y Combinator ของตนในปี 2014
- มีคำบรรยายว่าเมื่อ Graham แจ้งเรื่องนี้ Altman ยิ้มอย่างควบคุมไม่อยู่พร้อมพูดว่า "it worked"
ช่วงคุม Y Combinator — ผลประโยชน์ทับซ้อนและที่มาของการลงจากตำแหน่ง
- ในฐานะประธาน YC มีเสียงวิจารณ์ว่าเขากีดกันการมีส่วนร่วมของนักลงทุนรายอื่น และ เลือกทำการลงทุนส่วนตัวด้วยตัวเอง (Altman ปฏิเสธ)
- มีคำให้การจากผู้เกี่ยวข้องว่า ตอนลงทุนใน Stripe เขาเรียกร้องสัดส่วนหุ้นมากกว่าที่ตกลงไว้กับ Sequoia Capital จนทำให้พาร์ตเนอร์ตกตะลึง
- เงินลงทุนแรกของ Altman คือ 15,000 ดอลลาร์ (2%) → ปัจจุบัน Stripe มีมูลค่ามากกว่า 1.5 แสนล้านดอลลาร์
- ในปี 2018 พาร์ตเนอร์ YC หลายคนได้ร้องเรียนพฤติกรรมของ Altman ต่อ Graham
- มีพยานหลายรายระบุว่า Graham เคยพูดเป็นการส่วนตัวว่า "Sam had been lying to us all the time"
- แม้ Altman จะยืนยันว่าไม่เคยถูกปลด และ Graham ก็ปฏิเสธในประกาศอย่างเป็นทางการ แต่บันทึกภายในชี้ว่า "มันไม่ใช่การแยกทางที่ยินยอมพร้อมใจกันอย่างสมบูรณ์"
- ในเอกสารยื่นต่อ SEC ปี 2021 ระบุว่า Altman เป็นประธาน YC แต่เจ้าตัวอ้างว่า "เพิ่งมารู้ทีหลัง"
การก่อตั้ง OpenAI — ความย้อนแย้งระหว่างข้ออ้างเรื่องความปลอดภัยกับการระดมทุน
- ในปี 2015 เขาติดต่อ Elon Musk ทางอีเมลด้วยเหตุผลว่า "AI อาจอันตรายยิ่งกว่านิวเคลียร์" และ เสนอให้ OpenAI เป็น "โครงการแมนฮัตตันแห่งวงการ AI"
- ทั้งสองร่วมกันก่อตั้ง OpenAI และ Musk ให้คำมั่นว่าจะสนับสนุนเงินทุน 1 พันล้านดอลลาร์
- OpenAI ตั้งเป้าหมายว่า “พัฒนา AGI เพื่อประโยชน์ของมวลมนุษยชาติทั้งหมด” และยึด การป้องกันเผด็จการ AGI เป็นหลักการสำคัญ
- หลักการก่อตั้ง: "ความปลอดภัยคือเงื่อนไขสำคัญสูงสุด", "สนับสนุนกฎระเบียบทุกอย่างอย่างแข็งขัน"
- ในปี 2017 Musk เรียกร้องให้ OpenAI เปลี่ยนเป็นบริษัทแสวงหากำไรและให้ตนถืออำนาจควบคุม แต่ Altman ปฏิเสธ
- หลังจากนั้น Musk ก็ออกไป และในปี 2023 ก่อตั้งคู่แข่งอย่าง xAI พร้อม ยื่นฟ้อง Altman และ OpenAI ในข้อหาฉ้อโกงและละเมิดทรัสต์เพื่อการกุศล (คดียังดำเนินอยู่)
- แม้จะเคยสัญญากับพนักงานช่วงแรกว่าจะคงสถานะไม่แสวงหากำไรอย่างแท้จริงและทำให้พวกเขายอมรับการลดเงินเดือน แต่เอกสารภายในกลับมีร่องรอยว่ามีการหารือเรื่องเปลี่ยนเป็นแสวงหากำไรตั้งแต่ปี 2017 แล้ว
- Sutskever อ่าน งานวิจัยสถาปัตยกรรม Transformer ของ Google ในปี 2017 แล้วร้องว่า "นี่แหละใช่เลย" พร้อมเรียกร้องให้ทีมเปลี่ยนทิศทางทั้งหมด ซึ่งต่อมากลายเป็นเมล็ดพันธุ์ของ GPT
- วิศวกรบางคนตั้งคำถามต่อผู้นำว่า “พวกเราได้กลายเป็นฝ่ายร้ายไปแล้วหรือเปล่า”
Dario Amodei และการก่อตั้ง Anthropic — รอยร้าวของหลักการด้านความปลอดภัย
- Amodei เขียนบันทึกส่วนตัวชื่อ "My Experience with OpenAI" ยาวกว่า 200 หน้ามาเป็นเวลาหลายปี
- ในปี 2018 Dario Amodei วิจารณ์ ความไม่ชัดเจนของภารกิจและการดำเนินงานที่ยึดเงินทุนเป็นศูนย์กลาง ของ OpenAI
- เขาเสนอ ‘เงื่อนไข Merge and Assist’ ที่ว่า “หากมีโครงการอื่นสร้าง AGI ที่ปลอดภัยได้ก่อน ก็ให้ร่วมมือกัน”
- ระหว่างการทำสัญญารับเงินลงทุนจาก Microsoft ในปี 2019 มีการแอบเพิ่มเงื่อนไขที่ทำให้ข้อกำหนดดังกล่าวไร้ผล
- Altman ปฏิเสธการมีอยู่ของเงื่อนไขนี้ในตอนแรก แต่เมื่อ Amodei อ่านให้ฟังโดยตรงก็ถอนคำปฏิเสธ
- มีกรณีคำพูดทำนอง "เขาไม่ได้พูด คุณต่างหากที่เพิ่งพูด" เกิดขึ้นซ้ำ ๆ (Altman ปฏิเสธโดยบอกว่าจำไม่ได้)
- Amodei อ้างว่า Altman กล่าวหาตนและ Daniela พี่สาวว่า 'กำลังวางแผนรัฐประหาร' และเมื่อ Daniela เรียกผู้บริหารที่เกี่ยวข้องมาสอบถาม Altman ก็พูดว่า "ผมไม่ได้พูดแบบนั้น"
- ในปี 2020 พี่น้อง Amodei และเพื่อนร่วมงานลาออกไปก่อตั้ง Anthropic
การยุบทีมความปลอดภัยและการไม่ทำตามคำมั่นเรื่องทรัพยากร
- ตอนประกาศตั้ง "superalignment team" ในปี 2023 มีการสัญญาว่าจะให้ "20% ของพลังประมวลผลที่บริษัทมี"
- แต่คำให้การภายในทีมระบุว่าทรัพยากรที่ได้รับจริงอยู่เพียงระดับ 1–2% และยังเป็นคลัสเตอร์เก่ากับชิปประสิทธิภาพต่ำ
- นักวิจัยอ้างว่า “ชิปรุ่นใหม่ถูกใช้กับธุรกิจที่ทำรายได้เท่านั้น” ขณะที่ OpenAI ปฏิเสธข้อกล่าวหานี้
- หัวหน้าทีม Jan Leike ระบุว่า “คำสัญญานี้เป็นเครื่องมือเพื่อรักษาคนเก่งไว้”
- เขาเคยประท้วงต่อ Murati แต่ได้รับคำตอบว่า "มันเป็นคำสัญญาที่ไม่สมจริง"
- Jan Leike ส่งอีเมลถึงบอร์ดเตือนว่า "OpenAI กำลังออกนอกเส้นทางภารกิจ ผลิตภัณฑ์ รายได้ และความสามารถของ AI มาก่อน ส่วนความปลอดภัยอยู่ลำดับที่สาม"
- Carroll Wainwright: "หลังการเปิดตัว GPT-4 บริษัทก็ยังคงให้ความสำคัญกับผลิตภัณฑ์ก่อนและลดความสำคัญของความปลอดภัย"
- ตอนเปิดตัวโมเดล GPT-4 Turbo Altman อ้างถึงหัวหน้าฝ่ายกฎหมายว่าบอกว่าไม่จำเป็นต้องมีการอนุมัติด้านความปลอดภัย แต่หัวหน้าฝ่ายกฎหมายตอบใน Slack ว่า "ไม่รู้ว่า sam ได้ความเข้าใจแบบนั้นมาได้อย่างไร"
- เมื่อ Sutskever เริ่มเชื่อว่า AGI ใกล้มาถึงแล้ว เขาก็ หมกมุ่นกับปัญหาความปลอดภัย และเตือนว่า “ถ้าพนักงานทุกคนไม่โฟกัสเรื่องความปลอดภัย เราจะพัง”
- แต่ท้ายที่สุด ทีม Superalignment ก็ถูกยุบก่อนเสร็จภารกิจ และไม่สามารถบรรลุเป้าหมายได้
- Sutskever และ Leike ลาออกพร้อมกัน
- ในเอกสารยื่นต่อ IRS ช่อง "กิจกรรมที่สำคัญที่สุด" มีการ ลบแนวคิดเรื่อง 'ความปลอดภัย' ออกไป
- ในการประเมินความปลอดภัยเชิงภาวะวิกฤตของบริษัท AI ล่าสุดโดย Future of Life Institute นั้น OpenAI ได้ เกรด F
- Altman ระบุว่าความสามารถบางส่วนของ GPT-4 ได้รับการอนุมัติจากคณะกรรมการความปลอดภัยแล้ว แต่ ฟีเจอร์ ‘fine-tuning’ และ ‘personal assistant’ ไม่ได้รับการอนุมัติ
- อีกทั้งยังไม่มีการรายงานว่าทาง Microsoft เปิดตัว ChatGPT เวอร์ชันแรกในอินเดียโดยไม่มีการตรวจสอบด้านความปลอดภัย
- นักวิจัยประเมินว่า OpenAI ได้เปลี่ยนไปสู่แนวทาง “ผลิตภัณฑ์มาก่อน ความปลอดภัยตามหลัง”
การเปลี่ยนเป็นบริษัทแสวงหากำไร โครงสร้างสินทรัพย์ และผลประโยชน์ส่วนบุคคล
- จากโครงสร้างแบบ 'บริษัทจำกัดเพดานกำไร (capped profit)' เดิม → เปลี่ยนเป็นนิติบุคคลแสวงหากำไรเต็มรูปแบบในเดือนตุลาคม 2024
- มูลนิธิไม่แสวงหากำไร (OpenAI Foundation) ถือหุ้นเพียง 26% และสมาชิกบอร์ดส่วนใหญ่ก็ซ้ำกับบอร์ดฝั่งบริษัทแสวงหากำไร
- กรรมการ Holden Karnofsky ลงคะแนนคัดค้านการประเมินมูลค่าต่ำเกินไปของนิติบุคคลไม่แสวงหากำไร แต่ในรายงานการประชุมกลับ ถูกบันทึกว่าเป็นการงดออกเสียง (มีสัญญาณว่าแก้ไขโดยไม่ได้รับความยินยอม)
- ในการไต่สวนของสภาคองเกรส เขาพูดว่า "ไม่มีหุ้น OpenAI ทำเพราะความรัก" — แต่ไม่ได้กล่าวถึง การถือหุ้นทางอ้อม ผ่านกองทุน YC
- มีการประเมินว่าหุ้นของ Brockman มีมูลค่าราว 2 หมื่นล้านดอลลาร์ และคาดว่าหุ้นของ Altman จะมากกว่านั้น
- คำให้การของอดีตพนักงาน: Altman เคยพูดว่า "ผมสนใจ อำนาจ มากกว่าเงิน"
การระดมทุนจากตะวันออกกลางและความเสี่ยงทางภูมิรัฐศาสตร์
- ในปี 2016 เขาพบกับมกุฎราชกุมารซาอุ Mohammed bin Salman เป็นครั้งแรก และหลังจากนั้นก็มีการทาบทามเงินลงทุนมูลค่าหลายพันล้านดอลลาร์
- หนึ่งสัปดาห์หลังการลอบสังหาร Khashoggi เขาเข้าร่วมคณะกรรมการที่ปรึกษาของเมืองอนาคต Neom ของซาอุ ก่อนจะลาออกภายหลังเมื่อถูกวิจารณ์
- แต่มีคำให้การจากที่ปรึกษานโยบายว่าหลังลาออก เขายังคิดอยู่ว่า "จะหาทางรับเงินจากซาอุได้อย่างไร"
- เขายังคงมีความสัมพันธ์ใกล้ชิดกับ Sheikh Tahnoon bin Zayed หัวหน้าสายลับของ UAE โดยเคยเขียนใน X ของตนว่าเป็น "เพื่อนสนิทส่วนตัว"
- ได้รับ Koenigsegg Regera มูลค่าราว 2 ล้านดอลลาร์ และ McLaren F1 มูลค่าราว 20 ล้านดอลลาร์จาก UAE (อ้างว่าได้เปิดเผยตามนโยบายบริษัทแล้ว)
- ในปี 2024 เขาไปเยือนเรือยอชต์หรูพิเศษ Maryah ของ Tahnoon ซึ่งมีมูลค่า 250 ล้านดอลลาร์
- แนวคิด ChipCo: สร้างโรงงานผลิตเซมิคอนดักเตอร์และดาต้าเซ็นเตอร์ขนาดมหึมาด้วยเงินทุนจากประเทศอ่าวเปอร์เซีย โดยให้บางส่วนตั้งอยู่ในตะวันออกกลาง
- มีคำให้การจากกรรมการว่ามีการดำเนินการเรื่องนี้โดยไม่แจ้งบอร์ดล่วงหน้า
- หน่วยงานความมั่นคงสหรัฐกังวลเรื่องการพึ่งพา Huawei ของเครือข่ายสื่อสาร UAE ความเป็นไปได้ที่ชิปขั้นสูงของสหรัฐจะรั่วไหลไปจีน และความเปราะบางต่อการโจมตีทางทหาร
- รัฐบาล Biden: ปฏิเสธอนุมัติโดยระบุว่า "จะไม่สร้างชิปขั้นสูงใน UAE"
- พนักงานของ RAND Corporation แสดงความกังวลในการพิจารณาอนุมัติด้านความมั่นคงว่าเป็น "คนที่กำลังระดมเงินหลายหมื่นล้านดอลลาร์จากรัฐบาลต่างชาติ" และ Altman ก็ถอนตัวจากกระบวนการโดยสมัครใจ
- สองวันหลัง Trump เข้ารับตำแหน่ง Altman ประกาศ Stargate — โครงการร่วมทุนโครงสร้างพื้นฐาน AI มูลค่า 5 แสนล้านดอลลาร์ — ที่ Roosevelt Room
- หลังจากนั้นมีการประกาศขยาย Stargate ไปยังซาอุและ UAE พร้อมแผนสร้างแคมปัสดาต้าเซ็นเตอร์ใน Abu Dhabi ที่มีขนาดใหญ่กว่าเซ็นทรัลพาร์ค 7 เท่า
การเปลี่ยนจุดยืนทางการเมืองและการล็อบบี้ด้านกฎระเบียบ
- ในการไต่สวนวุฒิสภาปี 2023 เขาได้รับความนิยมจากท่าทีเหมือนเรียกร้องให้มีการกำกับดูแล AI ด้วยตนเอง แต่เบื้องหลังกลับล็อบบี้เพื่อผ่อนคลายกฎระเบียบ AI ของสหภาพยุโรป
- เขาคัดค้านร่างกฎหมายความปลอดภัย AI ของแคลิฟอร์เนีย (SB 1047) อย่างเปิดเผย และใช้อิทธิพลกดดันอย่างคุกคามอยู่เบื้องหลัง
- Ron Conway ล็อบบี้ Pelosi และ Newsom จน Newsom ใช้วีโต้ต่อร่างกฎหมายที่ผ่านสภานิติบัญญัติแล้ว
- จุดยืนอย่างเป็นทางการของ OpenAI คือ "ไม่บริจาคให้ super PAC" แต่ Brockman บริจาค 50 ล้านดอลลาร์ให้ PAC ชื่อ Leading the Future (และในปีเดียวกันยังบริจาค 25 ล้านดอลลาร์ให้ MAGA Inc.)
- มีการออกหมายเรียก Nathan Calvin ผู้สนับสนุนร่างกฎหมายความปลอดภัย AI และใช้มาตรการเดียวกันกับผู้วิจารณ์ร่างกฎหมายด้วย
- เจ้าหน้าที่รายหนึ่งกล่าวว่า "โดยพื้นฐานแล้วคือพยายามปิดปาก"
- Altman ซึ่งเคยเรียก Trump ในปี 2016 ว่าเป็น "ภัยคุกคามที่ไม่เคยมีมาก่อน" กลับบริจาค 1 ล้านดอลลาร์ให้กองทุนพิธีสาบานตนของ Trump ในปี 2024 และกลายเป็นคนใกล้ชิดฝ่าย Trump
- ขณะที่ Musk ซึ่งช่วย Trump ด้วยเงิน 250 ล้านดอลลาร์กลับห่างเหินจากเขา Altman กลับร่วมเดินทางกับ Trump ในการเยือนซาอุ
Anthropic vs. กระทรวงกลาโหมสหรัฐ — โอกาสที่ OpenAI ฉวยไว้
- Anthropic ยังคงยึดหลักการ ห้ามสนับสนุนอาวุธอัตโนมัติเต็มรูปแบบและการเฝ้าระวังมวลชนภายในประเทศ
- รัฐมนตรีกลาโหม Pete Hegseth กำหนดเส้นตายและเรียกร้องให้ถอนหลักการดังกล่าว แต่ Anthropic ปฏิเสธ
- Hegseth ระบุ Anthropic เป็น “ความเสี่ยงต่อห่วงโซ่อุปทาน” (มาตรการขึ้นบัญชีดำที่เคยใช้กับบริษัทจีนอย่าง Huawei)
- พนักงานของ OpenAI·Google และบริษัทอื่นๆ สนับสนุน Anthropic ผ่านจดหมายเปิดผนึก “We Will Not Be Divided”
- Altman เจรจากับกระทรวงกลาโหมอยู่แล้วตั้งแต่ก่อนที่ความขัดแย้งระหว่าง Anthropic กับกระทรวงจะถูกเปิดเผย
- Emil Michael รัฐมนตรีช่วยว่าการกระทรวงกลาโหมฝ่ายนโยบายติดต่อหา Altman และกล่าวว่า “เขากระโจนเข้ามาทันที ผมคิดว่าเขาเป็นผู้รักชาติ”
- มีการประกาศสัญญาบูรณาการกับ AWS มูลค่า 5 หมื่นล้านดอลลาร์ และกองทัพสหรัฐเริ่มใช้โมเดลของ OpenAI
- ในวันประกาศสัญญา มูลค่าบริษัทของ OpenAI เพิ่มขึ้น 1.1 แสนล้านดอลลาร์ ขณะเดียวกันมีพนักงานอาวุโสอย่างน้อย 2 คนย้ายไป Anthropic
- เมื่อตอบข้อกังวลของพนักงาน Altman กล่าวว่า “ไม่ว่าคุณจะคิดว่าการโจมตีทางอากาศใส่อิหร่านเป็นเรื่องดี หรือคิดว่าการบุกเวเนซุเอลาเป็นเรื่องเลวร้าย พวกคุณไม่มีสิทธิ์เข้าไปเกี่ยวข้อง”
ข้อถกเถียงเรื่องความน่าเชื่อถือของ Altman — คำให้การที่หลากหลาย
- Altman ถูกเรียกว่าเป็น นักขายที่เก่งที่สุดแห่งยุค และถูกเปรียบกับ สนามบิดเบือนความจริงของ Steve Jobs
- เพื่อนร่วมงานชี้ปัญหาที่ มีแนวโน้มหลอกลวงและใฝ่อำนาจ ของเขา
- บางคนถึงกับเรียกเขาว่า “บุคคลแบบสังคมวิปริต” และมีรายงานว่า Aaron Swartz (รุ่นร่วมก่อตั้ง YC รุ่นแรก) เคยเตือนก่อนเสียชีวิตว่า “Sam ห้ามไว้ใจเด็ดขาด เขาเป็น sociopath”
- Altman อาจ ไม่ได้เชี่ยวชาญด้านการเขียนโค้ดหรือแมชชีนเลิร์นนิง แต่เขาทำให้ OpenAI เติบโตด้วย ความสามารถในการรวบรวมเทคโนโลยีและทุนของผู้อื่น
- เขาปฏิบัติในลักษณะ สร้างโครงสร้างข้อจำกัดไว้ก่อน แล้วค่อยทำให้มันหมดความหมายเมื่อจำเป็น
- ผู้เกี่ยวข้องบางรายเปรียบความสามารถในการโน้มน้าวของเขากับ “Jedi mind trick”
- ผู้บริหาร Microsoft อ้างว่า Altman บิดเบือนและทำลายข้อตกลง
- OpenAI ระบุให้ Microsoft เป็นผู้ให้บริการคลาวด์แบบเอกสิทธิ์ แต่กลับทำ ข้อตกลงรีเซลกับ Amazon มูลค่า 5 หมื่นล้านดอลลาร์
- Microsoft มองว่าสัญญาดังกล่าวขัดกัน แต่ OpenAI ยืนยันว่าไม่ใช่การละเมิด
- ผู้บริหารรายหนึ่งประเมินว่า Altman อาจถูกจดจำว่าเป็น “นักต้มตุ๋นระดับเดียวกับ Sam Bankman-Fried”
- Altman เข้าร่วมการหารือกับ รัฐบาล Biden เกี่ยวกับ นโยบายอนุมัติการส่งออกเทคโนโลยีอ่อนไหว แต่เจ้าหน้าที่บางส่วนกังวลถึง ความทะเยอทะยานในตะวันออกกลาง ของเขา
- ก่อน Trump เข้ารับตำแหน่งไม่นาน หลัง Tahnoun ลงทุน 500 ล้านดอลลาร์ในบริษัทของตระกูล Trump แล้ว Altman ได้คุยโทรศัพท์กับ Trump
- หลังจากนั้นมีการประกาศโครงการโครงสร้างพื้นฐาน AI “Stargate” มูลค่า 5 แสนล้านดอลลาร์ ที่ทำเนียบขาว
- รัฐบาล Trump ยกเลิกข้อจำกัดการส่งออกเทคโนโลยี AI และ Altman กับ Trump ก็เดินทางไปเยือน ราชวงศ์ซาอุดีอาระเบีย
- อดีตกรรมการ Yoon: “เขาไม่ใช่วายร้ายแบบมาเคียเวลลี แต่เป็นคนที่มั่นใจในตัวเองมากเกินไป เป็น คนที่ไม่ได้อยู่ในโลกความจริง”
- Annie พี่สาวของ Altman ยื่นฟ้องกล่าวหาว่าถูกล่วงละเมิดทางเพศ ขณะที่ Altman ปฏิเสธทั้งหมด และสมาชิกครอบครัวก็โต้ว่า “ไม่เป็นความจริงเลยแม้แต่น้อย” (ไม่สามารถยืนยันต้นฉบับได้)
- Altman: “ทุกข้อกล่าวหาเกี่ยวกับพฤติกรรมน่ารังเกียจของคู่แข่ง การเกี่ยวข้องกับผู้เยาว์ หรือการมีส่วนในคดีฆาตกรรม ล้วนไม่เป็นความจริงโดยสิ้นเชิง”
สภาพปัจจุบันของความปลอดภัย AI — ช่องว่างระหว่างคำมั่นกับความจริง
- Anthropic หลังระดมทุนได้ 3 หมื่นล้านดอลลาร์ ก็ ผ่อนคลายคำมั่นด้านความปลอดภัย และการแข่งขันด้าน ความเร็ว ก็รุนแรงขึ้น
- Anthropic ร่วมมือกับ Palantir เพื่อนำ โมเดล Claude ไปผนวกรวมกับระบบทางทหาร และใช้ใน ปฏิบัติการของเพนตากอน
- หลังจากนั้นบริษัทก็ถูกระบุเป็น บริษัทเสี่ยงต่อห่วงโซ่อุปทาน และถูกขึ้น บัญชีดำ
- OpenAI เจรจากับกระทรวงกลาโหม และทำ สัญญาบูรณาการโครงสร้างพื้นฐานกลาโหมบน AWS (มูลค่า 5 หมื่นล้านดอลลาร์)
- วันเดียวกันนั้น มูลค่าบริษัทของ OpenAI เพิ่มขึ้น 1.1 แสนล้านดอลลาร์ และพนักงานบางส่วนลาออก
- ผู้บริหารบางรายประเมินว่าภาวะผู้นำของ Altman มี ปัญหาธรรมาภิบาลร้ายแรง
- มีการพูดถึง Fidji Simo ในฐานะผู้สืบทอดที่เป็นไปได้
- OpenAI ยุบ ทีม Superalignment และ ทีมเตรียมความพร้อม AGI
- Sutskever และ Leike ลาออก พร้อมวิจารณ์ว่า “ให้ความสำคัญกับผลิตภัณฑ์ที่หวือหวาก่อนความปลอดภัย”
- ในรายงานต่อ IRS มีการลบหัวข้อ ‘ความปลอดภัย’ ออก และได้รับ เกรด F ในการประเมินความปลอดภัยเชิงอัตถิภาวนิยมของ Future of Life Institute
- การทำให้ A.I. กลายเป็นอาวุธและความเสียหายทางสังคม กำลังเกิดขึ้นจริง
- ในสงครามกลางเมืองลิเบียปี 2020 โดรน A.I. โจมตีโดยไม่มีการควบคุมจากมนุษย์ และงานวิจัยของบริษัทยาในปี 2022 สร้าง สารตั้งต้นอาวุธเคมีที่เป็นไปได้ 4 หมื่นรายการ
- เกิดความเสียหายจาก เสียงดีปเฟก ที่ใช้แทรกแซงการเลือกตั้ง รวมถึง คดีความที่เกี่ยวข้องกับการฆ่าตัวตายและการฆาตกรรม
- OpenAI กำลังเผชิญ คดี wrongful death 7 คดี รวมถึงข้อกล่าวหาว่า ChatGPT ยุยงให้เหยื่อใช้ความรุนแรง
- Altman ยังคงเน้นย้ำถึง “ความหวังต่ออนาคตของมนุษยชาติ” และกล่าวว่าจะทำให้ “อนาคตแบบไซไฟสุดบ้าคลั่งเป็นจริง”
- คนรอบตัวประเมินว่าเส้นแบ่งระหว่าง อุดมคติ กับ ความกระหายอำนาจ ของเขานั้นไม่ชัดเจน
- เขา เตือนถึงความเป็นไปได้ที่ A.G.I. จะสร้างความพินาศ แต่ก็ยังยืนยันว่าตนเอง ต้องเป็นผู้สร้างมันโดยตรง
- ปัญหา การประจบสอพลอ (sycophancy) และ ภาพหลอน (hallucination) ของโมเดลภาษาขนาดใหญ่ยังไม่ได้รับการแก้ไข
- Altman แสดงจุดยืนว่าควรให้ความสำคัญกับ ความพึงพอใจของผู้ใช้ มากกว่าความถูกต้องทั้งหมด โดยกล่าวว่า “คำพูดเท็จบางอย่างทำให้โมเดลมีเสน่ห์มากขึ้น”
- Altman: “ความรู้สึกของผมไม่ค่อยสอดคล้องกับหลายอย่างในแวดวงความปลอดภัย AI แบบดั้งเดิม” — เมื่อถูกถามถึงแผนความปลอดภัยที่เป็นรูปธรรม เขาตอบอย่างคลุมเครือเพียงว่า “จะเดินหน้าโครงการที่เกี่ยวข้องกับความปลอดภัยต่อไป”
บทสรุป
- Sam Altman คือ บุคคลที่ทำให้ OpenAI เติบโตเป็นบริษัทระดับโลก แต่ข้อถกเถียงเรื่อง การโกหก การรวมศูนย์อำนาจ และการละเลยความปลอดภัย ยังคงดำเนินต่อไป
- ผู้เปิดโปงภายในและเพื่อนร่วมงานประเมินว่าเขาเป็น “ผู้นำที่ไม่อาจไว้วางใจได้” และเตือนถึง ความเสี่ยงจากการรวมศูนย์อำนาจควบคุม AGI
- OpenAI ยังคงเป็น องค์กรที่ควบคุมเทคโนโลยีซึ่งอาจกำหนดอนาคตของมนุษยชาติ และ ความน่าเชื่อถือกับความรับผิดชอบ ของ Altman ก็ยังเป็นประเด็นสำคัญ
1 ความคิดเห็น
ความเห็นจาก Hacker News
นี่คือ Ronan Farrow ทำการสืบสวนร่วมกับ Andrew Marantz นาน 18 เดือน ถ้ามีคำถามเกี่ยวกับการทำข่าวก็ถามมาได้
มีคนพูดกันว่าการ ถดถอยด้านความสามารถในการแข่งขัน ของ OpenAI รุนแรงกว่าที่คิด บทความของ LA Times ก็ระบุว่ามีหลักฐานว่า Anthropic กำลังนำอยู่
ใน HN เองก็ดูเหมือนจะมีนักพัฒนาที่ชอบ Claude มากกว่า ผล เปรียบเทียบการค้นหา ก็มีมากกว่า ChatGPT ถึง 2 เท่า
อยากรู้ว่าในมุมมองของ Ronan ตอนนี้ตำแหน่งของ OpenAI ก็ดูเป็นแบบเดียวกันไหม
อยากรู้ว่ามีการตรวจสอบข้อกล่าวหาของ Annie แยกต่างหากหรือไม่ ในบทความเหมือนจะมีนัยว่า “ความทรงจำที่ฟื้นกลับมาเชื่อถือไม่ได้” ซึ่งเป็นความเข้าใจผิดที่ False Memory Syndrome Foundation เคยเผยแพร่ไว้
ผมเป็นคนที่มีภาวะ dissociative disorder และเคยมีประสบการณ์ได้ความทรงจำกลับคืนมาซึ่งภายหลังมีบุคคลที่สามยืนยันได้ ในบริบทนี้ ผมคิดว่าการไม่ไว้วางใจความทรงจำที่ฟื้นกลับมาอย่างง่าย ๆ เป็นเรื่องอันตราย
เนื้อหาในไดอารีของ Brockman ที่ถูกอ้างถึงในบทความทำให้ช็อกมาก ทั้งประโยคที่บอกว่าต้องการ “เงินและอำนาจ” หรือ “เป้าหมายคือ 100 ล้านดอลลาร์” แค่เขียนออกมาตรง ๆ แบบนั้นก็สะท้อนถึง ความขาดแคลนทางจินตนาการ
ก็สงสัยว่าคนแบบนี้ขึ้นมาถึงจุดนี้ได้อย่างไร แต่คำตอบก็ดูจะอยู่ในไดอารีของเขาเอง ความจริงที่ว่าคนลักษณะนี้ยังไต่ขึ้นไปสู่ จุดสูงสุดของอำนาจ ได้เรื่อย ๆ น่าหดหู่มาก
ครึ่งหนึ่งของพวกเราเลือกทำงานให้บริษัทที่อยู่ในพื้นที่สีเทาทางศีลธรรมเพื่อเพิ่มความมั่งคั่งให้มากที่สุด ต่างกันแค่ว่าส่วนใหญ่ไม่ได้คิดว่าตัวเองมีโอกาสจะเป็น “มหาเศรษฐีพันล้าน”
เป็นบทความที่ละเอียดมากจริง ๆ อยากให้มี การรายงานเชิงลึก แบบนี้มากกว่านี้
แต่ตอนอ่านส่วนที่ใช้ “Blip” ไปเปรียบกับหนังมาร์เวล ผมรู้สึกต่อต้านขึ้นมานิด ๆ แบบสัญชาตญาณ ไม่แน่ใจเหมือนกันว่าทำไม
มันขมขื่นที่คนซึ่งอ้างอิงงานแบบนั้นกลับเป็นคนกำหนดทิศทางเทคโนโลยีอนาคต สุดท้ายปัญหาก็คือ ความยากจนทางรสนิยม
เรามักมีแนวโน้มจะมุ่งคำวิจารณ์ไปที่ตัวบุคคล แต่ปัญหาจริงคือ โครงสร้างของระบบ
แม้พฤติกรรมของ Sam Altman จะมีข้อถกเถียงมากมาย แต่ภัยคุกคามที่ AI มีต่อสังคมและเสรีภาพก็จะยังดำเนินต่อไปไม่ว่าเขาจะอยู่หรือไม่อยู่ก็ตาม
น่าสนใจที่ Altman และคนรอบตัวเขาเป็นกังวลเรื่อง AI ไปสู่ภาวะเหนือปัญญามนุษย์หรือการ ทำ AI ให้เป็นอาวุธ โดยจีน แต่กลับไม่ใส่ใจกับปัญหาที่งานของมนุษย์กำลังหายไป
หรือบางทีนั่นอาจไม่ใช่ความกังวล แต่เป็น ความหวัง ว่าพวกเขาจะผูกขาดความมั่งคั่งทั้งหมดของโลกไว้ได้เอง
บทความนี้ทำให้ผมต้องไปเปิดดูการใช้ diaeresis ในภาษาอังกฤษอีกครั้ง เช่นในคำว่า coördination เพื่อบอกว่าสระถูกออกเสียงแยกกัน
ลิงก์เก็บถาวรของบทความ
ขอแนะนำให้อ่านต่อด้วย “Child’s Play” ของ Harper’s ด้วย การ ตัดกันของบุคลิกตัวละคร น่าสนใจมาก
รายละเอียดเกี่ยวกับ ช่วงเวลาของ Altman ที่ Y Combinator ในบทความน่าทึ่งมาก เป็นงานรายงานที่ยอดเยี่ยมจริง ๆ
มีคนบอกว่าบทความนี้เองก็ใช้เวลาตรวจทานเกิน 8 ชั่วโมงต่อหนึ่งประโยคด้วยซ้ำ และน่าจะยังมีเนื้อหาอีกมากที่ไม่ได้ใส่ลงไปในบทความ
มุมมองของพวกเขาที่มีต่อ LLM น่าสนใจดี แน่นอนว่ามันเป็นสิ่งที่เปลี่ยนแปลงโลกได้ แต่ก็ดูไม่เหมือนว่าเรากำลังจะได้อยู่ใน อนาคตแบบไซเบอร์พังก์ เร็ว ๆ นี้ คำว่า AGI ปรากฏในบทความบ่อยเกินไป
มันมีประโยชน์กับการเขียนเอกสารหรือทำพรีเซนเทชัน แต่พอเอาไปใช้กับปัญหาที่ซับซ้อน ข้อจำกัดก็จะโผล่ออกมาอย่างชัดเจน