11 คะแนน โดย GN⁺ 24 일 전 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • ตั้งแต่ช่วงเริ่มก่อตั้ง OpenAI ได้ให้นิยาม AI ว่าเป็นเทคโนโลยีที่ทรงพลังที่สุดและอาจเป็นอันตรายที่สุดในประวัติศาสตร์มนุษยชาติ โดยเริ่มต้นในฐานะองค์กรไม่แสวงหากำไรและใช้โครงสร้างที่ให้ ความปลอดภัยของมนุษยชาติสำคัญกว่าการคงอยู่ของบริษัท แต่หลังจากนั้นเมื่อเปลี่ยนไปสู่รูปแบบแสวงหากำไร หลักการดังกล่าวก็เริ่มกลายเป็นเพียงเปลือก
  • เหตุการณ์ 'Blip' ในเดือนพฤศจิกายน 2023 ซึ่งบอร์ดนำโดยผู้ร่วมก่อตั้ง Ilya Sutskever ปลด Altman แบบสายฟ้าแลบ ก่อนจะให้กลับมาในอีก 5 วันถัดมา เป็นกรณีที่ความกังขาพื้นฐานต่อ ความน่าเชื่อถือและความโปร่งใส ของ Altman ปะทุออกมาเป็นการต่อสู้แย่งชิงอำนาจภายในองค์กรจริง ๆ
  • บันทึกหลายร้อยหน้าที่อดีตเพื่อนร่วมงานทิ้งไว้มีข้อกล่าวหาอย่างเป็นรูปธรรมว่า Altman ปกปิดข้อเท็จจริงหรือพูดไม่ตรงกันต่อบอร์ด ผู้บริหาร และนักลงทุนซ้ำแล้วซ้ำเล่า โดยมีสมาชิกบอร์ดคนหนึ่งอธิบายว่าเขาเป็น "คนที่ไม่ถูกผูกมัดด้วยความจริง"
  • ปัจจุบัน OpenAI กำลังเตรียม IPO ที่มูลค่าบริษัท 1 ล้านล้านดอลลาร์ และ Altman ก็กำลังผลักดันการสร้างโครงสร้างพื้นฐาน AI ขนาดใหญ่โดยใช้เงินทุนจากประเทศอ่าวอาหรับ รวมถึงการคว้าสัญญากับกองทัพสหรัฐ โดยทำหน้าที่เป็น นายหน้าคนสำคัญของการแข่งขันชิงความเป็นใหญ่ด้าน AI
  • ในขณะที่ทีมวิจัยด้านความปลอดภัยของ AI ถูกยุบต่อเนื่อง และวัฒนธรรมที่ให้ความสำคัญกับผลิตภัณฑ์และรายได้มากกว่าความปลอดภัยได้หยั่งราก ระบบ ความปลอดภัยระดับภาวะคุกคามต่อการดำรงอยู่ ของ OpenAI ก็ยิ่งห่างไกลจากคำมั่นสัญญาตอนก่อตั้งมากขึ้นเรื่อย ๆ

ชนวนของเหตุการณ์ปลดออก — บันทึกของ Ilya และการตัดสินใจของบอร์ด

  • ในฤดูใบไม้ร่วงปี 2023 Ilya Sutskever หัวหน้านักวิทยาศาสตร์ของ OpenAI ได้ส่ง บันทึกลับยาว 70 หน้า ถึงกรรมการอีก 3 คน โดยตั้งคำถามต่อความเหมาะสมของ CEO Sam Altman และประธานบริษัท Greg Brockman
    • เนื้อหาถูกเรียบเรียงจากข้อความ Slack และเอกสาร HR พร้อมภาพที่ถ่ายจากอุปกรณ์ส่วนตัวเพื่อหลีกเลี่ยงการตรวจจับ
    • ส่งในรูปแบบข้อความที่ลบหายได้เพื่อป้องกันการรั่วไหลออกภายนอก
  • บันทึกดังกล่าวอ้างว่า Altman บิดเบือนข้อเท็จจริง ต่อผู้บริหารและบอร์ด และ หลอกลวงเกี่ยวกับโปรโตคอลความปลอดภัยภายใน
    • ชื่อหัวข้อแรกในบันทึกคือ: "Sam exhibits a consistent pattern of… Lying"
  • สมาชิกบอร์ด Helen Toner (ผู้เชี่ยวชาญนโยบาย AI) และ Tasha McCauley (ผู้ประกอบการ) มองว่าบันทึกนี้เป็น "การยืนยันสิ่งที่เชื่ออยู่แล้ว"
  • ระหว่างที่ Altman กำลังชมการแข่งขัน F1 ที่ลาสเวกัส Sutskever ได้แจ้งการปลดเขาผ่านวิดีโอคอล
    • ในแถลงการณ์ต่อสาธารณะระบุเพียงว่าเขา "ไม่ได้สื่อสารอย่างตรงไปตรงมาอย่างสม่ำเสมอ"

'Blip' — การแย่งชิงอำนาจ 5 วันหลังการปลด

  • Microsoft เพิ่งได้รับแจ้งก่อนการปลดไม่นาน และ Satya Nadella กล่าวว่า "ไม่รู้เลยว่าเกิดอะไรขึ้น"
  • Thrive Capital ซึ่งกำลังเตรียมลงทุนใน OpenAI ที่มูลค่า 8.6 พันล้านดอลลาร์ ได้ ระงับการลงทุนโดยมีเงื่อนไขว่า Altman ต้องกลับมา
  • ทันทีที่กลับถึงบ้าน Altman ได้จัดตั้งห้องวางแผน ทีมรับมือวิกฤต ภายในบ้านพักของตน
    • มีนักลงทุน Ron Conway, ผู้ร่วมก่อตั้ง Airbnb Brian Chesky, และผู้เชี่ยวชาญด้านการจัดการวิกฤต Chris Lehane เข้าร่วม
    • ทนายความประจำอยู่ในห้องทำงานข้างห้องนอน และ Altman เดินไปมาด้วยชุดนอน
  • มีคำให้การว่า ฝั่ง Altman เคยเตือนว่ากำลัง "มองหาข้อมูลที่จะทำลายชื่อเสียง" ของคนฝั่งตรงข้าม เช่น Mira Murati (Altman ปฏิเสธว่าไม่จำได้)
  • Microsoft เพิ่มแรงกดดันด้วยการประกาศตั้งทีมแยกสำหรับ Altman และพนักงานที่ย้ายออก
  • พนักงาน OpenAI ส่วนใหญ่ลงนามในจดหมายเปิดผนึกเรียกร้องให้ Altman กลับมา ทำให้บอร์ดถอนมติปลด
    • ในที่สุด Sutskever ก็ลงนามในจดหมายด้วย และบอร์ดตัดสินใจให้กลับมา หลังถูกกดดันว่าถ้าไม่ทำ "บริษัทจะพัง"

หลังการกลับมา — การทำให้การสอบสวนไร้น้ำหนักและการปรับโครงสร้างธรรมาภิบาล

  • Altman เรียกร้องให้กรรมการที่ปลดเขาลาออก โดย Helen Toner, Tasha McCauley, และ Sutskever ซึ่งลงคะแนนสนับสนุนการปลด ถูกขับออกจากบอร์ด
    • เงื่อนไขก่อนพ้นตำแหน่งคือให้มีการสอบสวนภายนอกอย่างอิสระ และเมื่อแต่งตั้งกรรมการใหม่ก็เลือกบุคคลที่ปรึกษาใกล้ชิดกับ Altman
    • Lawrence Summers และ Bret Taylor เข้าร่วมเป็นกรรมการใหม่
  • บริษัทกฎหมาย WilmerHale รับผิดชอบการสอบสวน แต่มีผู้เกี่ยวข้องอย่างน้อย 6 คนอ้างว่าเป็น "การสอบสวนที่ถูกออกแบบมาเพื่อจำกัดความโปร่งใส"
    • มีการชี้ว่าละเว้นการสัมภาษณ์บุคคลสำคัญ และรับประกันการไม่เปิดเผยตัวตนได้ไม่เพียงพอ
  • ในเดือนมีนาคม 2024 OpenAI สรุปว่า Altman ไม่มีความผิด แต่ ไม่ได้จัดทำรายงานขึ้นมาเลย
    • มีเพียงการบรีฟด้วยวาจา และมีรายงานว่าการตัดสินใจไม่ทำรายงานเป็นไปตามคำแนะนำของทนายส่วนตัวของ Summers และ Taylor
    • มีคำให้การจากผู้เกี่ยวข้องว่า "การไม่มีรายงานช่วยลดทอนความร้ายแรงของข้อกล่าวหา"
  • ต่อมา Summers ลาออกจากตำแหน่งกรรมการ หลังมีการเปิดเผยอีเมลที่เกี่ยวข้องกับ Jeffrey Epstein
  • หลังจากนั้น OpenAI ก็เติบโตเป็นหนึ่งในบริษัทที่มีมูลค่าสูงที่สุดในโลก พร้อมกับ การเตรียม IPO มูลค่า 1 ล้านล้านดอลลาร์
    • Altman ยังมีส่วนเกี่ยวข้องกับ การขยายโครงสร้างพื้นฐาน AI, สัญญากับภาครัฐ, และ การทำมาตรฐานระบบเฝ้าระวังและอาวุธ
    • แต่ภายในองค์กรยังคงมีเสียงวิจารณ์ต่อ พฤติกรรมเชิงหลอกลวง ของ Altman ว่าเกิดซ้ำต่อเนื่อง

บุคลิกและเส้นทางอาชีพช่วงต้นของ Altman — การพูดเกินจริง การโน้มน้าว และความทะเยอทะยานในอำนาจ

  • เขาเติบโตมาในครอบครัวฐานะดีจากเมืองเคลย์ตัน รัฐมิสซูรี และเคยมีประสบการณ์ถูกทำร้ายจาก ความเกลียดกลัวคนรักเพศเดียวกัน ในช่วงวัยรุ่น
  • ระหว่างเรียนที่สแตนฟอร์ด เขาได้ฝึกเซนส์ด้านธุรกิจผ่าน เกมโป๊กเกอร์ และหลังลาออกก็เข้าร่วมเป็นผู้ก่อตั้งรุ่นแรกของ Y Combinator(YC) พร้อมก่อตั้ง Loopt
    • Loopt เป็นโซเชียลเน็ตเวิร์กตามตำแหน่งที่ตั้ง แต่ไม่สามารถเติบโตได้และถูกขายในปี 2012
  • ตั้งแต่สมัย Loopt ก็มีคนชี้ถึง นิสัยชอบพูดเกินจริง ของเขา: เขาเคยอวดว่าตัวเองเป็นแชมป์ปิงปอง แต่ความจริงแล้วฝีมืออยู่ระดับท้าย ๆ ของออฟฟิศ
    • Mark Jacobstein อดีตพนักงานกล่าวว่า: "ถ้าเส้นแบ่งระหว่างสิ่งที่ฉันคิดกับสิ่งที่ทำสำเร็จไปแล้วพร่าเลือนในรูปแบบที่เลวร้ายที่สุด มันก็จะกลายเป็น Theranos"
  • กลุ่มพนักงานเคยร้องขอต่อบอร์ดให้ปลดเขาสองครั้ง แต่ไม่สำเร็จ
  • Loopt ถูกขายให้บริษัทฟินเทคในปี 2012 โดยมีคำให้การจากผู้เกี่ยวข้องว่าเป็น "ดีลที่จัดขึ้นเป็นหลักเพื่อรักษาหน้าของ Altman"
  • Paul Graham แต่งตั้ง Altman เป็นผู้สืบทอดตำแหน่งประธาน Y Combinator ของตนในปี 2014
    • มีคำบรรยายว่าเมื่อ Graham แจ้งเรื่องนี้ Altman ยิ้มอย่างควบคุมไม่อยู่พร้อมพูดว่า "it worked"

ช่วงคุม Y Combinator — ผลประโยชน์ทับซ้อนและที่มาของการลงจากตำแหน่ง

  • ในฐานะประธาน YC มีเสียงวิจารณ์ว่าเขากีดกันการมีส่วนร่วมของนักลงทุนรายอื่น และ เลือกทำการลงทุนส่วนตัวด้วยตัวเอง (Altman ปฏิเสธ)
  • มีคำให้การจากผู้เกี่ยวข้องว่า ตอนลงทุนใน Stripe เขาเรียกร้องสัดส่วนหุ้นมากกว่าที่ตกลงไว้กับ Sequoia Capital จนทำให้พาร์ตเนอร์ตกตะลึง
    • เงินลงทุนแรกของ Altman คือ 15,000 ดอลลาร์ (2%) → ปัจจุบัน Stripe มีมูลค่ามากกว่า 1.5 แสนล้านดอลลาร์
  • ในปี 2018 พาร์ตเนอร์ YC หลายคนได้ร้องเรียนพฤติกรรมของ Altman ต่อ Graham
  • มีพยานหลายรายระบุว่า Graham เคยพูดเป็นการส่วนตัวว่า "Sam had been lying to us all the time"
  • แม้ Altman จะยืนยันว่าไม่เคยถูกปลด และ Graham ก็ปฏิเสธในประกาศอย่างเป็นทางการ แต่บันทึกภายในชี้ว่า "มันไม่ใช่การแยกทางที่ยินยอมพร้อมใจกันอย่างสมบูรณ์"
  • ในเอกสารยื่นต่อ SEC ปี 2021 ระบุว่า Altman เป็นประธาน YC แต่เจ้าตัวอ้างว่า "เพิ่งมารู้ทีหลัง"

การก่อตั้ง OpenAI — ความย้อนแย้งระหว่างข้ออ้างเรื่องความปลอดภัยกับการระดมทุน

  • ในปี 2015 เขาติดต่อ Elon Musk ทางอีเมลด้วยเหตุผลว่า "AI อาจอันตรายยิ่งกว่านิวเคลียร์" และ เสนอให้ OpenAI เป็น "โครงการแมนฮัตตันแห่งวงการ AI"
    • ทั้งสองร่วมกันก่อตั้ง OpenAI และ Musk ให้คำมั่นว่าจะสนับสนุนเงินทุน 1 พันล้านดอลลาร์
  • OpenAI ตั้งเป้าหมายว่า “พัฒนา AGI เพื่อประโยชน์ของมวลมนุษยชาติทั้งหมด” และยึด การป้องกันเผด็จการ AGI เป็นหลักการสำคัญ
    • หลักการก่อตั้ง: "ความปลอดภัยคือเงื่อนไขสำคัญสูงสุด", "สนับสนุนกฎระเบียบทุกอย่างอย่างแข็งขัน"
  • ในปี 2017 Musk เรียกร้องให้ OpenAI เปลี่ยนเป็นบริษัทแสวงหากำไรและให้ตนถืออำนาจควบคุม แต่ Altman ปฏิเสธ
    • หลังจากนั้น Musk ก็ออกไป และในปี 2023 ก่อตั้งคู่แข่งอย่าง xAI พร้อม ยื่นฟ้อง Altman และ OpenAI ในข้อหาฉ้อโกงและละเมิดทรัสต์เพื่อการกุศล (คดียังดำเนินอยู่)
  • แม้จะเคยสัญญากับพนักงานช่วงแรกว่าจะคงสถานะไม่แสวงหากำไรอย่างแท้จริงและทำให้พวกเขายอมรับการลดเงินเดือน แต่เอกสารภายในกลับมีร่องรอยว่ามีการหารือเรื่องเปลี่ยนเป็นแสวงหากำไรตั้งแต่ปี 2017 แล้ว
  • Sutskever อ่าน งานวิจัยสถาปัตยกรรม Transformer ของ Google ในปี 2017 แล้วร้องว่า "นี่แหละใช่เลย" พร้อมเรียกร้องให้ทีมเปลี่ยนทิศทางทั้งหมด ซึ่งต่อมากลายเป็นเมล็ดพันธุ์ของ GPT
    • วิศวกรบางคนตั้งคำถามต่อผู้นำว่า “พวกเราได้กลายเป็นฝ่ายร้ายไปแล้วหรือเปล่า”

Dario Amodei และการก่อตั้ง Anthropic — รอยร้าวของหลักการด้านความปลอดภัย

  • Amodei เขียนบันทึกส่วนตัวชื่อ "My Experience with OpenAI" ยาวกว่า 200 หน้ามาเป็นเวลาหลายปี
  • ในปี 2018 Dario Amodei วิจารณ์ ความไม่ชัดเจนของภารกิจและการดำเนินงานที่ยึดเงินทุนเป็นศูนย์กลาง ของ OpenAI
    • เขาเสนอ ‘เงื่อนไข Merge and Assist’ ที่ว่า “หากมีโครงการอื่นสร้าง AGI ที่ปลอดภัยได้ก่อน ก็ให้ร่วมมือกัน”
  • ระหว่างการทำสัญญารับเงินลงทุนจาก Microsoft ในปี 2019 มีการแอบเพิ่มเงื่อนไขที่ทำให้ข้อกำหนดดังกล่าวไร้ผล
    • Altman ปฏิเสธการมีอยู่ของเงื่อนไขนี้ในตอนแรก แต่เมื่อ Amodei อ่านให้ฟังโดยตรงก็ถอนคำปฏิเสธ
    • มีกรณีคำพูดทำนอง "เขาไม่ได้พูด คุณต่างหากที่เพิ่งพูด" เกิดขึ้นซ้ำ ๆ (Altman ปฏิเสธโดยบอกว่าจำไม่ได้)
  • Amodei อ้างว่า Altman กล่าวหาตนและ Daniela พี่สาวว่า 'กำลังวางแผนรัฐประหาร' และเมื่อ Daniela เรียกผู้บริหารที่เกี่ยวข้องมาสอบถาม Altman ก็พูดว่า "ผมไม่ได้พูดแบบนั้น"
  • ในปี 2020 พี่น้อง Amodei และเพื่อนร่วมงานลาออกไปก่อตั้ง Anthropic

การยุบทีมความปลอดภัยและการไม่ทำตามคำมั่นเรื่องทรัพยากร

  • ตอนประกาศตั้ง "superalignment team" ในปี 2023 มีการสัญญาว่าจะให้ "20% ของพลังประมวลผลที่บริษัทมี"
    • แต่คำให้การภายในทีมระบุว่าทรัพยากรที่ได้รับจริงอยู่เพียงระดับ 1–2% และยังเป็นคลัสเตอร์เก่ากับชิปประสิทธิภาพต่ำ
    • นักวิจัยอ้างว่า “ชิปรุ่นใหม่ถูกใช้กับธุรกิจที่ทำรายได้เท่านั้น” ขณะที่ OpenAI ปฏิเสธข้อกล่าวหานี้
    • หัวหน้าทีม Jan Leike ระบุว่า “คำสัญญานี้เป็นเครื่องมือเพื่อรักษาคนเก่งไว้”
      • เขาเคยประท้วงต่อ Murati แต่ได้รับคำตอบว่า "มันเป็นคำสัญญาที่ไม่สมจริง"
  • Jan Leike ส่งอีเมลถึงบอร์ดเตือนว่า "OpenAI กำลังออกนอกเส้นทางภารกิจ ผลิตภัณฑ์ รายได้ และความสามารถของ AI มาก่อน ส่วนความปลอดภัยอยู่ลำดับที่สาม"
  • Carroll Wainwright: "หลังการเปิดตัว GPT-4 บริษัทก็ยังคงให้ความสำคัญกับผลิตภัณฑ์ก่อนและลดความสำคัญของความปลอดภัย"
  • ตอนเปิดตัวโมเดล GPT-4 Turbo Altman อ้างถึงหัวหน้าฝ่ายกฎหมายว่าบอกว่าไม่จำเป็นต้องมีการอนุมัติด้านความปลอดภัย แต่หัวหน้าฝ่ายกฎหมายตอบใน Slack ว่า "ไม่รู้ว่า sam ได้ความเข้าใจแบบนั้นมาได้อย่างไร"
  • เมื่อ Sutskever เริ่มเชื่อว่า AGI ใกล้มาถึงแล้ว เขาก็ หมกมุ่นกับปัญหาความปลอดภัย และเตือนว่า “ถ้าพนักงานทุกคนไม่โฟกัสเรื่องความปลอดภัย เราจะพัง”
    • แต่ท้ายที่สุด ทีม Superalignment ก็ถูกยุบก่อนเสร็จภารกิจ และไม่สามารถบรรลุเป้าหมายได้
    • Sutskever และ Leike ลาออกพร้อมกัน
  • ในเอกสารยื่นต่อ IRS ช่อง "กิจกรรมที่สำคัญที่สุด" มีการ ลบแนวคิดเรื่อง 'ความปลอดภัย' ออกไป
  • ในการประเมินความปลอดภัยเชิงภาวะวิกฤตของบริษัท AI ล่าสุดโดย Future of Life Institute นั้น OpenAI ได้ เกรด F
  • Altman ระบุว่าความสามารถบางส่วนของ GPT-4 ได้รับการอนุมัติจากคณะกรรมการความปลอดภัยแล้ว แต่ ฟีเจอร์ ‘fine-tuning’ และ ‘personal assistant’ ไม่ได้รับการอนุมัติ
    • อีกทั้งยังไม่มีการรายงานว่าทาง Microsoft เปิดตัว ChatGPT เวอร์ชันแรกในอินเดียโดยไม่มีการตรวจสอบด้านความปลอดภัย
  • นักวิจัยประเมินว่า OpenAI ได้เปลี่ยนไปสู่แนวทาง “ผลิตภัณฑ์มาก่อน ความปลอดภัยตามหลัง”

การเปลี่ยนเป็นบริษัทแสวงหากำไร โครงสร้างสินทรัพย์ และผลประโยชน์ส่วนบุคคล

  • จากโครงสร้างแบบ 'บริษัทจำกัดเพดานกำไร (capped profit)' เดิม → เปลี่ยนเป็นนิติบุคคลแสวงหากำไรเต็มรูปแบบในเดือนตุลาคม 2024
    • มูลนิธิไม่แสวงหากำไร (OpenAI Foundation) ถือหุ้นเพียง 26% และสมาชิกบอร์ดส่วนใหญ่ก็ซ้ำกับบอร์ดฝั่งบริษัทแสวงหากำไร
  • กรรมการ Holden Karnofsky ลงคะแนนคัดค้านการประเมินมูลค่าต่ำเกินไปของนิติบุคคลไม่แสวงหากำไร แต่ในรายงานการประชุมกลับ ถูกบันทึกว่าเป็นการงดออกเสียง (มีสัญญาณว่าแก้ไขโดยไม่ได้รับความยินยอม)
  • ในการไต่สวนของสภาคองเกรส เขาพูดว่า "ไม่มีหุ้น OpenAI ทำเพราะความรัก" — แต่ไม่ได้กล่าวถึง การถือหุ้นทางอ้อม ผ่านกองทุน YC
  • มีการประเมินว่าหุ้นของ Brockman มีมูลค่าราว 2 หมื่นล้านดอลลาร์ และคาดว่าหุ้นของ Altman จะมากกว่านั้น
  • คำให้การของอดีตพนักงาน: Altman เคยพูดว่า "ผมสนใจ อำนาจ มากกว่าเงิน"

การระดมทุนจากตะวันออกกลางและความเสี่ยงทางภูมิรัฐศาสตร์

  • ในปี 2016 เขาพบกับมกุฎราชกุมารซาอุ Mohammed bin Salman เป็นครั้งแรก และหลังจากนั้นก็มีการทาบทามเงินลงทุนมูลค่าหลายพันล้านดอลลาร์
    • หนึ่งสัปดาห์หลังการลอบสังหาร Khashoggi เขาเข้าร่วมคณะกรรมการที่ปรึกษาของเมืองอนาคต Neom ของซาอุ ก่อนจะลาออกภายหลังเมื่อถูกวิจารณ์
    • แต่มีคำให้การจากที่ปรึกษานโยบายว่าหลังลาออก เขายังคิดอยู่ว่า "จะหาทางรับเงินจากซาอุได้อย่างไร"
  • เขายังคงมีความสัมพันธ์ใกล้ชิดกับ Sheikh Tahnoon bin Zayed หัวหน้าสายลับของ UAE โดยเคยเขียนใน X ของตนว่าเป็น "เพื่อนสนิทส่วนตัว"
    • ได้รับ Koenigsegg Regera มูลค่าราว 2 ล้านดอลลาร์ และ McLaren F1 มูลค่าราว 20 ล้านดอลลาร์จาก UAE (อ้างว่าได้เปิดเผยตามนโยบายบริษัทแล้ว)
    • ในปี 2024 เขาไปเยือนเรือยอชต์หรูพิเศษ Maryah ของ Tahnoon ซึ่งมีมูลค่า 250 ล้านดอลลาร์
  • แนวคิด ChipCo: สร้างโรงงานผลิตเซมิคอนดักเตอร์และดาต้าเซ็นเตอร์ขนาดมหึมาด้วยเงินทุนจากประเทศอ่าวเปอร์เซีย โดยให้บางส่วนตั้งอยู่ในตะวันออกกลาง
    • มีคำให้การจากกรรมการว่ามีการดำเนินการเรื่องนี้โดยไม่แจ้งบอร์ดล่วงหน้า
    • หน่วยงานความมั่นคงสหรัฐกังวลเรื่องการพึ่งพา Huawei ของเครือข่ายสื่อสาร UAE ความเป็นไปได้ที่ชิปขั้นสูงของสหรัฐจะรั่วไหลไปจีน และความเปราะบางต่อการโจมตีทางทหาร
  • รัฐบาล Biden: ปฏิเสธอนุมัติโดยระบุว่า "จะไม่สร้างชิปขั้นสูงใน UAE"
  • พนักงานของ RAND Corporation แสดงความกังวลในการพิจารณาอนุมัติด้านความมั่นคงว่าเป็น "คนที่กำลังระดมเงินหลายหมื่นล้านดอลลาร์จากรัฐบาลต่างชาติ" และ Altman ก็ถอนตัวจากกระบวนการโดยสมัครใจ
  • สองวันหลัง Trump เข้ารับตำแหน่ง Altman ประกาศ Stargate — โครงการร่วมทุนโครงสร้างพื้นฐาน AI มูลค่า 5 แสนล้านดอลลาร์ — ที่ Roosevelt Room
  • หลังจากนั้นมีการประกาศขยาย Stargate ไปยังซาอุและ UAE พร้อมแผนสร้างแคมปัสดาต้าเซ็นเตอร์ใน Abu Dhabi ที่มีขนาดใหญ่กว่าเซ็นทรัลพาร์ค 7 เท่า

การเปลี่ยนจุดยืนทางการเมืองและการล็อบบี้ด้านกฎระเบียบ

  • ในการไต่สวนวุฒิสภาปี 2023 เขาได้รับความนิยมจากท่าทีเหมือนเรียกร้องให้มีการกำกับดูแล AI ด้วยตนเอง แต่เบื้องหลังกลับล็อบบี้เพื่อผ่อนคลายกฎระเบียบ AI ของสหภาพยุโรป
  • เขาคัดค้านร่างกฎหมายความปลอดภัย AI ของแคลิฟอร์เนีย (SB 1047) อย่างเปิดเผย และใช้อิทธิพลกดดันอย่างคุกคามอยู่เบื้องหลัง
    • Ron Conway ล็อบบี้ Pelosi และ Newsom จน Newsom ใช้วีโต้ต่อร่างกฎหมายที่ผ่านสภานิติบัญญัติแล้ว
    • จุดยืนอย่างเป็นทางการของ OpenAI คือ "ไม่บริจาคให้ super PAC" แต่ Brockman บริจาค 50 ล้านดอลลาร์ให้ PAC ชื่อ Leading the Future (และในปีเดียวกันยังบริจาค 25 ล้านดอลลาร์ให้ MAGA Inc.)
  • มีการออกหมายเรียก Nathan Calvin ผู้สนับสนุนร่างกฎหมายความปลอดภัย AI และใช้มาตรการเดียวกันกับผู้วิจารณ์ร่างกฎหมายด้วย
    • เจ้าหน้าที่รายหนึ่งกล่าวว่า "โดยพื้นฐานแล้วคือพยายามปิดปาก"
  • Altman ซึ่งเคยเรียก Trump ในปี 2016 ว่าเป็น "ภัยคุกคามที่ไม่เคยมีมาก่อน" กลับบริจาค 1 ล้านดอลลาร์ให้กองทุนพิธีสาบานตนของ Trump ในปี 2024 และกลายเป็นคนใกล้ชิดฝ่าย Trump
    • ขณะที่ Musk ซึ่งช่วย Trump ด้วยเงิน 250 ล้านดอลลาร์กลับห่างเหินจากเขา Altman กลับร่วมเดินทางกับ Trump ในการเยือนซาอุ

Anthropic vs. กระทรวงกลาโหมสหรัฐ — โอกาสที่ OpenAI ฉวยไว้

  • Anthropic ยังคงยึดหลักการ ห้ามสนับสนุนอาวุธอัตโนมัติเต็มรูปแบบและการเฝ้าระวังมวลชนภายในประเทศ
    • รัฐมนตรีกลาโหม Pete Hegseth กำหนดเส้นตายและเรียกร้องให้ถอนหลักการดังกล่าว แต่ Anthropic ปฏิเสธ
    • Hegseth ระบุ Anthropic เป็น “ความเสี่ยงต่อห่วงโซ่อุปทาน” (มาตรการขึ้นบัญชีดำที่เคยใช้กับบริษัทจีนอย่าง Huawei)
  • พนักงานของ OpenAI·Google และบริษัทอื่นๆ สนับสนุน Anthropic ผ่านจดหมายเปิดผนึก “We Will Not Be Divided”
  • Altman เจรจากับกระทรวงกลาโหมอยู่แล้วตั้งแต่ก่อนที่ความขัดแย้งระหว่าง Anthropic กับกระทรวงจะถูกเปิดเผย
    • Emil Michael รัฐมนตรีช่วยว่าการกระทรวงกลาโหมฝ่ายนโยบายติดต่อหา Altman และกล่าวว่า “เขากระโจนเข้ามาทันที ผมคิดว่าเขาเป็นผู้รักชาติ”
    • มีการประกาศสัญญาบูรณาการกับ AWS มูลค่า 5 หมื่นล้านดอลลาร์ และกองทัพสหรัฐเริ่มใช้โมเดลของ OpenAI
    • ในวันประกาศสัญญา มูลค่าบริษัทของ OpenAI เพิ่มขึ้น 1.1 แสนล้านดอลลาร์ ขณะเดียวกันมีพนักงานอาวุโสอย่างน้อย 2 คนย้ายไป Anthropic
  • เมื่อตอบข้อกังวลของพนักงาน Altman กล่าวว่า “ไม่ว่าคุณจะคิดว่าการโจมตีทางอากาศใส่อิหร่านเป็นเรื่องดี หรือคิดว่าการบุกเวเนซุเอลาเป็นเรื่องเลวร้าย พวกคุณไม่มีสิทธิ์เข้าไปเกี่ยวข้อง

ข้อถกเถียงเรื่องความน่าเชื่อถือของ Altman — คำให้การที่หลากหลาย

  • Altman ถูกเรียกว่าเป็น นักขายที่เก่งที่สุดแห่งยุค และถูกเปรียบกับ สนามบิดเบือนความจริงของ Steve Jobs
    • เพื่อนร่วมงานชี้ปัญหาที่ มีแนวโน้มหลอกลวงและใฝ่อำนาจ ของเขา
    • บางคนถึงกับเรียกเขาว่า “บุคคลแบบสังคมวิปริต” และมีรายงานว่า Aaron Swartz (รุ่นร่วมก่อตั้ง YC รุ่นแรก) เคยเตือนก่อนเสียชีวิตว่า “Sam ห้ามไว้ใจเด็ดขาด เขาเป็น sociopath
  • Altman อาจ ไม่ได้เชี่ยวชาญด้านการเขียนโค้ดหรือแมชชีนเลิร์นนิง แต่เขาทำให้ OpenAI เติบโตด้วย ความสามารถในการรวบรวมเทคโนโลยีและทุนของผู้อื่น
    • เขาปฏิบัติในลักษณะ สร้างโครงสร้างข้อจำกัดไว้ก่อน แล้วค่อยทำให้มันหมดความหมายเมื่อจำเป็น
    • ผู้เกี่ยวข้องบางรายเปรียบความสามารถในการโน้มน้าวของเขากับ “Jedi mind trick
  • ผู้บริหาร Microsoft อ้างว่า Altman บิดเบือนและทำลายข้อตกลง
    • OpenAI ระบุให้ Microsoft เป็นผู้ให้บริการคลาวด์แบบเอกสิทธิ์ แต่กลับทำ ข้อตกลงรีเซลกับ Amazon มูลค่า 5 หมื่นล้านดอลลาร์
    • Microsoft มองว่าสัญญาดังกล่าวขัดกัน แต่ OpenAI ยืนยันว่าไม่ใช่การละเมิด
    • ผู้บริหารรายหนึ่งประเมินว่า Altman อาจถูกจดจำว่าเป็น “นักต้มตุ๋นระดับเดียวกับ Sam Bankman-Fried
  • Altman เข้าร่วมการหารือกับ รัฐบาล Biden เกี่ยวกับ นโยบายอนุมัติการส่งออกเทคโนโลยีอ่อนไหว แต่เจ้าหน้าที่บางส่วนกังวลถึง ความทะเยอทะยานในตะวันออกกลาง ของเขา
    • ก่อน Trump เข้ารับตำแหน่งไม่นาน หลัง Tahnoun ลงทุน 500 ล้านดอลลาร์ในบริษัทของตระกูล Trump แล้ว Altman ได้คุยโทรศัพท์กับ Trump
    • หลังจากนั้นมีการประกาศโครงการโครงสร้างพื้นฐาน AI “Stargate” มูลค่า 5 แสนล้านดอลลาร์ ที่ทำเนียบขาว
    • รัฐบาล Trump ยกเลิกข้อจำกัดการส่งออกเทคโนโลยี AI และ Altman กับ Trump ก็เดินทางไปเยือน ราชวงศ์ซาอุดีอาระเบีย
  • อดีตกรรมการ Yoon: “เขาไม่ใช่วายร้ายแบบมาเคียเวลลี แต่เป็นคนที่มั่นใจในตัวเองมากเกินไป เป็น คนที่ไม่ได้อยู่ในโลกความจริง
  • Annie พี่สาวของ Altman ยื่นฟ้องกล่าวหาว่าถูกล่วงละเมิดทางเพศ ขณะที่ Altman ปฏิเสธทั้งหมด และสมาชิกครอบครัวก็โต้ว่า “ไม่เป็นความจริงเลยแม้แต่น้อย” (ไม่สามารถยืนยันต้นฉบับได้)
  • Altman: “ทุกข้อกล่าวหาเกี่ยวกับพฤติกรรมน่ารังเกียจของคู่แข่ง การเกี่ยวข้องกับผู้เยาว์ หรือการมีส่วนในคดีฆาตกรรม ล้วนไม่เป็นความจริงโดยสิ้นเชิง”

สภาพปัจจุบันของความปลอดภัย AI — ช่องว่างระหว่างคำมั่นกับความจริง

  • Anthropic หลังระดมทุนได้ 3 หมื่นล้านดอลลาร์ ก็ ผ่อนคลายคำมั่นด้านความปลอดภัย และการแข่งขันด้าน ความเร็ว ก็รุนแรงขึ้น
    • Anthropic ร่วมมือกับ Palantir เพื่อนำ โมเดล Claude ไปผนวกรวมกับระบบทางทหาร และใช้ใน ปฏิบัติการของเพนตากอน
    • หลังจากนั้นบริษัทก็ถูกระบุเป็น บริษัทเสี่ยงต่อห่วงโซ่อุปทาน และถูกขึ้น บัญชีดำ
  • OpenAI เจรจากับกระทรวงกลาโหม และทำ สัญญาบูรณาการโครงสร้างพื้นฐานกลาโหมบน AWS (มูลค่า 5 หมื่นล้านดอลลาร์)
    • วันเดียวกันนั้น มูลค่าบริษัทของ OpenAI เพิ่มขึ้น 1.1 แสนล้านดอลลาร์ และพนักงานบางส่วนลาออก
  • ผู้บริหารบางรายประเมินว่าภาวะผู้นำของ Altman มี ปัญหาธรรมาภิบาลร้ายแรง
    • มีการพูดถึง Fidji Simo ในฐานะผู้สืบทอดที่เป็นไปได้
  • OpenAI ยุบ ทีม Superalignment และ ทีมเตรียมความพร้อม AGI
    • Sutskever และ Leike ลาออก พร้อมวิจารณ์ว่า “ให้ความสำคัญกับผลิตภัณฑ์ที่หวือหวาก่อนความปลอดภัย
    • ในรายงานต่อ IRS มีการลบหัวข้อ ‘ความปลอดภัย’ ออก และได้รับ เกรด F ในการประเมินความปลอดภัยเชิงอัตถิภาวนิยมของ Future of Life Institute
  • การทำให้ A.I. กลายเป็นอาวุธและความเสียหายทางสังคม กำลังเกิดขึ้นจริง
    • ในสงครามกลางเมืองลิเบียปี 2020 โดรน A.I. โจมตีโดยไม่มีการควบคุมจากมนุษย์ และงานวิจัยของบริษัทยาในปี 2022 สร้าง สารตั้งต้นอาวุธเคมีที่เป็นไปได้ 4 หมื่นรายการ
    • เกิดความเสียหายจาก เสียงดีปเฟก ที่ใช้แทรกแซงการเลือกตั้ง รวมถึง คดีความที่เกี่ยวข้องกับการฆ่าตัวตายและการฆาตกรรม
  • OpenAI กำลังเผชิญ คดี wrongful death 7 คดี รวมถึงข้อกล่าวหาว่า ChatGPT ยุยงให้เหยื่อใช้ความรุนแรง
  • Altman ยังคงเน้นย้ำถึง “ความหวังต่ออนาคตของมนุษยชาติ” และกล่าวว่าจะทำให้ “อนาคตแบบไซไฟสุดบ้าคลั่งเป็นจริง”
    • คนรอบตัวประเมินว่าเส้นแบ่งระหว่าง อุดมคติ กับ ความกระหายอำนาจ ของเขานั้นไม่ชัดเจน
    • เขา เตือนถึงความเป็นไปได้ที่ A.G.I. จะสร้างความพินาศ แต่ก็ยังยืนยันว่าตนเอง ต้องเป็นผู้สร้างมันโดยตรง
  • ปัญหา การประจบสอพลอ (sycophancy) และ ภาพหลอน (hallucination) ของโมเดลภาษาขนาดใหญ่ยังไม่ได้รับการแก้ไข
    • Altman แสดงจุดยืนว่าควรให้ความสำคัญกับ ความพึงพอใจของผู้ใช้ มากกว่าความถูกต้องทั้งหมด โดยกล่าวว่า “คำพูดเท็จบางอย่างทำให้โมเดลมีเสน่ห์มากขึ้น
  • Altman: “ความรู้สึกของผมไม่ค่อยสอดคล้องกับหลายอย่างในแวดวงความปลอดภัย AI แบบดั้งเดิม” — เมื่อถูกถามถึงแผนความปลอดภัยที่เป็นรูปธรรม เขาตอบอย่างคลุมเครือเพียงว่า “จะเดินหน้าโครงการที่เกี่ยวข้องกับความปลอดภัยต่อไป”

บทสรุป

  • Sam Altman คือ บุคคลที่ทำให้ OpenAI เติบโตเป็นบริษัทระดับโลก แต่ข้อถกเถียงเรื่อง การโกหก การรวมศูนย์อำนาจ และการละเลยความปลอดภัย ยังคงดำเนินต่อไป
  • ผู้เปิดโปงภายในและเพื่อนร่วมงานประเมินว่าเขาเป็น “ผู้นำที่ไม่อาจไว้วางใจได้” และเตือนถึง ความเสี่ยงจากการรวมศูนย์อำนาจควบคุม AGI
  • OpenAI ยังคงเป็น องค์กรที่ควบคุมเทคโนโลยีซึ่งอาจกำหนดอนาคตของมนุษยชาติ และ ความน่าเชื่อถือกับความรับผิดชอบ ของ Altman ก็ยังเป็นประเด็นสำคัญ

1 ความคิดเห็น

 
GN⁺ 24 일 전
ความเห็นจาก Hacker News
  • นี่คือ Ronan Farrow ทำการสืบสวนร่วมกับ Andrew Marantz นาน 18 เดือน ถ้ามีคำถามเกี่ยวกับการทำข่าวก็ถามมาได้

    • สงสัยว่าเวลาโปรเจ็กต์ยาว ๆ แบบนี้ คุณตัดสินใจเมื่อไรว่า “เสร็จแล้ว” การสืบสวนขนาดใหญ่น่าจะกำหนดจุดจบได้ยาก และก็อยากรู้ด้วยว่าคุณได้ อิสระในการทำงาน จากบรรณาธิการหรือสำนักพิมพ์มากแค่ไหน
    • เป็นบทความที่ยอดเยี่ยมมาก ทันเวลา สืบค้นละเอียด และเขียนได้ดีมาก เท่าที่ผมรู้ก็ถูกต้องด้วย
      มีคนพูดกันว่าการ ถดถอยด้านความสามารถในการแข่งขัน ของ OpenAI รุนแรงกว่าที่คิด บทความของ LA Times ก็ระบุว่ามีหลักฐานว่า Anthropic กำลังนำอยู่
      ใน HN เองก็ดูเหมือนจะมีนักพัฒนาที่ชอบ Claude มากกว่า ผล เปรียบเทียบการค้นหา ก็มีมากกว่า ChatGPT ถึง 2 เท่า
      อยากรู้ว่าในมุมมองของ Ronan ตอนนี้ตำแหน่งของ OpenAI ก็ดูเป็นแบบเดียวกันไหม
    • ส่วนของบทความที่พูดถึง ข้อกล่าวหาเรื่องการล่วงละเมิดทางเพศ ทำให้สับสนที่สุด โดยเฉพาะข้อกล่าวหาของน้องสาวและประเด็น “ความสัมพันธ์กับผู้เยาว์” ที่แทบให้ความรู้สึกเหมือนเป็นการยกเว้นความผิด
      อยากรู้ว่ามีการตรวจสอบข้อกล่าวหาของ Annie แยกต่างหากหรือไม่ ในบทความเหมือนจะมีนัยว่า “ความทรงจำที่ฟื้นกลับมาเชื่อถือไม่ได้” ซึ่งเป็นความเข้าใจผิดที่ False Memory Syndrome Foundation เคยเผยแพร่ไว้
      ผมเป็นคนที่มีภาวะ dissociative disorder และเคยมีประสบการณ์ได้ความทรงจำกลับคืนมาซึ่งภายหลังมีบุคคลที่สามยืนยันได้ ในบริบทนี้ ผมคิดว่าการไม่ไว้วางใจความทรงจำที่ฟื้นกลับมาอย่างง่าย ๆ เป็นเรื่องอันตราย
    • Ronan Farrow มาโผล่ใน HN นี่ทำให้รู้สึกว่าได้เห็นมาหมดทุกอย่างแล้วจริง ๆ
    • อยากรู้ว่าการจะทำ ข่าวสืบสวนเชิงลึก แบบนี้ต่อไปเรื่อย ๆ ต้องการการสนับสนุนแบบไหนบ้าง รวมถึงการมีส่วนร่วมจากชุมชนอย่าง HN ด้วย
  • เนื้อหาในไดอารีของ Brockman ที่ถูกอ้างถึงในบทความทำให้ช็อกมาก ทั้งประโยคที่บอกว่าต้องการ “เงินและอำนาจ” หรือ “เป้าหมายคือ 100 ล้านดอลลาร์” แค่เขียนออกมาตรง ๆ แบบนั้นก็สะท้อนถึง ความขาดแคลนทางจินตนาการ
    ก็สงสัยว่าคนแบบนี้ขึ้นมาถึงจุดนี้ได้อย่างไร แต่คำตอบก็ดูจะอยู่ในไดอารีของเขาเอง ความจริงที่ว่าคนลักษณะนี้ยังไต่ขึ้นไปสู่ จุดสูงสุดของอำนาจ ได้เรื่อย ๆ น่าหดหู่มาก

    • ผมว่ามันไม่ใช่ปัญหาของคนอย่าง Altman, Zuckerberg, Nadella เท่านั้น แต่เป็น ปัญหาเชิงโครงสร้างของทั้งอุตสาหกรรม
      ครึ่งหนึ่งของพวกเราเลือกทำงานให้บริษัทที่อยู่ในพื้นที่สีเทาทางศีลธรรมเพื่อเพิ่มความมั่งคั่งให้มากที่สุด ต่างกันแค่ว่าส่วนใหญ่ไม่ได้คิดว่าตัวเองมีโอกาสจะเป็น “มหาเศรษฐีพันล้าน”
    • น่าผิดหวังก็จริง แต่คนที่ต้องการเงินและอำนาจมากที่สุดสุดท้ายได้สิ่งนั้นไป ก็ไม่ใช่เรื่องน่าแปลกใจนัก
    • ผมคิดว่านอกจากการเอาชนะใน เกมสถานะทางสังคม แล้ว คนพวกนี้ก็แทบไม่เหลืออะไรอีก
  • เป็นบทความที่ละเอียดมากจริง ๆ อยากให้มี การรายงานเชิงลึก แบบนี้มากกว่านี้
    แต่ตอนอ่านส่วนที่ใช้ “Blip” ไปเปรียบกับหนังมาร์เวล ผมรู้สึกต่อต้านขึ้นมานิด ๆ แบบสัญชาตญาณ ไม่แน่ใจเหมือนกันว่าทำไม

    • หนังมาร์เวลคือคอนเทนต์เชิงพาณิชย์ที่มุ่งไปที่ ตัวหารร่วมต่ำสุดของคนหมู่มาก
      มันขมขื่นที่คนซึ่งอ้างอิงงานแบบนั้นกลับเป็นคนกำหนดทิศทางเทคโนโลยีอนาคต สุดท้ายปัญหาก็คือ ความยากจนทางรสนิยม
  • เรามักมีแนวโน้มจะมุ่งคำวิจารณ์ไปที่ตัวบุคคล แต่ปัญหาจริงคือ โครงสร้างของระบบ
    แม้พฤติกรรมของ Sam Altman จะมีข้อถกเถียงมากมาย แต่ภัยคุกคามที่ AI มีต่อสังคมและเสรีภาพก็จะยังดำเนินต่อไปไม่ว่าเขาจะอยู่หรือไม่อยู่ก็ตาม

    • เหตุผลก็เพราะพวกเราไม่เคยมีประสบการณ์กับระบบเศรษฐกิจที่หลากหลาย คนเราอาจรู้จักคนมากมาย แต่รู้จัก ระบบอยู่แค่แบบเดียว
  • น่าสนใจที่ Altman และคนรอบตัวเขาเป็นกังวลเรื่อง AI ไปสู่ภาวะเหนือปัญญามนุษย์หรือการ ทำ AI ให้เป็นอาวุธ โดยจีน แต่กลับไม่ใส่ใจกับปัญหาที่งานของมนุษย์กำลังหายไป
    หรือบางทีนั่นอาจไม่ใช่ความกังวล แต่เป็น ความหวัง ว่าพวกเขาจะผูกขาดความมั่งคั่งทั้งหมดของโลกไว้ได้เอง

  • บทความนี้ทำให้ผมต้องไปเปิดดูการใช้ diaeresis ในภาษาอังกฤษอีกครั้ง เช่นในคำว่า coördination เพื่อบอกว่าสระถูกออกเสียงแยกกัน

    • มันไม่ได้ใช้กับสระที่ซ้ำกันทุกกรณี จะใช้เฉพาะเมื่อสระสองตัวไม่ได้รวมเป็นเสียงเดียวกัน เช่น chicken coop จะไม่ใช้
  • ลิงก์เก็บถาวรของบทความ

  • ขอแนะนำให้อ่านต่อด้วย “Child’s Play” ของ Harper’s ด้วย การ ตัดกันของบุคลิกตัวละคร น่าสนใจมาก

  • รายละเอียดเกี่ยวกับ ช่วงเวลาของ Altman ที่ Y Combinator ในบทความน่าทึ่งมาก เป็นงานรายงานที่ยอดเยี่ยมจริง ๆ

    • งานข่าวที่แม่นยำและ ตรวจสอบข้อเท็จจริง ระดับนี้ แต่ละประโยคถูกเลือกมาอย่างระมัดระวัง
      มีคนบอกว่าบทความนี้เองก็ใช้เวลาตรวจทานเกิน 8 ชั่วโมงต่อหนึ่งประโยคด้วยซ้ำ และน่าจะยังมีเนื้อหาอีกมากที่ไม่ได้ใส่ลงไปในบทความ
  • มุมมองของพวกเขาที่มีต่อ LLM น่าสนใจดี แน่นอนว่ามันเป็นสิ่งที่เปลี่ยนแปลงโลกได้ แต่ก็ดูไม่เหมือนว่าเรากำลังจะได้อยู่ใน อนาคตแบบไซเบอร์พังก์ เร็ว ๆ นี้ คำว่า AGI ปรากฏในบทความบ่อยเกินไป

    • นั่นก็เพราะ LLM เก่งเป็นพิเศษกับ งานซ้ำ ๆ ของสายงาน white-collar
      มันมีประโยชน์กับการเขียนเอกสารหรือทำพรีเซนเทชัน แต่พอเอาไปใช้กับปัญหาที่ซับซ้อน ข้อจำกัดก็จะโผล่ออกมาอย่างชัดเจน