- OpenAI เพิ่ง ลบถ้อยคำ ‘อย่างปลอดภัย’ ออกจากข้อความพันธกิจ และระบุเป้าหมายใหม่ว่าเพื่อให้มั่นใจว่าปัญญาประดิษฐ์จะเป็นประโยชน์ต่อมวลมนุษยชาติ
- การเปลี่ยนแปลงนี้เกิดขึ้นพร้อมกับ การเปลี่ยนผ่านจากโครงสร้างไม่แสวงหากำไรไปสู่โครงสร้างที่เน้นแสวงหากำไร และการระดมทุนขนาดใหญ่จาก Microsoft, SoftBank และรายอื่น ๆ
- โครงสร้างใหม่นี้แยกเป็น มูลนิธิไม่แสวงหากำไร (OpenAI Foundation) และ บริษัทสาธารณประโยชน์ที่แสวงหากำไร (OpenAI Group) โดยฝ่ายแรกถือหุ้นในฝ่ายหลังราว 26%
- อย่างไรก็ตาม คำอ้างอิงเรื่องความปลอดภัยหายไปจากพันธกิจ และทั้งสององค์กรก็ไม่มีความรับผิดชอบด้านความปลอดภัยที่ระบุไว้อย่างชัดเจน ทำให้เกิด ความกังวลว่าความรับผิดของคณะกรรมการจะอ่อนแอลง
- การเปลี่ยนแปลงครั้งนี้ถูกมองว่าเป็น กรณีทดสอบว่า AI จะให้ความสำคัญกับผลประโยชน์ของสังคมโดยรวม หรือผลประโยชน์ของผู้ถือหุ้นเป็นอันดับแรก
การเปลี่ยนแปลงพันธกิจและการปรับโครงสร้างของ OpenAI
- จนถึงปี 2023 OpenAI ระบุเป้าหมายไว้ว่า “พัฒนา AI ที่เป็นประโยชน์ต่อมนุษยชาติอย่างปลอดภัย” แต่ในรายงานต่อ IRS ปี 2024 ได้แก้เป็น “ทำให้มั่นใจว่าปัญญาประดิษฐ์จะเป็นประโยชน์ต่อมวลมนุษยชาติ”
- ทั้งคำว่า ‘safely’ และข้อความ ‘ไม่มีข้อจำกัดจากความจำเป็นในการสร้างผลตอบแทนทางการเงิน (unconstrained by a need to generate financial return)’ ถูกลบออกทั้งหมด
- ตามรายงานของ Platformer ทีม mission alignment ก็ถูกยุบด้วย
- OpenAI ยังกล่าวบนเว็บไซต์ถึง การพัฒนาด้านความปลอดภัย ความสามารถ และผลกระทบเชิงบวกไปพร้อมกัน แต่ในพันธกิจอย่างเป็นทางการไม่มีถ้อยคำที่เกี่ยวกับความปลอดภัยแล้ว
การเปลี่ยนผ่านจากองค์กรไม่แสวงหากำไรสู่แสวงหากำไร
- OpenAI ก่อตั้งขึ้นในปี 2015 ในฐานะ สถาบันวิจัยไม่แสวงหากำไร ที่เปิดเผยผลงานวิจัยและให้ใช้งานโดยไม่เก็บค่าสิทธิ
- ในปี 2019 ภายใต้การนำของ Sam Altman ได้ตั้ง บริษัทย่อยที่แสวงหากำไร โดย Microsoft ลงทุนเริ่มต้น 1 พันล้านดอลลาร์
- จนถึงปี 2024 เงินลงทุนสะสมของ Microsoft อยู่ที่ 13.8 พันล้านดอลลาร์
- เมื่อระดมทุนเพิ่มอีก 6.6 พันล้านดอลลาร์ในปลายปี 2024 ก็มี เงื่อนไขว่าหากไม่เปลี่ยนเป็นบริษัทแสวงหากำไรแบบดั้งเดิม เงินดังกล่าวจะถูกแปลงเป็นหนี้
โครงสร้างทางกฎหมายใหม่และผลประโยชน์ที่เกี่ยวข้อง
- ในเดือนตุลาคม 2025 หลัง บรรลุข้อตกลงกับอัยการสูงสุดของรัฐแคลิฟอร์เนียและเดลาแวร์ OpenAI ได้ปรับโครงสร้างเป็น บริษัทสาธารณประโยชน์ (public benefit corporation)
- แยกเป็น OpenAI Foundation (ไม่แสวงหากำไร) และ OpenAI Group (แสวงหากำไร)
- Foundation ถือหุ้นใน Group ราวหนึ่งในสี่ ขณะที่ Microsoft ถือ 27%
- แม้บริษัทสาธารณประโยชน์จะต้องคำนึงถึงผลประโยชน์ทางสังคมและสิ่งแวดล้อม แต่ การถ่วงดุลระหว่างกำไรกับสาธารณประโยชน์ยังขึ้นอยู่กับดุลยพินิจของคณะกรรมการ
- SoftBank ลงทุนครบ 4.1 หมื่นล้านดอลลาร์ ในช่วงปลายปี 2025 และหลังจากนั้นกำลังเจรจาลงทุนเพิ่มอีก 3 หมื่นล้านดอลลาร์
ข้อกำหนดด้านความปลอดภัยและข้อจำกัด
- ในข้อตกลงการปรับโครงสร้างมี การตั้งคณะกรรมการด้านความปลอดภัยและความมั่นคง, อำนาจสั่งหยุดการเปิดตัวผลิตภัณฑ์, และ อำนาจควบคุมองค์ประกอบของคณะกรรมการ รวมอยู่ด้วย
- คณะกรรมการของ OpenAI Group ต้อง ให้ความสำคัญกับพันธกิจเหนือผลประโยชน์ทางการเงิน ในประเด็นที่เกี่ยวข้องกับความปลอดภัย
- แต่เนื่องจาก พันธกิจไม่ได้ระบุเรื่องความปลอดภัยไว้อย่างชัดเจน ฐานทางกฎหมายที่คณะกรรมการจะใช้ให้ความสำคัญกับความปลอดภัยจริง ๆ จึงอ่อนลง
- สมาชิกคณะกรรมการของทั้งสององค์กรส่วนใหญ่เป็นชุดเดียวกัน ทำให้เกิดปัญหาว่า บทบาทกำกับดูแลซ้อนทับกันในทางปฏิบัติ
โมเดลทางเลือกและการถกเถียงด้านกฎระเบียบ
- ในกรณีที่ Health Net เปลี่ยนเป็นองค์กรแสวงหากำไรในปี 1992 มีตัวอย่างการกำกับดูแลที่บังคับให้โอนสินทรัพย์ 80% ไปยัง มูลนิธิไม่แสวงหากำไร
- Philadelphia Inquirer เปลี่ยนในปี 2016 เป็นบริษัทสาธารณประโยชน์ที่ Lenfest Institute องค์กรไม่แสวงหากำไรเป็นเจ้าของ เพื่อคงเป้าหมายด้านวารสารศาสตร์เพื่อชุมชน
- องค์กรไม่แสวงหากำไรบางแห่งในแคลิฟอร์เนียโต้แย้งว่า OpenAI ควรโอนทรัพย์สินทั้งหมดไปยังองค์กรไม่แสวงหากำไรอิสระ
- บทความชี้ว่า คณะกรรมการ OpenAI ได้ละทิ้งพันธกิจด้านความปลอดภัย และ การที่รัฐบาลของรัฐยอมให้เกิดขึ้นได้สะท้อนความล้มเหลวด้านธรรมาภิบาล
การขยายการลงทุนและการประเมินของตลาด
- ณ ต้นปี 2026 OpenAI อาจ ระดมทุนได้สูงสุด 6 หมื่นล้านดอลลาร์ จาก Amazon, Nvidia, Microsoft และรายอื่น ๆ
- มูลค่าบริษัทเพิ่มจาก 3 แสนล้านดอลลาร์ ในเดือนมีนาคม 2025 เป็น มากกว่า 5 แสนล้านดอลลาร์ ในเดือนตุลาคม 2025
- ยังมีการพูดถึงความเป็นไปได้ของ IPO (การเสนอขายหุ้นต่อประชาชนครั้งแรก) ซึ่งคาดว่าจะเพิ่มแรงกดดันให้ มุ่งเพิ่มผลตอบแทนผู้ถือหุ้นสูงสุด
- กองทุนของ OpenAI Foundation ถูกประเมินว่ามีขนาดราว 1.3 แสนล้านดอลลาร์ แต่เป็น ตัวเลขประเมินจากมูลค่าตลาด เนื่องจากบริษัทยังไม่จดทะเบียนในตลาดหลักทรัพย์
ความหมายทางสังคม
- การเปลี่ยนพันธกิจและการปรับโครงสร้างของ OpenAI ถูกยกให้เป็น กรณีทดสอบว่าองค์กร AI จะให้ความสำคัญกับสาธารณประโยชน์หรือกำไร
- การลบถ้อยคำเรื่องความปลอดภัยอาจถูกตีความว่าเป็น การถอยหลังในด้านความรับผิดชอบต่อสังคมและการจัดการความเสี่ยงของ AI
- ต่อจากนี้ ประสิทธิผลของโมเดลบริษัทสาธารณประโยชน์ และ บทบาทกำกับดูแลของภาครัฐ จะกลายเป็นประเด็นสำคัญ
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
ดู mission statement อย่างเป็นทางการของแต่ละปีได้จาก ข้อมูล IRS 990 ของ ProPublica
ฉันรวบรวมมันไว้เป็น หน้า revision ของ Gist เพื่อให้ดูประวัติการเปลี่ยนแปลงรายปีได้ในหน้าเดียว
รายละเอียดเพิ่มเติมฉันสรุปไว้ใน โพสต์บล็อก ของฉันด้วย
คำที่ถูกลบยังมี responsibly, safe, technology, world เป็นต้น
การที่หมวด persuasion/manipulation ถูกเอาออกจากหมวดที่ติดตาม ใน การอัปเดต Preparedness Framework เดือนเมษายน 2025 เป็นสัญญาณใหญ่มาก
ตาม บทความของ Fortune ตอนนี้ OpenAI ไม่ประเมินความเสี่ยงด้านการชักจูงและการบิดเบือนก่อนปล่อยโมเดลแล้ว แต่ไปจำกัดด้วย ข้อกำหนดการใช้งาน แทน
เท่ากับเป็นการนิยามความหมายของ “AI safety” แบบเฉพาะเจาะจงมาก — AI แบบชี้นำบิดเบือนที่ทำให้คนสูญเสียความสามารถในการรับรู้ความจริง ก็อาจเป็นภัยต่อมนุษยชาติได้พอ ๆ กับการออกแบบอาวุธทำลายล้างสูง
มนุษย์ชาชินกับเทคนิคการชักจูงมาหลายสิบปีแล้ว ตอนนี้ก็แค่ขยายขนาดและเพิ่มประสิทธิภาพขึ้น สุดท้ายคนส่วนน้อยก็จะรวยขึ้น และคนส่วนใหญ่ก็จะลำบากกว่าเดิม
ที่น่ากลัวกว่านั้นคือ มันสามารถทำ การทำโปรไฟล์แบบ Cambridge Analytica ให้ละเอียดระดับเฉพาะบุคคลสุดขีด แล้วป้อนคอนเทนต์ชี้นำที่ปรับแต่งสำหรับแต่ละคนได้
จุดเปลี่ยนสำคัญคือในเวอร์ชันปี 2024 มีการลบข้อความ “unconstrained by a need to generate financial return” ออกไป พอลบทิ้งแล้วจะเหลืออะไรล่ะ?
การเอาคำว่า “safely” ออก ดูเหมือนจะซื่อสัตย์ขึ้นเสียอีก คล้ายกับตอนที่ Google ทิ้ง “Don’t be evil” เหมือนเป็นการถอดหน้ากากความเสแสร้ง
ให้ความรู้สึกเหมือน เดจาวูแบบเหน็บแนม ตอนที่ Google เลิกใช้ “Don’t be evil”
คำถามสุดท้ายคือ — เราจะได้สนุกกับ สาวแมวหุ่นยนต์ ก่อน หรือจะข้ามไปเป็น Terminator เลย?
mission ของ OpenAI ตั้งแต่แรกก็เป็น คำประกาศที่เหมือนเรื่องล้อเล่น อยู่แล้ว บอกว่า “ถ้างานวิจัยของเราช่วยให้คนอื่นบรรลุ AGI ได้ mission ก็ถือว่าสำเร็จ” แต่พอโมเดลโอเพนซอร์สเอาโมเดลของตัวเองไปใช้ฝึก กลับ ไปฟ้องต่อสภาคองเกรส
ไม่เข้าใจว่าทำไมบริษัทต่าง ๆ ต้องสร้างถ้อยคำ mission แบบนี้ด้วย ลบประโยคว่า “จะไม่ทำความชั่ว” ออกไปก็ไม่ได้ทำให้บริษัทชั่วขึ้นอยู่แล้ว สุดท้ายมันก็แค่เผย ความเสแสร้ง เท่านั้น
mission ใหม่ก็เท่ากับถูกแทนที่ด้วย “profitably” นั่นแหละ
เมื่อก่อนหัวหน้าเคยขังฉันไว้ในห้องประชุมทั้งวันเพื่อคิดถ้อยคำ mission สุดท้ายก็เอาไปใส่กรอบแขวนไว้ แล้วไม่มีใครมองอีกเลย สรุปมันก็เป็นแค่ ของตกแต่งเพื่อการตลาด
เดือนมิถุนายน 2024 Paul Nakasone อดีตผู้อำนวยการ NSA เข้าร่วมบอร์ดของ OpenAI และในเดือนตุลาคม 2025 ก็ประกาศ อนุญาตการสร้างคอนเทนต์สำหรับผู้ใหญ่