4 คะแนน โดย GN⁺ 2026-02-14 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • OpenAI เพิ่ง ลบถ้อยคำ ‘อย่างปลอดภัย’ ออกจากข้อความพันธกิจ และระบุเป้าหมายใหม่ว่าเพื่อให้มั่นใจว่าปัญญาประดิษฐ์จะเป็นประโยชน์ต่อมวลมนุษยชาติ
  • การเปลี่ยนแปลงนี้เกิดขึ้นพร้อมกับ การเปลี่ยนผ่านจากโครงสร้างไม่แสวงหากำไรไปสู่โครงสร้างที่เน้นแสวงหากำไร และการระดมทุนขนาดใหญ่จาก Microsoft, SoftBank และรายอื่น ๆ
  • โครงสร้างใหม่นี้แยกเป็น มูลนิธิไม่แสวงหากำไร (OpenAI Foundation) และ บริษัทสาธารณประโยชน์ที่แสวงหากำไร (OpenAI Group) โดยฝ่ายแรกถือหุ้นในฝ่ายหลังราว 26%
  • อย่างไรก็ตาม คำอ้างอิงเรื่องความปลอดภัยหายไปจากพันธกิจ และทั้งสององค์กรก็ไม่มีความรับผิดชอบด้านความปลอดภัยที่ระบุไว้อย่างชัดเจน ทำให้เกิด ความกังวลว่าความรับผิดของคณะกรรมการจะอ่อนแอลง
  • การเปลี่ยนแปลงครั้งนี้ถูกมองว่าเป็น กรณีทดสอบว่า AI จะให้ความสำคัญกับผลประโยชน์ของสังคมโดยรวม หรือผลประโยชน์ของผู้ถือหุ้นเป็นอันดับแรก

การเปลี่ยนแปลงพันธกิจและการปรับโครงสร้างของ OpenAI

  • จนถึงปี 2023 OpenAI ระบุเป้าหมายไว้ว่า “พัฒนา AI ที่เป็นประโยชน์ต่อมนุษยชาติอย่างปลอดภัย” แต่ในรายงานต่อ IRS ปี 2024 ได้แก้เป็น “ทำให้มั่นใจว่าปัญญาประดิษฐ์จะเป็นประโยชน์ต่อมวลมนุษยชาติ
    • ทั้งคำว่า ‘safely’ และข้อความ ‘ไม่มีข้อจำกัดจากความจำเป็นในการสร้างผลตอบแทนทางการเงิน (unconstrained by a need to generate financial return)’ ถูกลบออกทั้งหมด
    • ตามรายงานของ Platformer ทีม mission alignment ก็ถูกยุบด้วย
  • OpenAI ยังกล่าวบนเว็บไซต์ถึง การพัฒนาด้านความปลอดภัย ความสามารถ และผลกระทบเชิงบวกไปพร้อมกัน แต่ในพันธกิจอย่างเป็นทางการไม่มีถ้อยคำที่เกี่ยวกับความปลอดภัยแล้ว

การเปลี่ยนผ่านจากองค์กรไม่แสวงหากำไรสู่แสวงหากำไร

  • OpenAI ก่อตั้งขึ้นในปี 2015 ในฐานะ สถาบันวิจัยไม่แสวงหากำไร ที่เปิดเผยผลงานวิจัยและให้ใช้งานโดยไม่เก็บค่าสิทธิ
  • ในปี 2019 ภายใต้การนำของ Sam Altman ได้ตั้ง บริษัทย่อยที่แสวงหากำไร โดย Microsoft ลงทุนเริ่มต้น 1 พันล้านดอลลาร์
    • จนถึงปี 2024 เงินลงทุนสะสมของ Microsoft อยู่ที่ 13.8 พันล้านดอลลาร์
  • เมื่อระดมทุนเพิ่มอีก 6.6 พันล้านดอลลาร์ในปลายปี 2024 ก็มี เงื่อนไขว่าหากไม่เปลี่ยนเป็นบริษัทแสวงหากำไรแบบดั้งเดิม เงินดังกล่าวจะถูกแปลงเป็นหนี้

โครงสร้างทางกฎหมายใหม่และผลประโยชน์ที่เกี่ยวข้อง

  • ในเดือนตุลาคม 2025 หลัง บรรลุข้อตกลงกับอัยการสูงสุดของรัฐแคลิฟอร์เนียและเดลาแวร์ OpenAI ได้ปรับโครงสร้างเป็น บริษัทสาธารณประโยชน์ (public benefit corporation)
    • แยกเป็น OpenAI Foundation (ไม่แสวงหากำไร) และ OpenAI Group (แสวงหากำไร)
    • Foundation ถือหุ้นใน Group ราวหนึ่งในสี่ ขณะที่ Microsoft ถือ 27%
  • แม้บริษัทสาธารณประโยชน์จะต้องคำนึงถึงผลประโยชน์ทางสังคมและสิ่งแวดล้อม แต่ การถ่วงดุลระหว่างกำไรกับสาธารณประโยชน์ยังขึ้นอยู่กับดุลยพินิจของคณะกรรมการ
  • SoftBank ลงทุนครบ 4.1 หมื่นล้านดอลลาร์ ในช่วงปลายปี 2025 และหลังจากนั้นกำลังเจรจาลงทุนเพิ่มอีก 3 หมื่นล้านดอลลาร์

ข้อกำหนดด้านความปลอดภัยและข้อจำกัด

  • ในข้อตกลงการปรับโครงสร้างมี การตั้งคณะกรรมการด้านความปลอดภัยและความมั่นคง, อำนาจสั่งหยุดการเปิดตัวผลิตภัณฑ์, และ อำนาจควบคุมองค์ประกอบของคณะกรรมการ รวมอยู่ด้วย
    • คณะกรรมการของ OpenAI Group ต้อง ให้ความสำคัญกับพันธกิจเหนือผลประโยชน์ทางการเงิน ในประเด็นที่เกี่ยวข้องกับความปลอดภัย
  • แต่เนื่องจาก พันธกิจไม่ได้ระบุเรื่องความปลอดภัยไว้อย่างชัดเจน ฐานทางกฎหมายที่คณะกรรมการจะใช้ให้ความสำคัญกับความปลอดภัยจริง ๆ จึงอ่อนลง
  • สมาชิกคณะกรรมการของทั้งสององค์กรส่วนใหญ่เป็นชุดเดียวกัน ทำให้เกิดปัญหาว่า บทบาทกำกับดูแลซ้อนทับกันในทางปฏิบัติ

โมเดลทางเลือกและการถกเถียงด้านกฎระเบียบ

  • ในกรณีที่ Health Net เปลี่ยนเป็นองค์กรแสวงหากำไรในปี 1992 มีตัวอย่างการกำกับดูแลที่บังคับให้โอนสินทรัพย์ 80% ไปยัง มูลนิธิไม่แสวงหากำไร
  • Philadelphia Inquirer เปลี่ยนในปี 2016 เป็นบริษัทสาธารณประโยชน์ที่ Lenfest Institute องค์กรไม่แสวงหากำไรเป็นเจ้าของ เพื่อคงเป้าหมายด้านวารสารศาสตร์เพื่อชุมชน
  • องค์กรไม่แสวงหากำไรบางแห่งในแคลิฟอร์เนียโต้แย้งว่า OpenAI ควรโอนทรัพย์สินทั้งหมดไปยังองค์กรไม่แสวงหากำไรอิสระ
  • บทความชี้ว่า คณะกรรมการ OpenAI ได้ละทิ้งพันธกิจด้านความปลอดภัย และ การที่รัฐบาลของรัฐยอมให้เกิดขึ้นได้สะท้อนความล้มเหลวด้านธรรมาภิบาล

การขยายการลงทุนและการประเมินของตลาด

  • ณ ต้นปี 2026 OpenAI อาจ ระดมทุนได้สูงสุด 6 หมื่นล้านดอลลาร์ จาก Amazon, Nvidia, Microsoft และรายอื่น ๆ
  • มูลค่าบริษัทเพิ่มจาก 3 แสนล้านดอลลาร์ ในเดือนมีนาคม 2025 เป็น มากกว่า 5 แสนล้านดอลลาร์ ในเดือนตุลาคม 2025
  • ยังมีการพูดถึงความเป็นไปได้ของ IPO (การเสนอขายหุ้นต่อประชาชนครั้งแรก) ซึ่งคาดว่าจะเพิ่มแรงกดดันให้ มุ่งเพิ่มผลตอบแทนผู้ถือหุ้นสูงสุด
  • กองทุนของ OpenAI Foundation ถูกประเมินว่ามีขนาดราว 1.3 แสนล้านดอลลาร์ แต่เป็น ตัวเลขประเมินจากมูลค่าตลาด เนื่องจากบริษัทยังไม่จดทะเบียนในตลาดหลักทรัพย์

ความหมายทางสังคม

  • การเปลี่ยนพันธกิจและการปรับโครงสร้างของ OpenAI ถูกยกให้เป็น กรณีทดสอบว่าองค์กร AI จะให้ความสำคัญกับสาธารณประโยชน์หรือกำไร
  • การลบถ้อยคำเรื่องความปลอดภัยอาจถูกตีความว่าเป็น การถอยหลังในด้านความรับผิดชอบต่อสังคมและการจัดการความเสี่ยงของ AI
  • ต่อจากนี้ ประสิทธิผลของโมเดลบริษัทสาธารณประโยชน์ และ บทบาทกำกับดูแลของภาครัฐ จะกลายเป็นประเด็นสำคัญ

1 ความคิดเห็น

 
GN⁺ 2026-02-14
ความคิดเห็นจาก Hacker News
  • ดู mission statement อย่างเป็นทางการของแต่ละปีได้จาก ข้อมูล IRS 990 ของ ProPublica
    ฉันรวบรวมมันไว้เป็น หน้า revision ของ Gist เพื่อให้ดูประวัติการเปลี่ยนแปลงรายปีได้ในหน้าเดียว
    รายละเอียดเพิ่มเติมฉันสรุปไว้ใน โพสต์บล็อก ของฉันด้วย

    • อันนี้ขำมาก ชวนให้นึกถึงฉากแก้ไขบัญญัติใน Animal Farm — จาก “สัตว์ทุกตัวเท่าเทียมกัน” กลายเป็น “สัตว์ทุกตัวเท่าเทียมกัน แต่สัตว์บางตัวเท่าเทียมกว่าตัวอื่น” เป็นการเสียดสีแบบนั้นเลย
    • ขอบคุณที่ดึงประวัติการเปลี่ยนแปลงของ mission จริง ๆ มาให้ดู โดยเฉพาะในปี 2021 ที่เป็น “...that benefits humanity” แล้วปี 2022 มีการเพิ่ม “safely” จนกลายเป็น “...that safely benefits humanity” แต่ในเวอร์ชันล่าสุด “safely” หายไปทั้งหมด และประโยคก็สั้นลงมากด้วย
      คำที่ถูกลบยังมี responsibly, safe, technology, world เป็นต้น
    • การดึงถ้อยคำตั้งแต่ปี 2016 ถึง 2024 แล้วใช้ Claude Code ปรับวันที่ commit ให้ดูเหมือน git repo นี่เจ๋งมาก เป็นตัวอย่างที่ดีของการเก็บบันทึกแบบอัตโนมัติ
    • รู้สึกว่าใน Gist มี เครื่องหมายวรรคตอนหายไปเยอะพอสมควร
    • น่าสนใจมาก อยากรู้เหมือนกันว่ามีใครทำบันทึกการเปลี่ยนแปลง mission ของ Anthropic แบบนี้ไว้หรือเปล่า
  • การที่หมวด persuasion/manipulation ถูกเอาออกจากหมวดที่ติดตาม ใน การอัปเดต Preparedness Framework เดือนเมษายน 2025 เป็นสัญญาณใหญ่มาก
    ตาม บทความของ Fortune ตอนนี้ OpenAI ไม่ประเมินความเสี่ยงด้านการชักจูงและการบิดเบือนก่อนปล่อยโมเดลแล้ว แต่ไปจำกัดด้วย ข้อกำหนดการใช้งาน แทน
    เท่ากับเป็นการนิยามความหมายของ “AI safety” แบบเฉพาะเจาะจงมาก — AI แบบชี้นำบิดเบือนที่ทำให้คนสูญเสียความสามารถในการรับรู้ความจริง ก็อาจเป็นภัยต่อมนุษยชาติได้พอ ๆ กับการออกแบบอาวุธทำลายล้างสูง

    • “ระบบที่ทำให้คนสูญเสียการรับรู้ความจริง” งั้นเหรอ นั่นก็คือ โซเชียลมีเดียกับเทคโนโลยีโฆษณา ไม่ใช่หรือ?
      มนุษย์ชาชินกับเทคนิคการชักจูงมาหลายสิบปีแล้ว ตอนนี้ก็แค่ขยายขนาดและเพิ่มประสิทธิภาพขึ้น สุดท้ายคนส่วนน้อยก็จะรวยขึ้น และคนส่วนใหญ่ก็จะลำบากกว่าเดิม
    • นี่แหละคือเป้าหมายที่แท้จริงของ AI ผู้ตรวจสอบที่เป็นมนุษย์ยังมีความรู้สึกผิด แต่ AI จะทำ การเซ็นเซอร์ตามคำสั่ง ได้อย่างสมบูรณ์แบบ
      ที่น่ากลัวกว่านั้นคือ มันสามารถทำ การทำโปรไฟล์แบบ Cambridge Analytica ให้ละเอียดระดับเฉพาะบุคคลสุดขีด แล้วป้อนคอนเทนต์ชี้นำที่ปรับแต่งสำหรับแต่ละคนได้
    • ฉันคิดว่า “การสูญเสียการรับรู้ความจริง” สุดท้ายก็เป็นความรับผิดชอบของแต่ละคน ถ้ายังถูกหลอกซ้ำ ๆ แต่ไม่พยายามเรียนรู้ด้วยตัวเอง นั่นก็เป็นผลจากความเกียจคร้าน
  • จุดเปลี่ยนสำคัญคือในเวอร์ชันปี 2024 มีการลบข้อความ “unconstrained by a need to generate financial return” ออกไป พอลบทิ้งแล้วจะเหลืออะไรล่ะ?

    • ก็เหลือแค่ กำไร ไง
    • แถมสำหรับองค์กรไม่แสวงหากำไรแบบ 501(c)(3) การเปลี่ยนแบบนี้อาจ มีปัญหาทางกฎหมายได้ ด้วย
  • การเอาคำว่า “safely” ออก ดูเหมือนจะซื่อสัตย์ขึ้นเสียอีก คล้ายกับตอนที่ Google ทิ้ง “Don’t be evil” เหมือนเป็นการถอดหน้ากากความเสแสร้ง

    • ไม่เห็นด้วยนะ ผู้คนก็โกรธบริษัทที่ชั่วแบบเปิดเผยอย่าง Palantir หรือ Broadcom ได้มากพออยู่แล้ว
    • แม้อยู่ท่ามกลางผลประโยชน์ที่ซับซ้อน ก็ยังมี องค์กรที่ทำงานอย่างปลอดภัย อยู่ ถ้าเป็นบุคลากรระดับแนวหน้าของโลก อย่างน้อยก็ควรคาดหวังสิ่งนั้นได้
    • ฉันทำวิจัย AI ที่ Google มา 10 ปี และการตัดสินใจไม่ปล่อย เทคโนโลยี proto LLM ออกสู่โลกนั้น เป็นการตัดสินใจของ Sundar จริง ๆ เขามองว่าโลกยังรับมือไม่ไหว
  • ให้ความรู้สึกเหมือน เดจาวูแบบเหน็บแนม ตอนที่ Google เลิกใช้ “Don’t be evil”

    • เหมือนถูกแทนที่ด้วย “Do the right thing (for the shareholders) ” แทน
  • คำถามสุดท้ายคือ — เราจะได้สนุกกับ สาวแมวหุ่นยนต์ ก่อน หรือจะข้ามไปเป็น Terminator เลย?

    • รากศัพท์ของ “robot” มาจากคำสลาวิก “rabu(ทาส)” มุกแบบนี้สะท้อน วิธีคิดแบบทาส ควรแก้ทัศนคติหรือไม่ก็หายไปซะ
  • mission ของ OpenAI ตั้งแต่แรกก็เป็น คำประกาศที่เหมือนเรื่องล้อเล่น อยู่แล้ว บอกว่า “ถ้างานวิจัยของเราช่วยให้คนอื่นบรรลุ AGI ได้ mission ก็ถือว่าสำเร็จ” แต่พอโมเดลโอเพนซอร์สเอาโมเดลของตัวเองไปใช้ฝึก กลับ ไปฟ้องต่อสภาคองเกรส

  • ไม่เข้าใจว่าทำไมบริษัทต่าง ๆ ต้องสร้างถ้อยคำ mission แบบนี้ด้วย ลบประโยคว่า “จะไม่ทำความชั่ว” ออกไปก็ไม่ได้ทำให้บริษัทชั่วขึ้นอยู่แล้ว สุดท้ายมันก็แค่เผย ความเสแสร้ง เท่านั้น

  • mission ใหม่ก็เท่ากับถูกแทนที่ด้วย “profitably” นั่นแหละ
    เมื่อก่อนหัวหน้าเคยขังฉันไว้ในห้องประชุมทั้งวันเพื่อคิดถ้อยคำ mission สุดท้ายก็เอาไปใส่กรอบแขวนไว้ แล้วไม่มีใครมองอีกเลย สรุปมันก็เป็นแค่ ของตกแต่งเพื่อการตลาด

  • เดือนมิถุนายน 2024 Paul Nakasone อดีตผู้อำนวยการ NSA เข้าร่วมบอร์ดของ OpenAI และในเดือนตุลาคม 2025 ก็ประกาศ อนุญาตการสร้างคอนเทนต์สำหรับผู้ใหญ่

    • เป็นบริษัทที่ น่าขนลุก จริง ๆ เหมือนการผสมกันของความโลภกับการสอดส่อง
    • ลิงก์วิดีโอที่เกี่ยวข้อง
    • บริษัทพวกนี้เอาผลงานตลอด 10 ปีของฉันไปใช้ ฝึกโมเดลโดยไม่ได้รับอนุญาต ถ้าพวกเขาเอาแม้แต่ รูปนู้ด ของฉันไปทำเป็นสื่อลามก ฉันไม่อยากจะจินตนาการเลยว่าจะโกรธแค่ไหน