3 คะแนน โดย GN⁺ 20 일 전 | 7 ความคิดเห็น | แชร์ทาง WhatsApp
  • GPT-2 คือ ปัญญาประดิษฐ์สร้างข้อความขนาดใหญ่ ที่ฝึกจากเว็บเพจ 8 ล้านหน้า และแสดงความสามารถในการเขียนต่อจากประโยคที่กำหนดได้อย่างเป็นธรรมชาติ
  • OpenAI ระบุว่าโมเดลนี้มี ความเสี่ยงที่จะถูกนำไปใช้ในทางที่ผิด เช่น ข่าวปลอมหรือการปลอมตัวออนไลน์ จึง เปิดเผยเฉพาะเวอร์ชันย่อส่วน แทนการเปิดเผยโมเดลเต็ม
  • นักวิจัยชี้ว่ามาตรการไม่เปิดเผยนี้เป็นเพียง การตอบสนองชั่วคราวเท่านั้น และโมเดลลักษณะคล้ายกันก็จะสามารถสร้างซ้ำได้ในไม่ช้า
  • บางฝ่ายวิจารณ์ว่า OpenAI พูดเกินจริงเรื่องความเสี่ยงเพื่อเรียกความสนใจ ขณะที่ผู้เชี่ยวชาญอีกส่วนมองว่าเป็น จุดเริ่มต้นของการถกเถียงเรื่องจริยธรรม AI
  • กรณีนี้เป็นจุดเปลี่ยนสำคัญที่แสดงให้เห็นว่าจะสร้างสมดุลอย่างไรระหว่าง ความรับผิดชอบในการเปิดเผย AI กับ ความหลีกเลี่ยงไม่ได้ของการแพร่กระจายเทคโนโลยี

การชะลอการเปิดเผย GPT-2 ของ OpenAI และข้อถกเถียงด้านจริยธรรมปัญญาประดิษฐ์

  • OpenAI ได้พัฒนา โมเดลสร้างข้อความใหม่ GPT-2 ที่สามารถสร้างประโยคอย่างต่อเนื่องและสอดคล้องตามหัวข้อที่กำหนด แต่ได้ชะลอการเปิดเผยโมเดลฉบับเต็มด้วยเหตุผลด้าน ความปลอดภัยและความมั่นคง
  • แทนที่จะเปิดเผยทั้งหมด บริษัทได้เปิดเผยเพียง เวอร์ชันที่ย่อส่วนลง และยังคงไม่เปิดเผย ชุดข้อมูล กับ โค้ดสำหรับการฝึก ที่ใช้
  • สื่อบางส่วนบรรยายเรื่องนี้เกินจริงถึงขั้นว่าเป็น “ปัญญาประดิษฐ์ที่ต้องถูกผนึกไว้เพื่อมนุษยชาติ” ขณะที่ผู้เชี่ยวชาญตั้งข้อสังเกตว่ามี การพูดเกินจริงเรื่องความเสี่ยง
  • การตัดสินใจนี้ได้จุดชนวนการถกเถียงว่า ควรอนุญาตให้เปิดเผยอัลกอริทึม AI ที่อาจเป็นอันตรายได้มากน้อยเพียงใด

คุณลักษณะทางเทคนิคและประสิทธิภาพของ GPT-2

  • GPT-2 เป็น language model ที่ฝึกจาก ข้อความบนเว็บเพจ 8 ล้านหน้า โดยใช้วิธีทำนายคำถัดไปในประโยค
  • โมเดลสามารถสร้าง ประโยคที่ต่อเนื่องอย่างเป็นธรรมชาติให้เข้ากับสไตล์และหัวข้อ ของข้อความนำเข้าได้
  • ตัวอย่างเช่น เมื่อป้อนประโยคว่า “ค้นพบฝูงยูนิคอร์นที่พูดภาษาอังกฤษได้ในเทือกเขาแอนดีส” GPT-2 ก็สร้างต่อเป็น ข้อความในรูปแบบบทความวิทยาศาสตร์สมมติ
  • นอกจากนี้ยังสามารถสร้างข้อความได้ใน หลากหลายสไตล์การเขียน เช่น นวนิยาย คอลัมน์ และสุนทรพจน์
  • แม้ข้อความที่สร้างขึ้นบางครั้งจะมี การใช้ถ้อยคำซ้ำ การเปลี่ยนประเด็นอย่างไม่เป็นธรรมชาติ หรือเนื้อหาที่ไม่สมเหตุสมผล แต่ก็ได้รับการประเมินว่ามี ความเข้าใจบริบทและความสอดคล้องของประโยค ดีขึ้นมากเมื่อเทียบกับโมเดลก่อนหน้า
  • GPT-2 สามารถ แยกความหมายหลายแบบของคำ และ รับรู้การใช้คำที่พบได้ยาก อีกทั้งมีศักยภาพในการประยุกต์ใช้กับ งานแปล แชตบอต และเครื่องมือช่วยเขียน

การตัดสินใจชะลอการเปิดเผยและข้อถกเถียงที่ตามมา

  • OpenAI กังวลว่า GPT-2 อาจถูกนำไปใช้ในทางที่ผิดเพื่อ สร้างข่าวปลอม ปลอมเป็นบุคคลบนออนไลน์ และกระจายสแปม
  • ด้วยเหตุนี้ จึง เปิดเผยเพียงเวอร์ชันย่อส่วนแทนโมเดลเต็ม และยังคงไม่เปิดเผยข้อมูลฝึกกับโค้ด
  • อย่างไรก็ตาม นักวิจัย AI จำนวนมากชี้ว่ามาตรการไม่เปิดเผยนี้เป็นเพียงการตอบสนองชั่วคราว
    • Robert Frederking จาก Carnegie Mellon กล่าวว่า “เทคโนโลยีที่ OpenAI ใช้ไม่ใช่เรื่องใหม่ และนักวิจัยคนอื่น ๆ ก็จะสามารถสร้างโมเดลคล้ายกันได้ในไม่ช้า”
  • มีความเห็นว่าหากเป็นองค์กรที่มีทั้งทุนและความรู้เพียงพอ ก็สามารถ สร้างโมเดลลักษณะใกล้เคียงกันได้ด้วยบริการคลาวด์อย่าง AWS เพียงอย่างเดียว
  • นักวิจัยบางส่วนวิจารณ์ว่า OpenAI พูดเกินจริงเรื่องความเสี่ยงเพื่อดึงความสนใจ และจำกัดโอกาสในการวิจัยของแวดวงวิชาการ
  • ในทางกลับกัน David Bau จาก MIT มองว่าการตัดสินใจครั้งนี้เป็น ท่าทีเพื่อจุดประกายการถกเถียงเรื่องจริยธรรม AI และกล่าวว่า “การที่ OpenAI ทำให้ผู้คนหันมาสนใจประเด็นนี้ถือเป็นเรื่องดี”

ปัญหาของการเปิดเผยปัญญาประดิษฐ์และการตัดสินเชิงจริยธรรม

  • John Bowers จาก Berkman Klein Center แห่งมหาวิทยาลัยฮาร์วาร์ด อธิบายว่า การจะเปิดเผยเทคโนโลยี AI หรือไม่ เป็นปัญหาของการวิเคราะห์ต้นทุน-ประโยชน์
  • เขาระบุว่าแม้จะ สนับสนุนการเปิดเผยอัลกอริทึมสร้างข้อความ ที่ช่วยให้การประมวลผลภาษาธรรมชาติก้าวหน้า แต่ เทคโนโลยีรู้จำภาพ ที่อาจถูกนำไปใช้เพื่อการเฝ้าระวังหรือบิดเบือนควรถูกพิจารณาอย่างรอบคอบ
  • โดยเฉพาะ เทคโนโลยี deepfake ที่เขาชี้ว่า “สร้างโทษมากกว่าประโยชน์อย่างมาก”
  • Bowers มองว่าการตัดสินเช่นนี้สะท้อนถึง ความยังไม่สุกงอมของวงการ AI
    • ปัจจุบันวงการแมชชีนเลิร์นนิงยัง ขาดเกณฑ์เชิงระบบสำหรับประเมินผลกระทบทางสังคมและข้อพิจารณาด้านจริยธรรมของเทคโนโลยี

ข้อจำกัดของการควบคุมการแพร่กระจายเทคโนโลยีและกรณีคล้ายกันในประวัติศาสตร์

  • ดังที่เห็นจากประวัติศาสตร์ยุคใหม่ ความพยายามยับยั้งหรือควบคุมการแพร่กระจายของเครื่องมือ AI มีแนวโน้มสูงที่จะล้มเหลว
  • Frederking ยกกรณี ความล้มเหลวในการกำกับดูแลเทคโนโลยีเข้ารหัสในทศวรรษ 1990 เป็นตัวอย่างที่คล้ายกัน
    • ในเวลานั้นรัฐบาลผลักดันกฎหมายให้มี การติดตั้ง backdoor เพื่อการดักฟังการสื่อสาร แต่ Phil Zimmerman ได้พัฒนา เครื่องมือเข้ารหัส PGP ขึ้นมาจนทำให้ความพยายามดังกล่าวไร้ผล
    • หลังจากนั้น เทคโนโลยีเข้ารหัสที่แข็งแกร่งก็สามารถหาได้ง่ายจากต่างประเทศ และการกำกับดูแลก็แทบเป็นไปไม่ได้ในทางปฏิบัติ
  • Frederking เน้นว่า “เมื่อถึงช่วงเวลาของความก้าวหน้าทางวิทยาศาสตร์แล้ว เราไม่อาจหยุดมันได้ สิ่งที่ทำได้คือ ตัดสินใจว่าจะรับมืออย่างไร

บทสรุป

  • การชะลอการเปิดเผย GPT-2 ถูกมองว่าเป็นกรณีสำคัญที่สะท้อน ความเสี่ยงของเทคโนโลยี AI และความรับผิดชอบในการเปิดเผย
  • การตัดสินใจของ OpenAI แสดงให้เห็นปัญหาเรื่องการสร้างสมดุลระหว่าง จริยธรรม AI ความโปร่งใส และความหลีกเลี่ยงไม่ได้ของการแพร่กระจายเทคโนโลยี
  • ในระยะยาว จำเป็นต้องมี หลักเกณฑ์เพื่อประสานความเปิดกว้างของการวิจัย AI เข้ากับความปลอดภัยของสังคม

7 ความคิดเห็น

 
sea715 20 일 전

พูดให้แม่นยำคือ ดูเหมือนว่าจะถูกยกขึ้นมาเพราะเหตุผลที่ OpenAI ในยุคที่ Amodei ยังอยู่ตัดสินใจไม่เปิด GPT-2 ต่อสาธารณะ กับเหตุผลที่ไม่เปิดโมเดล Mythos ก็คล้ายกัน ตอนนั้น Amodei กับตอนนี้ Amodei ก็ไม่ได้เปลี่ยนไปเลย..

 
cgl00 19 일 전

พอมามองตอนนี้ก็ชวนขำเหมือนกัน 555555 ไม่ถึง 10 ปี สถานการณ์ก็กลายเป็นอะไรที่ดูน่าขำไปเลย แต่ก็น่ากลัวเหมือนกัน

 
winterjung 20 일 전

อ้างอิงไว้ก่อนว่า ถ้าดูจากเนื้อหาของบทความที่กล่าวถึง gpt-2 หรือดูจากปีที่เขียนต้นฉบับคือปี 2019 ก็น่าจะเข้าใจได้ว่า มีบริบทว่าเมื่อไม่นานมานี้ Anthropic บอกว่าจะไม่เปิดเผยโมเดล Misos เพราะอันตรายเกินไป ซึ่งในอดีต OpenAI เองก็เคยทำเป็นเรื่องใหญ่กับ GPT-2 มาก่อนเช่นกัน.

ในกรณีของ HN ถ้าเป็นโพสต์เก่า ดูเหมือนจะมีธรรมเนียมใส่ปีต่อท้ายไว้ด้วย (ไม่แน่ใจว่าระบบเติมให้อัตโนมัติหรือเปล่า) เลยคิดว่า GeekNews เองถ้ามีการแสดงแบบนั้นได้ก็น่าจะดีเหมือนกัน

 
xguru 20 일 전

ส่วนใหญ่จะถูกดึงเข้ามาอยู่แล้ว แต่ของครั้งนี้หลุดหายไปอย่างแปลก ๆ เลยถูกประมวลผลแบบนั้น เดี๋ยวจะแก้ไขไม่ให้ไปแตะต้องส่วนนี้ครับ

 
savvykang 20 일 전

แซม อัลต์แมนกำลังอินกับออพเพนไฮเมอร์อยู่หรือเปล่า? ถ้ามันอันตราย ก็น่าจะปรับปรุงให้ปลอดภัยก่อนแล้วค่อยเปิดเผยก็ได้ แต่การออกมาสนับสนุนให้ใช้มันกลับดูขัดแย้งในตัวเอง ผมคิดว่ากรณี Anthropic Mythos ก็เหมือนกัน

 
unsure4000 20 일 전

สิ่งที่ Anthropic พูดนั้นฟังดูน่าเชื่อถือ แต่ทำไมสิ่งที่ OpenAI พูดถึงดูไม่น่าเชื่อถือเอาเสียเลย
เป็นเพราะ Anthropic ทำแบบ show-and-proof ด้วยการสร้างแพตช์ zero-day หรือเปล่า
หรือเป็นเพราะ OpenAI ใช้มุกเดิมนี้มาหลายรอบแล้ว

 
GN⁺ 20 일 전
ความเห็นจาก Hacker News
  • คิดว่าควรมีใครสักคนรวบรวม ช่วงเวลาในตำนานของ OpenAI พวกนี้ไว้
    เช่น “GPT-2 อันตรายเกินไป”, “DALL-E 64x64 น่ากลัวเกินไป”, “บรรลุ AGI แล้ว”, “Q*/strawberry แก้โจทย์คณิตจนทำให้นักวิจัยแตกตื่น” อะไรทำนองนั้น
    ฉันก็ชอบ Codex เหมือนกัน แต่ การโปรโมตเกินจริง แบบนี้ทั้งขำทั้งน่าเหนื่อย
    วันนี้พยายามทั้งวันจะแก้ UI bug ง่ายๆ ด้วย Codex GPT-5.4, Claude Opus 4.6-1M, Gemini 3.1 Pro ฯลฯ แต่ไม่สำเร็จ สุดท้ายเลยเปิดโค้ดแก้เอง
    ใช้เวลา 20 นาทีก็เสร็จ ซึ่งที่ขำคือฉันไม่รู้ภาษาเขียนหรือเฟรมเวิร์กนี้เลยด้วยซ้ำ

    • คำว่า “เปิดไฟล์มาแก้เอง” สมัยนี้แทบเป็น ข่าวด่วนพิเศษ ได้เลย
    • แอบคิดว่าโมเดลอาจตั้งใจไม่ช่วยแก้ UI bug เพราะ กังวลด้านความปลอดภัย ก็ได้ ถ้า UX ดีเกินไปเดี๋ยวจะยึดครองโลกหรือเปล่า
    • อยากให้เอาโค้ดหรืออย่างน้อยบางส่วนมาให้ดู ถ้าไม่มีบริบท ก็ไม่มีใครเรียนรู้อะไรได้เลยว่าเป็นปัญหาที่ตัวโมเดล ความยากของงาน หรือปัญหาที่ตัวนักพัฒนา
    • ขำที่เสียเวลาทั้งวันเพราะไม่อยากดูไฟล์เดียว
      แต่ก็แก้ได้ใน 20 นาที เพราะงั้นต้องระวัง — อาจเผลอเรียนรู้อะไรบางอย่างเข้าแล้ว
    • ฉันก็เคยบอกผู้จัดการเหมือนกันว่า ฉันเขียนโค้ดเองทีละบรรทัด
      คิดว่านั่นเป็นวิธีที่ดีที่สุดในการ รักษา mental model ให้ชัดเจน
      เรื่อง UI bug หรือ CSS นี่โมเดลทำได้แย่มาก จริงๆ ต้องมี unit test
  • ดูเหมือนดราม่าครั้งนี้จะเป็นปฏิกิริยาต่อ Mythos แต่ฉันคิดว่าการตัดสินใจของ OpenAI ตอนนั้นถูกต้องแล้ว
    ตอนที่ GPT-2 ออกมา วงการเปลี่ยนไปอย่างสิ้นเชิง และมันไม่ใช่แค่งานวิจัยธรรมดา แต่เป็น สัญญาณของยุคใหม่
    Mythos ก็เหมือนกันตรงที่มันแสดงให้เห็นบางอย่างที่ไม่เคยมีมาก่อน
    ฉันอ่านไวต์เปเปอร์ยาว 250 หน้าแล้ว ความสามารถด้านการแฮ็กน่าทึ่งมาก และรู้สึกว่าในช่วงเดือนที่ผ่านมา การปรับปรุงด้านความปลอดภัย ก็ก้าวหน้าเยอะ
    การใช้เวลาเพิ่มเพื่อคำนึงถึงผลกระทบต่อสังคมเป็นเรื่องที่ดี

    • ทำให้นึกถึง กฎของ Gates
  • แม้จะเป็นคำพูดที่ดันตรงโดยไม่ได้ตั้งใจ แต่ทุกวันนี้ การระเบิดขึ้นของคอนเทนต์คุณภาพต่ำ ดูเป็นปัญหาจริง

    • ไม่ใช่แค่ดันตรง แต่ OpenAI คาดการณ์ไว้ได้แม่นตั้งแต่ปี 2019 แล้ว
      พวกเขาบอกว่า “ภาพ เสียง และวิดีโอสังเคราะห์จะลดต้นทุนการผลิตคอนเทนต์ปลอม และสาธารณชนควรมีความสงสัยต่อข้อความออนไลน์มากขึ้น” ซึ่งตอนนี้ก็เป็นแบบนั้นเป๊ะ
      บทความที่เกี่ยวข้อง
    • มันเป็นปัญหาที่เกิดขึ้นจริงแล้ว ตอนนี้อินเทอร์เน็ตส่วนใหญ่เต็มไปด้วย ข้อมูลที่เชื่อถือไม่ได้
    • ที่จริงคอนเทนต์ส่วนใหญ่ก็คุณภาพต่ำมาตั้งแต่ก่อนแล้ว การเชื่อว่ายุคก่อน LLM ดีกว่านั้นเป็นแค่ ความทรงจำแบบเลือกจำ
    • ถ้าคอนเทนต์คุณภาพต่ำที่ AI สร้างขึ้นไหลกลับไปเป็นข้อมูลฝึกให้ AI อีก ก็จะเกิดวงจรอุบาทว์ที่ AI เรียนรู้จากเศษขยะของ AI เอง ทำให้นึกถึง ‘Idiocracy’
  • ตอนแรกฉันไม่เห็นปีแล้วตกใจมาก
    OpenAI กำลังลำบากเรื่องระดมทุน และ โปรไฟล์ของ Altman ในนิตยสาร New Yorker ก็ออกมาไม่ค่อยดี เลยพอเข้าใจได้ว่าทำไมถึงกลับไปใช้กลยุทธ์ PR แบบ “ช่วยกันไม่ให้ยายยิงคน”

    • ฉันก็ไม่เห็นปีในหัวข้อเหมือนกัน เลยตกใจไปพักหนึ่ง รู้สึกเหมือนพาดหัวนี้มาพราก ความทรงจำอันสงบสุขของคุณยาย ไป
    • วลี “ช่วยกันไม่ให้ยายยิงคน” สรุปประเด็นนี้ได้กระชับที่สุดแล้ว
    • ตอนนี้เราอยู่ใน ยุคที่ความละอายหายไปแล้ว
  • มีคำพูดว่า “ถ้าเป็นเทคโนโลยีที่อันตรายจริง คงไม่ถูกปล่อยให้ใช้ได้ในราคา 20 ดอลลาร์ต่อเดือน”
    ของที่อันตรายจริงไม่มีวันถูกปล่อยให้ประชาชนทั่วไปใช้
    แต่ถึงอย่างนั้นก็ยังน่าแปลกที่ผู้เชี่ยวชาญมองข้ามตรรกะพื้นฐานนี้

    • ก็มีคนแย้งกลับว่า “แล้ว ghost guns ล่ะ?”
  • ทุกวันนี้คำว่า “อันตรายเกินกว่าจะเปิดให้ใช้” หมายถึง Mythos ของ Anthropic
    บอกว่ามันทรงพลังเกินไป เลยให้เข้าถึงได้เฉพาะบริษัทที่ผ่านการอนุมัติ

    • ถ้าเป็นฉันเหมือนกัน ถ้าจะขายเทคโนโลยีให้บริษัท ก็คงพูดว่า “อันตรายเกินไป เลยให้เฉพาะองค์กรเข้าถึง”
    • แต่ความย้อนแย้งก็คือ มือที่เหมาะกับการถืออาวุธอันตรายที่สุดก็คือบริษัทนั่นเอง
  • คำว่า “อันตรายเกินกว่าจะเปิดเผย” จริงๆ แล้วหมายถึง “ไม่ปล่อย model weights แบบโอเพนซอร์ส
    สุดท้าย weights ก็ถูกปล่อยออกมาอยู่ดี และบริบทก็ไม่เหมือนกับ Anthropic Mythos

  • ตอนนั้นฉันอยู่นอก OpenAI และฝึก Transformer-XL ร่วมกับ Ben Mann
    เดิมทีเราตั้งใจจะปล่อย weights แบบ GPT-2.5 แต่เพื่อนๆ ใน OpenAI แนะนำว่าอย่าปล่อย
    โพสต์ที่เกี่ยวข้อง

    • ฉันคงจะ เคือง “เพื่อนๆ ใน OpenAI” พวกนั้นไปตลอดชีวิต
    • สรุปคือทุกคนโดนหลอก พวกเขาชู จิตวิญญาณโอเพนซอร์ส แต่ในความเป็นจริงกลับปิด
    • Connor Leahy ก็เคยทำ GPT-2 โคลนเหมือนกัน และบอกว่า OpenAI ติดต่อไปคุยด้วยโดยตรงเพื่อโน้มน้าว
      หลังจากนั้นเขาก็ บันทึกประสบการณ์ของตัวเองไว้อย่างละเอียด
      เขาบอกว่า OpenAI สุภาพและจริงใจในการพูดคุย และยังอธิบายถึง มุมมองของรัฐบาลและหน่วยข่าวกรอง ต่อความเสี่ยงด้วย
      สุดท้ายเขาเลยล้มเลิกการปล่อยโมเดล โดยคิดว่า “กันไว้ดีกว่าแก้”
      เขาบอกว่าอยากทิ้ง บรรทัดฐาน ไว้สำหรับวันที่มีโมเดลที่อันตรายกว่านี้ออกมา
  • โพสต์ดีๆ มักจะขึ้นมาตอนที่ คนอเมริกันหลับกันหมดแล้ว

    • มีคนบอกว่า OP โพสต์เร็วเกินไป เลย ตกจากหน้าแรก
  • ฉันยังจำ ตัวอย่างบทความยูนิคอร์นที่ GPT-2 สร้าง ซึ่งเคยอ่านในปี 2019 ได้อยู่เลย
    ตอนนั้นมันช็อกจริงๆ น่าทึ่งยิ่งกว่า GPT-3.5 หรือ 4 เสียอีก

    • “ยูนิคอร์นที่มีสี่เขา” นี่มัน ฉากระดับคลาสสิก จริงๆ