- เดิมที OpenAI วางแผนจะเปิดตัวโมเดล Open Weight ในสัปดาห์หน้า แต่ประกาศเลื่อนการเปิดตัวออกไปเพื่อทำ การทดสอบด้านความปลอดภัยเพิ่มเติมและการทบทวนในพื้นที่ความเสี่ยงสูง
- Sam Altman ระบุว่า "ยังไม่สามารถยืนยันได้แน่ชัดว่าจะใช้เวลานานแค่ไหน"
- เขาอธิบายว่าจำเป็นต้องใช้แนวทางที่รอบคอบ เพราะเมื่อ weights ของโมเดลถูกเปิดเผยแล้ว จะ ไม่สามารถเรียกคืนได้
- OpenAI ย้ำว่าเชื่อมั่นว่าชุมชนจะสามารถสร้าง นวัตกรรมที่หลากหลายผ่านโมเดลนี้ ได้ แต่ก็เน้นว่านี่เป็น ครั้งแรกสำหรับ OpenAI จึงต้องการดำเนินการตามขั้นตอนให้ถูกต้อง
- สุดท้าย เขากล่าวว่า "ขอโทษที่นี่ไม่ใช่ข่าวดี พวกเรากำลังพยายามอย่างหนักจริง ๆ" พร้อม ขอโทษอย่างจริงใจและย้ำถึงความรอบคอบ อีกครั้ง
2 ความคิดเห็น
โดนหลอกอีกแล้ว~
ความคิดเห็นจาก Hacker News
แชร์ลิงก์ https://nitter.space/sama/status/1943837550369812814
ไม่แน่ใจว่าเป็นเรื่องบังเอิญหรือไม่ที่การเปิดตัวโมเดล open-weight ของ OpenAI ถูกเลื่อนออกไปอย่างกะทันหัน หลังจากมีโมเดล open-weight ที่โดดเด่นอย่าง Kimi K2 ซึ่งประกาศในวันนี้ออกมา
ลิงก์แนะนำ Kimi K2
ตอนที่ OpenAI ออกของ น่าจะต้องยกระดับมาตรฐานของทั้งวงการขึ้นไปอีกขั้น
คิดว่าโมเดลเปิดเผยน้ำหนักที่คุณภาพระดับกลาง ๆ คงไม่พอ
xAI นำหน้าไปมากพอสมควรในด้านการสะสมพลังคอมพิวต์ และทิ้งห่างมากในงานทดสอบสติปัญญาอย่าง ARC, HLE เป็นต้น
สิ่งที่ OpenAI ต้องการไม่ใช่การแข่งขันโอเพนซอร์ส แต่คือการชนะการแข่งขัน
คิดว่าเป็นข่าวใหญ่พอสมควร
คิดว่าการพูดถึง "การทดสอบความปลอดภัย" ของ LLM เป็นแค่ถ้อยคำทางการตลาด
รถยนต์ เครื่องบิน ลิฟต์ มีการทดสอบความปลอดภัยจริง แต่ LLM ไม่เหมือนกัน
ต่อให้ผลลัพธ์ที่ LLM สร้างขึ้นไม่ถูกใจผู้ผลิต ก็ไม่ได้หมายความว่าจะมีใครตาย
สิ่งที่พวกเขาเรียกว่า "การทดสอบความปลอดภัย" สุดท้ายก็เป็นแค่การเช็กว่า LLM จะพูดสิ่งที่พวกเขาไม่ชอบได้ไกลแค่ไหน
อาจผลักคนที่มีวิกฤตสุขภาพจิตไปสู่การฆ่าตัวตาย หรือแม้แต่เสนออย่างน่าเชื่อถือว่าควรกำจัดเชื้อชาติหรือกลุ่มบางกลุ่มเพราะเป็นต้นตอของปัญหา
คำพูดอาจไม่ได้ฆ่าคนโดยตรง แต่ก็มีกรณีที่พาไปสู่ความตายได้อย่างชัดเจน
นอกจากความเป็นไปได้นี้ ยังมีความเสี่ยงที่เกี่ยวกับการใช้เครื่องมืออีกด้วย
มองว่าในระดับเทคโนโลยีปัจจุบัน มันเป็นไปไม่ได้ที่จะทำให้ปลอดภัยอย่างแท้จริง
งานอดิเรกของฉันคือเปลี่ยนความประชดประชันให้เป็นเงิน
ฉันเข้าไปใน Polymarket แล้วหาเหตุการณ์เกี่ยวกับสังคมและเทคโนโลยีที่ถ้ามันเกิดขึ้นจะทำให้ฉันดีใจและมองโลกในแง่ดี จากนั้นก็ลงเงินเล็กน้อย (เศษคริปโต) เดิมพันว่ามันจะไม่เกิดขึ้น
ตัวอย่างเช่น มีเดิมพันว่า OpenAI จะปล่อยโมเดลโอเพนซอร์สน้ำหนักภายในก่อนเดือนกันยายนหรือไม่ ตอนนี้ซื้อขายกันที่ 81%
เดือนที่แล้ว OpenAI ก็ไม่ได้เปิดอะไรเลย การหยุดยิงก็ไม่ใช่การหยุดยิงจริง และตัวชี้วัดสภาพภูมิอากาศก็แย่ลง เลยได้เงินมาราว 10 ดอลลาร์
ถึงจะป้องกันความสิ้นหวังของการมีอยู่ทั้งหมดไม่ได้ แต่ก็ช่วยบรรเทาความเจ็บปวดลงได้เล็กน้อย
ถ้าฉันชนะก็ได้เงิน (กำไร) ถ้าแพ้ก็แปลว่าสังคมมีเรื่องดีเกิดขึ้น (กำไร)
ทุกครั้งที่มีเรื่องการเมืองชวนหดหู่ ก็ทำเงินได้ครั้งละหลายร้อยดอลลาร์
หลังบูม AI ฉันนึกว่าคริปโตจบไปแล้วเสียอีก
หากต้องการความช่วยเหลือ โปรดติดต่อศูนย์ให้คำปรึกษาเรื่องการพนันหรือแพทย์"
เชื่อใจ Deepseek และ Qwen (Alibaba) มากกว่าบริษัท AI ของสหรัฐ
วงการ AI สหรัฐให้ภาพว่ามีแต่เผาเงินกับทรัพยากรคอมพิวต์
ต่อให้ทุ่มเงินระดับหลายพันล้านก็ดูเหมือนไม่มีอะไรให้อวดมากนัก
Deepseek พัฒนาด้วยเงินเพียง 5 ล้านดอลลาร์ และยังนำเสนอวิธีฝึกใหม่หลายแบบ
แถมยังเปิดทั้งโมเดลและโค้ดเป็น FLOSS
บริษัทสหรัฐล้วนเป็นระบบปิด
บริษัท AI สหรัฐดูเหมือนแร้งที่พร้อมจะฆ่ากันเอง
มีทั้งความเห็นว่าเป็นความเข้าใจผิด หรือเป็นข้อมูลผิดที่ถูกเผยแพร่โดยเจตนา
ต่อให้ไม่ใช่ด้วยเจตนาร้าย ในมุมของคนที่เคยฝึกโมเดลขนาดใหญ่ การพูดถึงต้นทุนรวมโดยดูแค่ค่าใช้จ่ายของการฝึกครั้งเดียวก็ดูไม่มีความหมาย
ค่าใช้จ่ายของการทดลองที่ล้มเหลว การฝึกเพิ่มเติม และความพยายามนับไม่ถ้วนอื่น ๆ ก็สูงมากเช่นกัน
การที่ R2 ยังไม่ออกแม้ผ่านไป 6 เดือนแล้ว น่าจะมีนัยสำคัญ
บางครั้งมีผลลัพธ์ที่น่าทึ่งออกมา แต่ไม่มีใครสนใจต้นทุนของความล้มเหลว
ในฐานะคนทำงานในวงการ AI ฉันอ่านงานวิจัยของ Google มาเยอะมาก ต้องขอบคุณที่พวกเขามีส่วนช่วยต่อความก้าวหน้าของวงการอย่างมาก และเปิดโมเดลออกมาภายใต้ไลเซนส์เชิงพาณิชย์
น่าจะเป็นเพราะผลลัพธ์ออกมาแย่กว่าโมเดล K2 ที่ประกาศวันนี้
ถ้าเป็นวิศวกรจริง ๆ ก็คงไม่พูดว่าเป็นเพราะ "ความปลอดภัย"
ใช้วิธีอย่าง ablation ก็ทำให้การฝึกความปลอดภัยภายหลังใช้ไม่ได้แล้ว
K2 มีพารามิเตอร์ 1 ล้านล้าน และขนาดดาวน์โหลดก็เกือบ 1TB
บนโน้ตบุ๊กของฉันไม่มีทางรันได้แน่
คิดว่าขนาดที่เหมาะสมของโมเดลโลคัลอยู่ราว ๆ 20B
ตัวอย่างที่ชัดคือ Mistral Small 3.x หรือบางโมเดลของ Gemma 3
รันได้ดีแม้มี RAM ไม่เกิน 32GB และประสิทธิภาพก็ดี
หวังจริง ๆ ว่า OpenAI จะออกอะไรสักตัวในขนาดประมาณนั้น
ควรจำไว้ว่าอย่างที่เห็นจากกรณีการ fine-tune แบบไม่เซ็นเซอร์ของโมเดล Llama ข้อจำกัดด้านความปลอดภัยสามารถถูกถอดออกได้ง่าย
โดยสาระแล้วมันเป็นแค่การแสดงมาตรการความปลอดภัยต่อสาธารณะซึ่งแทบไม่มีประโยชน์อะไรเลย
ชุมชนรู้กันมานานแล้วว่าจะถอดกลไกป้องกันพวกนี้ออกได้อย่างง่ายดาย
คำว่า "นี่ก็เป็นเรื่องใหม่สำหรับเราเหมือนกัน" ฟังดูไม่ค่อยสมกับบริษัทนี้
สงสัยจริง ๆ ว่าทำไม OpenAI ถึงอยากเปิดโมเดลเปิดเผยน้ำหนักออกมา