1 คะแนน โดย GN⁺ 2025-07-13 | 2 ความคิดเห็น | แชร์ทาง WhatsApp
  • เดิมที OpenAI วางแผนจะเปิดตัวโมเดล Open Weight ในสัปดาห์หน้า แต่ประกาศเลื่อนการเปิดตัวออกไปเพื่อทำ การทดสอบด้านความปลอดภัยเพิ่มเติมและการทบทวนในพื้นที่ความเสี่ยงสูง
  • Sam Altman ระบุว่า "ยังไม่สามารถยืนยันได้แน่ชัดว่าจะใช้เวลานานแค่ไหน"
  • เขาอธิบายว่าจำเป็นต้องใช้แนวทางที่รอบคอบ เพราะเมื่อ weights ของโมเดลถูกเปิดเผยแล้ว จะ ไม่สามารถเรียกคืนได้
  • OpenAI ย้ำว่าเชื่อมั่นว่าชุมชนจะสามารถสร้าง นวัตกรรมที่หลากหลายผ่านโมเดลนี้ ได้ แต่ก็เน้นว่านี่เป็น ครั้งแรกสำหรับ OpenAI จึงต้องการดำเนินการตามขั้นตอนให้ถูกต้อง
  • สุดท้าย เขากล่าวว่า "ขอโทษที่นี่ไม่ใช่ข่าวดี พวกเรากำลังพยายามอย่างหนักจริง ๆ" พร้อม ขอโทษอย่างจริงใจและย้ำถึงความรอบคอบ อีกครั้ง

2 ความคิดเห็น

 
ng0301 2025-07-13

โดนหลอกอีกแล้ว~

 
GN⁺ 2025-07-13
ความคิดเห็นจาก Hacker News
  • แชร์ลิงก์ https://nitter.space/sama/status/1943837550369812814

  • ไม่แน่ใจว่าเป็นเรื่องบังเอิญหรือไม่ที่การเปิดตัวโมเดล open-weight ของ OpenAI ถูกเลื่อนออกไปอย่างกะทันหัน หลังจากมีโมเดล open-weight ที่โดดเด่นอย่าง Kimi K2 ซึ่งประกาศในวันนี้ออกมา
    ลิงก์แนะนำ Kimi K2
    ตอนที่ OpenAI ออกของ น่าจะต้องยกระดับมาตรฐานของทั้งวงการขึ้นไปอีกขั้น
    คิดว่าโมเดลเปิดเผยน้ำหนักที่คุณภาพระดับกลาง ๆ คงไม่พอ

    • ตอนนี้มองว่า OpenAI กำลังทุ่มทรัพยากรทั้งหมดเพื่อเอาชนะ Grok 4
      xAI นำหน้าไปมากพอสมควรในด้านการสะสมพลังคอมพิวต์ และทิ้งห่างมากในงานทดสอบสติปัญญาอย่าง ARC, HLE เป็นต้น
      สิ่งที่ OpenAI ต้องการไม่ใช่การแข่งขันโอเพนซอร์ส แต่คือการชนะการแข่งขัน
    • แต่ก็สงสัยว่าทำไมบน Hacker News แทบไม่มีการพูดถึง K2 เลย
      คิดว่าเป็นข่าวใหญ่พอสมควร
    • โดยเฉพาะเมื่อเร็ว ๆ นี้ OpenAI เพิ่งบอกใบ้ว่าจะปล่อยโมเดลโอเพนซอร์สที่ดีที่สุด จึงยิ่งรู้สึกว่าจังหวะมันพอดีกันเกินไป
    • รู้สึกว่าตั้งแต่ GPT-4 เป็นต้นมา โมเดลของ OpenAI ทุกตัวตามกระแสตลาดไม่ทันมาพักใหญ่แล้ว
  • คิดว่าการพูดถึง "การทดสอบความปลอดภัย" ของ LLM เป็นแค่ถ้อยคำทางการตลาด
    รถยนต์ เครื่องบิน ลิฟต์ มีการทดสอบความปลอดภัยจริง แต่ LLM ไม่เหมือนกัน
    ต่อให้ผลลัพธ์ที่ LLM สร้างขึ้นไม่ถูกใจผู้ผลิต ก็ไม่ได้หมายความว่าจะมีใครตาย
    สิ่งที่พวกเขาเรียกว่า "การทดสอบความปลอดภัย" สุดท้ายก็เป็นแค่การเช็กว่า LLM จะพูดสิ่งที่พวกเขาไม่ชอบได้ไกลแค่ไหน

    • LLM อาจแนะนำให้ใครบางคนกินยาที่เกิดปฏิกิริยาร่วมกันไม่ดีได้อย่างง่ายดาย
      อาจผลักคนที่มีวิกฤตสุขภาพจิตไปสู่การฆ่าตัวตาย หรือแม้แต่เสนออย่างน่าเชื่อถือว่าควรกำจัดเชื้อชาติหรือกลุ่มบางกลุ่มเพราะเป็นต้นตอของปัญหา
      คำพูดอาจไม่ได้ฆ่าคนโดยตรง แต่ก็มีกรณีที่พาไปสู่ความตายได้อย่างชัดเจน
      นอกจากความเป็นไปได้นี้ ยังมีความเสี่ยงที่เกี่ยวกับการใช้เครื่องมืออีกด้วย
    • ในบริบทนี้ "ความปลอดภัย" มักหมายถึงการป้องกันไม่ให้พูดอะไรที่อาจทำให้ใครไม่พอใจหรือกลายเป็นปัญหา PR
    • ฉันก็คิดว่าเป็นการตลาดเหมือนกัน แต่ด้วยเหตุผลที่แทบตรงกันข้าม
      มองว่าในระดับเทคโนโลยีปัจจุบัน มันเป็นไปไม่ได้ที่จะทำให้ปลอดภัยอย่างแท้จริง
    • นี่เป็นเรื่องของความปลอดภัยของผู้ให้บริการ LLM มากกว่าความปลอดภัยของผู้ใช้
  • งานอดิเรกของฉันคือเปลี่ยนความประชดประชันให้เป็นเงิน
    ฉันเข้าไปใน Polymarket แล้วหาเหตุการณ์เกี่ยวกับสังคมและเทคโนโลยีที่ถ้ามันเกิดขึ้นจะทำให้ฉันดีใจและมองโลกในแง่ดี จากนั้นก็ลงเงินเล็กน้อย (เศษคริปโต) เดิมพันว่ามันจะไม่เกิดขึ้น
    ตัวอย่างเช่น มีเดิมพันว่า OpenAI จะปล่อยโมเดลโอเพนซอร์สน้ำหนักภายในก่อนเดือนกันยายนหรือไม่ ตอนนี้ซื้อขายกันที่ 81%
    เดือนที่แล้ว OpenAI ก็ไม่ได้เปิดอะไรเลย การหยุดยิงก็ไม่ใช่การหยุดยิงจริง และตัวชี้วัดสภาพภูมิอากาศก็แย่ลง เลยได้เงินมาราว 10 ดอลลาร์
    ถึงจะป้องกันความสิ้นหวังของการมีอยู่ทั้งหมดไม่ได้ แต่ก็ช่วยบรรเทาความเจ็บปวดลงได้เล็กน้อย

    • เป็นการเดิมพันที่ชนะไม่ว่าแบบไหน
      ถ้าฉันชนะก็ได้เงิน (กำไร) ถ้าแพ้ก็แปลว่าสังคมมีเรื่องดีเกิดขึ้น (กำไร)
    • เพื่อนฉันก็เรียกสิ่งนี้ว่า "เฮดจ์มนุษยชาติ"
      ทุกครั้งที่มีเรื่องการเมืองชวนหดหู่ ก็ทำเงินได้ครั้งละหลายร้อยดอลลาร์
    • แปลกใจที่ยังมีคนใช้เงินคริปโตอยู่
      หลังบูม AI ฉันนึกว่าคริปโตจบไปแล้วเสียอีก
    • "การพนันมีความเสพติดได้ ควรเล่นอย่างมีความรับผิดชอบ และสำหรับผู้ที่มีอายุ 18 ปีขึ้นไปเท่านั้น
      หากต้องการความช่วยเหลือ โปรดติดต่อศูนย์ให้คำปรึกษาเรื่องการพนันหรือแพทย์"
  • เชื่อใจ Deepseek และ Qwen (Alibaba) มากกว่าบริษัท AI ของสหรัฐ
    วงการ AI สหรัฐให้ภาพว่ามีแต่เผาเงินกับทรัพยากรคอมพิวต์
    ต่อให้ทุ่มเงินระดับหลายพันล้านก็ดูเหมือนไม่มีอะไรให้อวดมากนัก
    Deepseek พัฒนาด้วยเงินเพียง 5 ล้านดอลลาร์ และยังนำเสนอวิธีฝึกใหม่หลายแบบ
    แถมยังเปิดทั้งโมเดลและโค้ดเป็น FLOSS
    บริษัทสหรัฐล้วนเป็นระบบปิด
    บริษัท AI สหรัฐดูเหมือนแร้งที่พร้อมจะฆ่ากันเอง

    • เรื่องค่าใช้จ่ายพัฒนา Deepseek 5 ล้านดอลลาร์มีข้อถกเถียงเยอะ
      มีทั้งความเห็นว่าเป็นความเข้าใจผิด หรือเป็นข้อมูลผิดที่ถูกเผยแพร่โดยเจตนา
      ต่อให้ไม่ใช่ด้วยเจตนาร้าย ในมุมของคนที่เคยฝึกโมเดลขนาดใหญ่ การพูดถึงต้นทุนรวมโดยดูแค่ค่าใช้จ่ายของการฝึกครั้งเดียวก็ดูไม่มีความหมาย
      ค่าใช้จ่ายของการทดลองที่ล้มเหลว การฝึกเพิ่มเติม และความพยายามนับไม่ถ้วนอื่น ๆ ก็สูงมากเช่นกัน
      การที่ R2 ยังไม่ออกแม้ผ่านไป 6 เดือนแล้ว น่าจะมีนัยสำคัญ
      บางครั้งมีผลลัพธ์ที่น่าทึ่งออกมา แต่ไม่มีใครสนใจต้นทุนของความล้มเหลว
    • อันที่จริงโมเดลของ Google ส่วนใหญ่เป็นโอเพนซอร์ส
      ในฐานะคนทำงานในวงการ AI ฉันอ่านงานวิจัยของ Google มาเยอะมาก ต้องขอบคุณที่พวกเขามีส่วนช่วยต่อความก้าวหน้าของวงการอย่างมาก และเปิดโมเดลออกมาภายใต้ไลเซนส์เชิงพาณิชย์
    • 5 ล้านดอลลาร์เป็นแค่ค่าเวลาในการฝึก GPU หนึ่งรอบ
    • บอกว่าบริษัท AI สหรัฐกินแต่เงินกับคอมพิวต์ แต่จริง ๆ แล้วพวกเขากินหนังสือด้วย แบบตามตัวอักษรจริง ๆ
    • ตัวเลขนั้นจริง ๆ สะท้อนแค่ราคาของ GPU ไม่ใช่หรือ?
  • น่าจะเป็นเพราะผลลัพธ์ออกมาแย่กว่าโมเดล K2 ที่ประกาศวันนี้
    ถ้าเป็นวิศวกรจริง ๆ ก็คงไม่พูดว่าเป็นเพราะ "ความปลอดภัย"
    ใช้วิธีอย่าง ablation ก็ทำให้การฝึกความปลอดภัยภายหลังใช้ไม่ได้แล้ว

    • โดยส่วนตัวหวังว่าโมเดล open-weight ที่ OpenAI จะปล่อยออกมาจะเล็กกว่า K2 มาก
      K2 มีพารามิเตอร์ 1 ล้านล้าน และขนาดดาวน์โหลดก็เกือบ 1TB
      บนโน้ตบุ๊กของฉันไม่มีทางรันได้แน่
      คิดว่าขนาดที่เหมาะสมของโมเดลโลคัลอยู่ราว ๆ 20B
      ตัวอย่างที่ชัดคือ Mistral Small 3.x หรือบางโมเดลของ Gemma 3
      รันได้ดีแม้มี RAM ไม่เกิน 32GB และประสิทธิภาพก็ดี
      หวังจริง ๆ ว่า OpenAI จะออกอะไรสักตัวในขนาดประมาณนั้น
  • ควรจำไว้ว่าอย่างที่เห็นจากกรณีการ fine-tune แบบไม่เซ็นเซอร์ของโมเดล Llama ข้อจำกัดด้านความปลอดภัยสามารถถูกถอดออกได้ง่าย

  • โดยสาระแล้วมันเป็นแค่การแสดงมาตรการความปลอดภัยต่อสาธารณะซึ่งแทบไม่มีประโยชน์อะไรเลย
    ชุมชนรู้กันมานานแล้วว่าจะถอดกลไกป้องกันพวกนี้ออกได้อย่างง่ายดาย

    • เห็นคำกล่าวแบบนี้ทีไร ก็อดนึกถึงตอนที่ "Open"AI เคยปฏิเสธจะปล่อย GPT2 XL โดยอ้างว่า "ทรงพลังเกินไป" ไม่ได้ทุกที
  • คำว่า "นี่ก็เป็นเรื่องใหม่สำหรับเราเหมือนกัน" ฟังดูไม่ค่อยสมกับบริษัทนี้

  • สงสัยจริง ๆ ว่าทำไม OpenAI ถึงอยากเปิดโมเดลเปิดเผยน้ำหนักออกมา