เขาคงคิดว่าต่อให้เนิร์ฟประสิทธิภาพแบบลับ ๆ ก็คงไม่มีใครรู้ แต่จริง ๆ แล้วสัญชาตญาณของคนเราคมกว่าที่คิด พอเอาความรู้สึกของผมบวกกับที่คนในคอมมูนิตี้พูดกัน ก็ได้คำตอบทันที

"แล้วงั้นคุณทำอะไรได้บ้างล่ะ 555" ก็เลยไม่มีทางเลือกนอกจากต้องใช้มันอยู่ดี....

 

ตอนรุ่น 5.3 ที่เป็นโมเดลเฉพาะสำหรับ codex มันให้ความรู้สึกเหมือนคุยกับลูกน้องที่ไม่ค่อยพูดอะไร แต่เขียนโค้ดเก่งอย่างเดียวจริง ๆ
พอเริ่มจาก 5.4 ก็เริ่มพูดมากขึ้นทีละนิด แล้วพอ 5.5 ก็เหมือนจะมีสติขึ้นมาครึ่งหนึ่งแล้ว
แต่ถึงตอนนี้ก็ยังเรียก API ว่าเป็นสัญญาอยู่บ้าง แถมบางทีก็พูดปนอังกฤษกับเกาหลีแบบหนักมาก จนต้องพิมพ์ว่า "ช่วยอธิบายให้เข้าใจง่าย และเลี่ยงการใช้ภาษาอังกฤษให้มากที่สุด" อยู่เหมือนกัน

ถึงอย่างนั้นก็ตาม ในแง่ประสิทธิภาพการเขียนโค้ด ผมรู้สึกว่าเริ่มแซง opus ตั้งแต่ 5.4 แล้ว แม้ opus 4.7 จะออกมาแล้ว แต่ผมยังไม่ได้ลองแตะเลย เพราะดูยังไงก็น่าจะเป็นการตลาดสไตล์ "Anthropic" อีกตามเคย

 

ว้าว ดีมากเลย ขอบคุณที่แชร์ครับ

 

แต่ก็แปลกนะ จนถึงแค่สัปดาห์ก่อน Harness ยังขายหนักมากอยู่เลย แต่พอเริ่มสัปดาห์นี้กลับเงียบไปเลย.. ไม่แน่ใจว่าเป็นเพราะ Anthropic ทำพลาดเองกับ Codex 5.5 ที่ทำได้โดดเด่นกว่าด้วยหรือเปล่า........

 

'เอ๊ะ? เหมือนเคยเห็นมาก่อนเลย...' คิดแบบนั้นอยู่พอดี ที่แท้เขาใส่ลิงก์ไว้ให้ตรงบทความแนะนำให้อ่านควบคู่กันเลยนี่เอง 555

 

ผมใช้มาหลายปีแล้ว แต่พอเปลี่ยนไปเป็นแบบเอเจนต์ก็เหมือนจะค่อย ๆ เสียแรงส่งนะ 555
ถึงอย่างนั้นเวลาทำเอกสารส่วนตัวหรือเวลาที่ต้องเขียนโค้ดด้วยมือตัวเองบ่อย ๆ มันก็ช่วยได้เยอะอย่างเงียบ ๆ เหมือนกัน

ถ้ากลายเป็นคูณ 27 เท่าโดยไม่เพิ่มโควตา แบบนี้การทำ agentic coding จะไม่ถึงขั้นใช้งานไม่ได้เลยหรือ?

 

VibeVoice - โมเดลสังเคราะห์เสียงโอเพนซอร์สยุคถัดไปของ Microsoft
ใน GeekNews มีการเปิดเผยตั้งแต่ช่วงแรกเลย แต่ดูเหมือนว่าด้วยปัญหาบางอย่าง โค้ด VibeVoice-TTS จึงถูกนำออกไปแล้ว
ตอนนี้ดูเหมือนว่าจะใช้งาน TTS ได้ผ่าน VibeVoice-Realtime เท่านั้น
ช่วงไม่กี่วันที่ผ่านมาเห็นกันหลายที่ว่า VibeVoice-ASR กำลังกลับมาได้รับความนิยมอีกครั้ง

https://simonwillison.net/2026/Apr/27/vibevoice/
Simon Willison ได้ทดสอบแล้ว โดยบน Mac สามารถรันได้ด้วยคำสั่งบรรทัดเดียวโดยใช้ uv และ mlx-audio และ
ประมวลผลเสียงความยาว 1 ชั่วโมงได้ในเวลาประมาณ 8 นาที 45 วินาที บน MacBook Pro ชิป M5 Max แรม 128GB
ถ้าจะให้นึกภาพก็ประมาณ Whisper ที่แยกผู้พูดได้ดี

 

นี่เป็นเนื้อหาที่ถึงขั้นวิเคราะห์บทความของนักพัฒนาระดับสูงที่พูดเรื่องไม่ค่อยมีแก่นสารแต่ทำให้ดูน่าเชื่อถือเลยนะครับ (ขออภัยด้วยที่ส่วนตัวผมไม่ค่อยชอบ Google) แน่นอนว่าการพยายามเข้าถึงเพื่อทำความเข้าใจปรากฏการณ์นี้ ผมมองว่าเป็นความพยายามที่ดีครับ

 

อะไรอย่าง SDD นี่กระแส hype ตายไปนานแล้ว ดูเหมือนตอนนี้จะเป็นยุคของ harness แทน
ส่วนที่ค่อนข้างน่าทึ่งของ harness คือ ทั้งที่ในข้อมูลฝึกชัดเจนว่าไม่มี แต่โมเดลกลับเข้าใจแนวคิดที่เรียกว่า harness ได้อย่างรวดเร็ว
ไม่แน่ใจว่าเพราะมันใช้ความหมายเดิมของคำที่มีอยู่แล้วหรือเปล่า ทั้งที่ยังไม่ได้พูดถึงเลย แต่มันก็พูดขึ้นมาก่อนเองประมาณว่าให้ไปอัปเดต harness ก่อน

 

รู้สึกเหมือนมีแต่คำศัพท์การตลาดเพิ่มขึ้นเรื่อย ๆ แบบมหาศาลเลยนะ

 

เห็นด้วยครับ
ที่ผ่านมาสิ่งที่รู้สึกได้จากการใช้งานจริงกับเสียงตอบรับจากคอมมูนิตี้มันสวนทางกัน เลยรู้สึกถึงช่องว่างนั้นมาตลอด

 

ที่ไม่ได้ต่ออายุสมาชิกแบบรายปีไว้ ถือเป็นการตัดสินใจที่ดีที่สุดจริงๆ
ถ้าต้องจ่ายด้วยตัวคูณ 27x ของ Opus แล้วค่อยมาใช้ แบบนั้นไปใช้แพ็กเกจคิดค่าบริการของ Claude API น่าจะดีกว่าครับ

 

ติดตั้งตั้งแต่วันแรกที่มีแบดจ์ออกมาเลยครับ ฮ่าๆ ถ้ามีผลิตภัณฑ์แบบ Tailscale เยอะๆ ก็คงดี

 

ดูเหมือนว่าจะเป็นเครื่องมือที่สร้างโดย u/Total_Nectarine_3623

https://www.reddit.com/r/ClaudeAI/s/9VO1vzO2zp

จากโพสต์อื่น ๆ ดูเหมือนว่าเขาสนใจ ONIST หรือ CTF จึงน่าจะสนใจด้านความมั่นคงปลอดภัยสารสนเทศ และได้ออกรีลีสแรกด้วยคอมมิตขนาดใหญ่เพียงคอมมิตเดียว พอเห็นแบบนี้ก็เลยรู้สึกว่าอาจจะทำ vibe coding อย่างหนักในรีโพซิทอรีต้นฉบับก่อน แล้วค่อยแยกเป็นคอมมิตย่อยจำนวนมาก ซึ่งคงไม่ค่อยเหมาะจะเปิดเผยออกมาตรง ๆ เลยเลยรวมเป็นคอมมิตเดียว อีกทั้งพอดู GitHub handle ที่เป็น h4ckfOr0day แล้ว ปกติเครื่องมือแนว ONIST หรือเครื่องมือที่ไม่ได้เข้าถึงด้วยวิธีปกติสักเท่าไร ก็มีธรรมเนียมประมาณหนึ่งว่าเดิมทีมักจะอัปโหลดด้วยบัญชีเปล่า ๆ

ความน่าเชื่อถือของโอเพนซอร์สคงต้องสะสมกันไป แต่ดูแล้วไม่น่าจะมีเจตนาอะไรเป็นพิเศษนะครับ

 

สำหรับโมเดลล่าสุดนั้น มักไม่ได้เปิดเผยรายละเอียดวิธีการทำงานภายในมากนัก จึงดูเหมือนว่าในขั้นตอนค้นคว้าข้อมูลจะมีการยกโมเดลก่อนหน้านี้มาอ้างอิง และมีความเป็นไปได้สูงว่าโมเดลที่ออกมาหลัง GPT-5 ล้วนสืบทอดสถาปัตยกรรม MoE เพราะโมเดลแบบขนานโอเพนซอร์สก็ใช้โครงสร้าง MoE เช่นกัน ส่วนโมเดลแบบปิดในช่วงหลัง ๆ มักไม่เปิดเผยสถาปัตยกรรม จึงยังไม่อาจสรุปเป็นข้อเท็จจริงอย่างเป็นทางการได้

 

หมายความว่าในบรรดา frontier model หลักที่ใช้ MoE นั้น GPT-5.5 ไม่ได้ใช้ MoE ใช่ไหมครับ?