ถ้าเป็น CPU runtime ที่ใช้แค่สำหรับงานอนุมานแบบง่าย ๆ สถานการณ์ก็ยังพอไหวอยู่บ้าง แต่พอมีบริการ LLM ที่สมัยนี้ต้องรองรับกัน ทั้งทราฟฟิกก็พุ่ง ขนาดระบบก็โต ค่าใช้จ่ายตอนคำนวณนี่แทบสบถออกมาเลย 555

 

มีหลายเรื่องที่รู้สึกเห็นด้วยมากครับ
คอมเมนต์ก็ดีด้วย แต่พอมีใครสักคนมาช่วยเรียบเรียงและพูดออกมาแบบนี้ คือช่วยปูพื้นที่ให้การโต้แย้ง การสนับสนุน และการเสริมรายละเอียดตามมา จนดูเหมือนจะสมบูรณ์ยิ่งขึ้นครับ

ป.ล. ช่วงนี้เห็นคำว่า "เทคโนโลยีที่น่าเบื่อ" บ่อยมาก ซึ่งในภาษาอังกฤษก็คือ boring technology นั่นเองครับ

 

> ในทางกลับกัน หากเป็นงานแบบ ‘แค่ทำให้มันรันได้’ การใช้ AI ก็อาจมีประสิทธิภาพ

ไม่ใช่แค่นักพัฒนาเท่านั้น แต่เพราะมีผู้คนหลากหลายแนวคิด เลยมีคนที่บังเอิญมาทำงานเป็นนักพัฒนา และเกลียดหรือกลัวการเขียนโค้ดหรือการอ่านโค้ด ยิ่งเป็นคนที่มีแนวคิดว่าแค่ให้มันรันได้ก็พอ มากกว่าจะตีความในมุมของโครงสร้างที่เป็นระบบหรือการบำรุงรักษา ก็ยิ่งดูเหมือนว่าจะพึ่งพาหรือศรัทธาใน AI อย่างมาก คิดแบบนั้นนะครับ ถ้าไม่ใช่ก็แล้วไป

 

มีแพ็กเกจที่ผูก dependency ของ pytorch+cuda ไว้โดยต่างกันแค่เวอร์ชัน... ชวนปวดหัวมาก
ทั้งที่แทบไม่มีฟีเจอร์อะไรเลย แต่เดมอนเล็ก ๆ แต่ละตัวกลับต้องติดตั้ง dependency เกือบ 2GB..

 

ผมเองก็เพราะความจำเป็นเลยกำลังทำโซลูชัน RAG โดยใช้ GPU H100 ที่ว่ากันว่าหายากถึง 4 ใบอยู่เหมือนกัน แต่พอคิดรวมไม่ใช่แค่เงินลงทุนฮาร์ดแวร์โดยตรง ยังมีค่าไฟกับค่าโซลูชันระบายความร้อนอื่น ๆ ด้วย ก็ยิ่งรู้สึกเรื่อย ๆ ว่าการเรียกใช้ API ไปเลยน่าจะดีกว่ามาก

ตอนแรกผมก็เริ่มทดสอบด้วย Ollama เหมือนกัน แล้วพอเห็นว่ารองรับผู้ใช้พร้อมกัน 3 คนยังแทบไม่ไหว ก็ขยับไปใช้ vLLM ทันทีแล้วก็จัดองค์ประกอบโซลูชัน RAG ไปแบบทุลักทุเล แต่แค่นี้ก็ต้องใช้ GPU H100 เกือบเต็ม 2 ใบแล้ว (สมมติว่ามีผู้ใช้พร้อมกัน 10 คน) งาน embedding กับงานค้นหาก็เปิดผ่าน vLLM ใช้เหมือนกัน ทำให้ H100 4 ใบนี่ตึงมากจริง ๆ ครับ ทั้งที่ VRAM ต่อใบก็ราว ๆ 90GB แล้วนะ

แน่นอนว่าผมเองก็ไม่ได้รู้เรื่อง AI มากนัก แค่พยายามทำสิ่งที่แผนกต้องการพร้อมกับปรับให้เข้ากับข้อกำหนดความปลอดภัยภายในบริษัทไปเรื่อย ๆ ก็เลยเหมือนลองทำแบบลุย ๆ ไปก่อน... เลยอดคิดไม่ได้ว่านี่มันถูกทางไหม ChatGPT Enterprise ใช่ไหมนะ? ผมว่าราคาคุ้มมากจริง ๆ ครับ

 

ผมก็คิดคล้าย ๆ กัน แต่ไม่รู้จะอธิบายออกมายังไงดี
การตั้งชื่อว่า mental model นี่เหมาะมากเลยครับ ไว้คงต้องหยิบมาใช้บ่อย ๆ

 

150 ดอลลาร์ต่อชั่วโมง? แค่ตรงนี้ก็คุมตัวแปรกันเละเทะแล้ว 555555

 

ฉันชอบ django มากจริงๆ! ตัวฉันเองก็เป็นหนี้บุญคุณมันในหลายด้านและรู้สึกขอบคุณมาก แม้ว่า Django จะได้รับความนิยมน้อยลงกว่าเมื่อก่อนบ้าง แต่จริงๆ แล้วก็ไม่แน่ใจเหมือนกันว่า Django เคยมีช่วงที่ฮอตเป็นพิเศษตอนไหนไหม และเชื่อว่ามันจะเป็นเฟรมเวิร์กที่ยังคงได้รับความรักอย่างมั่นคงเสถียรไปได้อีกนานแสนนาน!

 

ตั้งแต่แรกแล้ว ผู้ผลิตชิ้นส่วนที่ทำอุปกรณ์ก็มักจะไม่ค่อยรองรับทั้ง Lua หรือ Python ดีเท่าไร อย่างมากก็ระดับ C?

 

คนเขียนโพสต์นั้นคงกดทำคลิปสั้นแบบสำเร็จรูปแล้วโดนแบนมั้ง 555

 

ผมก็ยังใช้อยู่ได้ดีสำหรับการพัฒนาเว็บเป็นงานอดิเรก

 

นี่คือสิ่งที่ผมกำลังทำอยู่พอดีเพราะต้องการมันมาก แล้วเขาก็ทำออกมาให้เลย... ผมใช้ Claude Code Max อยู่ และนี่คือซอฟต์แวร์ที่จำเป็นมากจริง ๆ ตอนที่ต้องพัฒนาหลายโปรเจ็กต์พร้อมกันในครั้งเดียว

 

สุขสันต์วันเกิด Django!

 

ฉบับแปลภาษาเกาหลีอยู่ด้านล่าง
https://roy-jung.github.io/250701-history-of-js/

 

อยากให้แสดงออกมาเป็นตัวเลขว่าดีขึ้นมากแค่ไหน ยอดเยี่ยมแค่ไหน และแม่นยำแค่ไหนนะครับ

 

เกาหลีใต้จะแตกต่างอย่างไรนะ

 

ผมเห็นด้วยกับประเด็น ปัญหาการสิ้นเปลืองพื้นที่ดิสก์ อยู่ไม่น้อยเลยครับ...
ผมดูแล AKS อยู่ แล้วทุกครั้งที่เห็นแอป Python ที่มีขนาดอิมเมจคอนเทนเนอร์เกิน 1GB ก็ปวดหัวมากครับ
ตอนนี้ก็แค่เอา Dockerfile มาปรับเองเพื่อลดขนาดแล้วอัปขึ้นไปใหม่ ถ้าลดให้ต่ำกว่า 500MB ไม่ได้ก็ยอมแพ้เลยครับ 555