rikko 2025-07-15 | ความคิดเห็นหลัก | ใน: เหตุใดจึงควรแจกจ่ายเครื่องมือเป็นไบนารีแบบสแตติกที่ทำงานได้ด้วยตัวเอง (ashishb.net) ถ้าเป็น CPU runtime ที่ใช้แค่สำหรับงานอนุมานแบบง่าย ๆ สถานการณ์ก็ยังพอไหวอยู่บ้าง แต่พอมีบริการ LLM ที่สมัยนี้ต้องรองรับกัน ทั้งทราฟฟิกก็พุ่ง ขนาดระบบก็โต ค่าใช้จ่ายตอนคำนวณนี่แทบสบถออกมาเลย 555 nicewook 2025-07-15 | ความคิดเห็นหลัก | ใน: วิธีพัฒนาซอฟต์แวร์ให้รวดเร็วในแบบของผม (evanhahn.com) มีหลายเรื่องที่รู้สึกเห็นด้วยมากครับ คอมเมนต์ก็ดีด้วย แต่พอมีใครสักคนมาช่วยเรียบเรียงและพูดออกมาแบบนี้ คือช่วยปูพื้นที่ให้การโต้แย้ง การสนับสนุน และการเสริมรายละเอียดตามมา จนดูเหมือนจะสมบูรณ์ยิ่งขึ้นครับ ป.ล. ช่วงนี้เห็นคำว่า "เทคโนโลยีที่น่าเบื่อ" บ่อยมาก ซึ่งในภาษาอังกฤษก็คือ boring technology นั่นเองครับ tested 2025-07-15 | ความคิดเห็นหลัก | ใน: AI ทำให้นักพัฒนาโอเพนซอร์สทำงานช้าลง และ Peter Naur อาจอธิบายเหตุผลได้ (johnwhiles.com) > ในทางกลับกัน หากเป็นงานแบบ ‘แค่ทำให้มันรันได้’ การใช้ AI ก็อาจมีประสิทธิภาพ ไม่ใช่แค่นักพัฒนาเท่านั้น แต่เพราะมีผู้คนหลากหลายแนวคิด เลยมีคนที่บังเอิญมาทำงานเป็นนักพัฒนา และเกลียดหรือกลัวการเขียนโค้ดหรือการอ่านโค้ด ยิ่งเป็นคนที่มีแนวคิดว่าแค่ให้มันรันได้ก็พอ มากกว่าจะตีความในมุมของโครงสร้างที่เป็นระบบหรือการบำรุงรักษา ก็ยิ่งดูเหมือนว่าจะพึ่งพาหรือศรัทธาใน AI อย่างมาก คิดแบบนั้นนะครับ ถ้าไม่ใช่ก็แล้วไป eususu 2025-07-15 | ความคิดเห็นหลัก | ใน: เหตุใดจึงควรแจกจ่ายเครื่องมือเป็นไบนารีแบบสแตติกที่ทำงานได้ด้วยตัวเอง (ashishb.net) มีแพ็กเกจที่ผูก dependency ของ pytorch+cuda ไว้โดยต่างกันแค่เวอร์ชัน... ชวนปวดหัวมาก ทั้งที่แทบไม่มีฟีเจอร์อะไรเลย แต่เดมอนเล็ก ๆ แต่ละตัวกลับต้องติดตั้ง dependency เกือบ 2GB.. tsboard 2025-07-15 | ความคิดเห็นหลัก | ใน: เป็นไปได้ไหมที่จะสร้างเซิร์ฟเวอร์ LLM แบบโฮสต์เองสำหรับผู้ใช้ 300 คน? (reddit.com) ผมเองก็เพราะความจำเป็นเลยกำลังทำโซลูชัน RAG โดยใช้ GPU H100 ที่ว่ากันว่าหายากถึง 4 ใบอยู่เหมือนกัน แต่พอคิดรวมไม่ใช่แค่เงินลงทุนฮาร์ดแวร์โดยตรง ยังมีค่าไฟกับค่าโซลูชันระบายความร้อนอื่น ๆ ด้วย ก็ยิ่งรู้สึกเรื่อย ๆ ว่าการเรียกใช้ API ไปเลยน่าจะดีกว่ามาก ตอนแรกผมก็เริ่มทดสอบด้วย Ollama เหมือนกัน แล้วพอเห็นว่ารองรับผู้ใช้พร้อมกัน 3 คนยังแทบไม่ไหว ก็ขยับไปใช้ vLLM ทันทีแล้วก็จัดองค์ประกอบโซลูชัน RAG ไปแบบทุลักทุเล แต่แค่นี้ก็ต้องใช้ GPU H100 เกือบเต็ม 2 ใบแล้ว (สมมติว่ามีผู้ใช้พร้อมกัน 10 คน) งาน embedding กับงานค้นหาก็เปิดผ่าน vLLM ใช้เหมือนกัน ทำให้ H100 4 ใบนี่ตึงมากจริง ๆ ครับ ทั้งที่ VRAM ต่อใบก็ราว ๆ 90GB แล้วนะ แน่นอนว่าผมเองก็ไม่ได้รู้เรื่อง AI มากนัก แค่พยายามทำสิ่งที่แผนกต้องการพร้อมกับปรับให้เข้ากับข้อกำหนดความปลอดภัยภายในบริษัทไปเรื่อย ๆ ก็เลยเหมือนลองทำแบบลุย ๆ ไปก่อน... เลยอดคิดไม่ได้ว่านี่มันถูกทางไหม ChatGPT Enterprise ใช่ไหมนะ? ผมว่าราคาคุ้มมากจริง ๆ ครับ eususu 2025-07-15 | ความคิดเห็นหลัก | ใน: AI ทำให้นักพัฒนาโอเพนซอร์สทำงานช้าลง และ Peter Naur อาจอธิบายเหตุผลได้ (johnwhiles.com) ผมก็คิดคล้าย ๆ กัน แต่ไม่รู้จะอธิบายออกมายังไงดี การตั้งชื่อว่า mental model นี่เหมาะมากเลยครับ ไว้คงต้องหยิบมาใช้บ่อย ๆ odlwlkiime 2025-07-15 | ความคิดเห็นหลัก | ใน: การวัด "ผลกระทบของ AI" ต่อผลิตภาพของนักพัฒนาโอเพนซอร์สที่มีประสบการณ์ (metr.org) 150 ดอลลาร์ต่อชั่วโมง? แค่ตรงนี้ก็คุมตัวแปรกันเละเทะแล้ว 555555 shalome7 2025-07-15 | ความคิดเห็นหลัก | ใน: สุขสันต์วันเกิดครบรอบ 20 ปีของ Django (djangoproject.com) ฉันชอบ django มากจริงๆ! ตัวฉันเองก็เป็นหนี้บุญคุณมันในหลายด้านและรู้สึกขอบคุณมาก แม้ว่า Django จะได้รับความนิยมน้อยลงกว่าเมื่อก่อนบ้าง แต่จริงๆ แล้วก็ไม่แน่ใจเหมือนกันว่า Django เคยมีช่วงที่ฮอตเป็นพิเศษตอนไหนไหม และเชื่อว่ามันจะเป็นเฟรมเวิร์กที่ยังคงได้รับความรักอย่างมั่นคงเสถียรไปได้อีกนานแสนนาน! cnaa97 2025-07-15 | ความคิดเห็นหลัก | ใน: เหตุผลที่ Lua เหมาะกับนักพัฒนา Embedded มากกว่า MicroPython (embedded.com) ตั้งแต่แรกแล้ว ผู้ผลิตชิ้นส่วนที่ทำอุปกรณ์ก็มักจะไม่ค่อยรองรับทั้ง Lua หรือ Python ดีเท่าไร อย่างมากก็ระดับ C? sinbumu 2025-07-15 | ความคิดเห็นหลัก | ใน: ความย้อนแย้งของ YouTube ที่หารายได้จาก AI แต่ก็พยายามปราบ AI บนแพลตฟอร์ม (itworld.co.kr) คนเขียนโพสต์นั้นคงกดทำคลิปสั้นแบบสำเร็จรูปแล้วโดนแบนมั้ง 555 ryj0902 2025-07-15 | ความคิดเห็นหลัก | ใน: สุขสันต์วันเกิดครบรอบ 20 ปีของ Django (djangoproject.com) ผมก็ยังใช้อยู่ได้ดีสำหรับการพัฒนาเว็บเป็นงานอดิเรก bichi 2025-07-15 | ความคิดเห็นหลัก | ใน: ความแตกต่างระหว่างฟังก์ชันปกติกับ Arrow Function ใน JavaScript และควรใช้ไวยากรณ์แบบไหนเมื่อไร (jrsinclair.com) const a = (a: () => null): (() => () => null) =>() => a xguru 2025-07-15 | ความคิดเห็นหลัก | ใน: AI ทำให้นักพัฒนาโอเพนซอร์สทำงานช้าลง และ Peter Naur อาจอธิบายเหตุผลได้ (johnwhiles.com) การวัด "ผลกระทบของ AI" ต่อประสิทธิภาพการทำงานของนักพัฒนาโอเพนซอร์สที่มีประสบการณ์ bichi 2025-07-15 | ความคิดเห็นหลัก | ใน: ความแตกต่างระหว่างฟังก์ชันปกติกับ Arrow Function ใน JavaScript และควรใช้ไวยากรณ์แบบไหนเมื่อไร (jrsinclair.com) () => ❤️ quintuplets2000 2025-07-15 | ความคิดเห็นหลัก | ใน: Claude Squad - เครื่องมือจัดการเวิร์กสเปซเทอร์มินัลสำหรับเอเจนต์เขียนโค้ด AI หลายตัว (github.com/smtg-ai) นี่คือสิ่งที่ผมกำลังทำอยู่พอดีเพราะต้องการมันมาก แล้วเขาก็ทำออกมาให้เลย... ผมใช้ Claude Code Max อยู่ และนี่คือซอฟต์แวร์ที่จำเป็นมากจริง ๆ ตอนที่ต้องพัฒนาหลายโปรเจ็กต์พร้อมกันในครั้งเดียว kmn1120 2025-07-15 | ความคิดเห็นหลัก | ใน: สุขสันต์วันเกิดครบรอบ 20 ปีของ Django (djangoproject.com) สุขสันต์วันเกิด Django! baeba 2025-07-15 | ความคิดเห็นหลัก | ใน: ประวัติโดยย่อของ JavaScript (deno.com) ฉบับแปลภาษาเกาหลีอยู่ด้านล่าง https://roy-jung.github.io/250701-history-of-js/ idunno 2025-07-15 | ความคิดเห็นหลัก | ใน: Upstage เปิดตัว Solar Pro 2 โมเดลให้เหตุผลระดับฟรอนเทียร์ (upstage.ai) อยากให้แสดงออกมาเป็นตัวเลขว่าดีขึ้นมากแค่ไหน ยอดเยี่ยมแค่ไหน และแม่นยำแค่ไหนนะครับ yangeok 2025-07-15 | ความคิดเห็นหลัก | ใน: กลยุทธ์ระดมทุนรูปแบบใหม่ของสตาร์ตอัป "Seed-Strapping" (tanayj.com) เกาหลีใต้จะแตกต่างอย่างไรนะ rikko 2025-07-15 | ความคิดเห็นหลัก | ใน: เหตุใดจึงควรแจกจ่ายเครื่องมือเป็นไบนารีแบบสแตติกที่ทำงานได้ด้วยตัวเอง (ashishb.net) ผมเห็นด้วยกับประเด็น ปัญหาการสิ้นเปลืองพื้นที่ดิสก์ อยู่ไม่น้อยเลยครับ... ผมดูแล AKS อยู่ แล้วทุกครั้งที่เห็นแอป Python ที่มีขนาดอิมเมจคอนเทนเนอร์เกิน 1GB ก็ปวดหัวมากครับ ตอนนี้ก็แค่เอา Dockerfile มาปรับเองเพื่อลดขนาดแล้วอัปขึ้นไปใหม่ ถ้าลดให้ต่ำกว่า 500MB ไม่ได้ก็ยอมแพ้เลยครับ 555 โหลดความคิดเห็นเพิ่มเติม
ถ้าเป็น CPU runtime ที่ใช้แค่สำหรับงานอนุมานแบบง่าย ๆ สถานการณ์ก็ยังพอไหวอยู่บ้าง แต่พอมีบริการ LLM ที่สมัยนี้ต้องรองรับกัน ทั้งทราฟฟิกก็พุ่ง ขนาดระบบก็โต ค่าใช้จ่ายตอนคำนวณนี่แทบสบถออกมาเลย 555
มีหลายเรื่องที่รู้สึกเห็นด้วยมากครับ
คอมเมนต์ก็ดีด้วย แต่พอมีใครสักคนมาช่วยเรียบเรียงและพูดออกมาแบบนี้ คือช่วยปูพื้นที่ให้การโต้แย้ง การสนับสนุน และการเสริมรายละเอียดตามมา จนดูเหมือนจะสมบูรณ์ยิ่งขึ้นครับ
ป.ล. ช่วงนี้เห็นคำว่า "เทคโนโลยีที่น่าเบื่อ" บ่อยมาก ซึ่งในภาษาอังกฤษก็คือ boring technology นั่นเองครับ
> ในทางกลับกัน หากเป็นงานแบบ ‘แค่ทำให้มันรันได้’ การใช้ AI ก็อาจมีประสิทธิภาพ
ไม่ใช่แค่นักพัฒนาเท่านั้น แต่เพราะมีผู้คนหลากหลายแนวคิด เลยมีคนที่บังเอิญมาทำงานเป็นนักพัฒนา และเกลียดหรือกลัวการเขียนโค้ดหรือการอ่านโค้ด ยิ่งเป็นคนที่มีแนวคิดว่าแค่ให้มันรันได้ก็พอ มากกว่าจะตีความในมุมของโครงสร้างที่เป็นระบบหรือการบำรุงรักษา ก็ยิ่งดูเหมือนว่าจะพึ่งพาหรือศรัทธาใน AI อย่างมาก คิดแบบนั้นนะครับ ถ้าไม่ใช่ก็แล้วไป
มีแพ็กเกจที่ผูก dependency ของ
pytorch+cudaไว้โดยต่างกันแค่เวอร์ชัน... ชวนปวดหัวมากทั้งที่แทบไม่มีฟีเจอร์อะไรเลย แต่เดมอนเล็ก ๆ แต่ละตัวกลับต้องติดตั้ง dependency เกือบ 2GB..
ผมเองก็เพราะความจำเป็นเลยกำลังทำโซลูชัน RAG โดยใช้ GPU H100 ที่ว่ากันว่าหายากถึง 4 ใบอยู่เหมือนกัน แต่พอคิดรวมไม่ใช่แค่เงินลงทุนฮาร์ดแวร์โดยตรง ยังมีค่าไฟกับค่าโซลูชันระบายความร้อนอื่น ๆ ด้วย ก็ยิ่งรู้สึกเรื่อย ๆ ว่าการเรียกใช้ API ไปเลยน่าจะดีกว่ามาก
ตอนแรกผมก็เริ่มทดสอบด้วย Ollama เหมือนกัน แล้วพอเห็นว่ารองรับผู้ใช้พร้อมกัน 3 คนยังแทบไม่ไหว ก็ขยับไปใช้ vLLM ทันทีแล้วก็จัดองค์ประกอบโซลูชัน RAG ไปแบบทุลักทุเล แต่แค่นี้ก็ต้องใช้ GPU H100 เกือบเต็ม 2 ใบแล้ว (สมมติว่ามีผู้ใช้พร้อมกัน 10 คน) งาน embedding กับงานค้นหาก็เปิดผ่าน vLLM ใช้เหมือนกัน ทำให้ H100 4 ใบนี่ตึงมากจริง ๆ ครับ ทั้งที่ VRAM ต่อใบก็ราว ๆ 90GB แล้วนะ
แน่นอนว่าผมเองก็ไม่ได้รู้เรื่อง AI มากนัก แค่พยายามทำสิ่งที่แผนกต้องการพร้อมกับปรับให้เข้ากับข้อกำหนดความปลอดภัยภายในบริษัทไปเรื่อย ๆ ก็เลยเหมือนลองทำแบบลุย ๆ ไปก่อน... เลยอดคิดไม่ได้ว่านี่มันถูกทางไหม ChatGPT Enterprise ใช่ไหมนะ? ผมว่าราคาคุ้มมากจริง ๆ ครับ
ผมก็คิดคล้าย ๆ กัน แต่ไม่รู้จะอธิบายออกมายังไงดี
การตั้งชื่อว่า mental model นี่เหมาะมากเลยครับ ไว้คงต้องหยิบมาใช้บ่อย ๆ
150 ดอลลาร์ต่อชั่วโมง? แค่ตรงนี้ก็คุมตัวแปรกันเละเทะแล้ว 555555
ฉันชอบ django มากจริงๆ! ตัวฉันเองก็เป็นหนี้บุญคุณมันในหลายด้านและรู้สึกขอบคุณมาก แม้ว่า Django จะได้รับความนิยมน้อยลงกว่าเมื่อก่อนบ้าง แต่จริงๆ แล้วก็ไม่แน่ใจเหมือนกันว่า Django เคยมีช่วงที่ฮอตเป็นพิเศษตอนไหนไหม และเชื่อว่ามันจะเป็นเฟรมเวิร์กที่ยังคงได้รับความรักอย่างมั่นคงเสถียรไปได้อีกนานแสนนาน!
ตั้งแต่แรกแล้ว ผู้ผลิตชิ้นส่วนที่ทำอุปกรณ์ก็มักจะไม่ค่อยรองรับทั้ง Lua หรือ Python ดีเท่าไร อย่างมากก็ระดับ C?
คนเขียนโพสต์นั้นคงกดทำคลิปสั้นแบบสำเร็จรูปแล้วโดนแบนมั้ง 555
ผมก็ยังใช้อยู่ได้ดีสำหรับการพัฒนาเว็บเป็นงานอดิเรก
const a = (a: () => null): (() => () => null) =>() => a
การวัด "ผลกระทบของ AI" ต่อประสิทธิภาพการทำงานของนักพัฒนาโอเพนซอร์สที่มีประสบการณ์
() => ❤️
นี่คือสิ่งที่ผมกำลังทำอยู่พอดีเพราะต้องการมันมาก แล้วเขาก็ทำออกมาให้เลย... ผมใช้ Claude Code Max อยู่ และนี่คือซอฟต์แวร์ที่จำเป็นมากจริง ๆ ตอนที่ต้องพัฒนาหลายโปรเจ็กต์พร้อมกันในครั้งเดียว
สุขสันต์วันเกิด Django!
ฉบับแปลภาษาเกาหลีอยู่ด้านล่าง
https://roy-jung.github.io/250701-history-of-js/
อยากให้แสดงออกมาเป็นตัวเลขว่าดีขึ้นมากแค่ไหน ยอดเยี่ยมแค่ไหน และแม่นยำแค่ไหนนะครับ
เกาหลีใต้จะแตกต่างอย่างไรนะ
ผมเห็นด้วยกับประเด็น
ปัญหาการสิ้นเปลืองพื้นที่ดิสก์อยู่ไม่น้อยเลยครับ...ผมดูแล AKS อยู่ แล้วทุกครั้งที่เห็นแอป Python ที่มีขนาดอิมเมจคอนเทนเนอร์เกิน 1GB ก็ปวดหัวมากครับ
ตอนนี้ก็แค่เอา Dockerfile มาปรับเองเพื่อลดขนาดแล้วอัปขึ้นไปใหม่ ถ้าลดให้ต่ำกว่า 500MB ไม่ได้ก็ยอมแพ้เลยครับ 555