ผมไม่แน่ใจว่าเป็นเพราะผมไม่ค่อยรู้เรื่องตัวเลือกดีพอหรือเปล่า แต่ใน HN ต้นฉบับมีแค่ลิงก์ เลยดูเหมือนว่า AI จะสรุปเว็บไซต์จากลิงก์นั้นมา
ดูเหมือนว่าคอมเมนต์นี่แหละจะเป็นตัวเนื้อหาหลัก

 

ตอนเรียนมหาวิทยาลัย ผมเคยเรียนวิชาเอกและทำการบ้านด้วยภาษาในสาย ALGOL, Lisp และ Prolog พอมาเห็นแล้วก็ทำให้นึกถึงความหลังขึ้นมาเลยครับ

 

โปรแกรมเมอร์ระดับซีเนียร์ดูจะเป็นโมเดลด้านการออกแบบที่เหนือกว่า opus นะ 555

 

ภาษาเหล่านั้นทิ้งอิทธิพลไว้กับภาษาโปรแกรมกระแสหลักสมัยใหม่มากทีเดียว
แต่ในบรรดานั้น ดูเหมือนมีแค่ Forth ที่อิทธิพลจะน้อยหน่อยนะครับ

 

ขอถามเกี่ยวกับบทความนี้เฉยๆ ครับ

บทความนี้ต้องอ่านคอมเมนต์ด้วยถึงจะสมบูรณ์หรือเปล่าครับ? เพราะถ้าอ่านแค่เนื้อหาหลักอย่างเดียว ผมก็ยังไม่รู้ว่า "เหตุผลที่วางเอียง" คืออะไรเลย ฮ่าๆ..

 

อ้อ จริงด้วยครับ ดูจากรายการเรโปแล้วมีโปรเจ็กต์ที่ขึ้นต้นด้วย Open อีกอยู่หลายตัวเหมือนกัน..

 

ยังไม่เคยเปิดเผยเลย แล้วจะบอกว่าย้อนวิศวกรรมได้ยังไงกัน...??

 

คนนี้ถ้ามีประเด็นอะไรที่กำลังเป็นกระแสขึ้นมา ก็จะผลิตอะไรตามแพตเทิร์นชื่อ open* ออกมาทุกครั้ง เลยทำให้ภาพลักษณ์ไม่ได้ดีมากนักเท่าไหร่..

 

ตอนฉันใช้ Claude ก่อนหน้านี้ มักจะมีภาษาญี่ปุ่นโผล่มาบ่อย ๆ เมื่อวานก็เป็นเหมือนกัน

 

ให้ความรู้สึกเหมือนมาถึงโลกดิสโทเปียแล้ว

 

หลังจาก Notion AI แล้ว ก็กลายเป็นว่าไม่รู้ด้วยซ้ำว่าเป็นแอปอะไรไปแล้ว
มีเรื่องแบบนี้เกิดขึ้นด้วยแฮะ

 

เป็นความคิดสั้น ๆ แต่ช่วงนี้ผมคิดแบบนี้บ่อย ๆ เมื่อก่อนเคยได้ยินว่าผู้เชี่ยวชาญภาษาแอสเซมบลีมองนักพัฒนา C แล้วพูดกันว่า "ไม่รู้จักเสียดายหน่วยความจำ" หรือ "ไม่เข้าใจฮาร์ดแวร์" อะไรทำนองนั้น ซึ่งพอมาดูตอนนี้ก็รู้สึกว่าเป็นคำวิจารณ์ในบริบทคล้าย ๆ กันอยู่ดี สุดท้ายแล้วในมุมมองของการพัฒนาซอฟต์แวร์ เราก็แค่กำลังพัฒนาด้วยภาษา (AI) ที่มีการยกระดับนามธรรมมากกว่าภาษาโปรแกรมเดิม ๆ เท่านั้นเอง ดังนั้นความเชี่ยวชาญในภาษาที่ใช้ก่อนหน้านั้นย่อมลดลงเป็นธรรมดา แต่ก็เหมือนกับเมื่อไม่นานมานี้ที่คนซึ่งยังพัฒนาด้วยภาษาในระดับ low-level กว่าปัจจุบันมักถูกเรียกว่าเป็น "สัตว์ประหลาด" ต่อจากนี้คนที่พัฒนาแบบ vibe coding แต่ยังเข้าใจหลักการของภาษาเดิม ๆ อยู่ ก็น่าจะถูกมองว่าเป็นคนที่โดดเด่นไม่เหมือนใครได้เหมือนกัน

 

หรือว่าที่นี่ก็ดูเหมือนจะมีคอมเมนต์ที่ AI ปั่นอยู่เยอะเหมือนกันนะ เป็นความรู้สึกไปเองหรือเปล่า

 

ด้วยเหตุผลเดียวกับข้อ 2 เวลาที่ใช้งาน LLM เกือบทั้งหมด ผมมักจะใส่คำสั่งเพิ่มเติมให้มันทำหน้าที่เป็นฝ่ายโต้แย้งไว้เสมอ ซึ่งก็ดูมีประโยชน์ในแบบของมันครับ

 

ในเชิงแนวคิดก็น่าสนใจดี แต่ก็ยังสงสัยว่าในการใช้งานจริงจะไปได้ดีแค่ไหน อย่างที่มีคนพูดไว้ในความเห็นบน HN เช่นกัน ตลาดสองด้าน (two-sided market) เป็นปัญหาใหญ่เพราะต้องดึงลูกค้ากลุ่มเริ่มต้นให้สำเร็จทั้งสองฝั่ง

 

ที่นี่ยังเห็นตัวอักษรภาษาฮินดีอีกนะครับ ช่วงหลังมานี้ไม่ว่าจะเป็น openai, claude, google ก็มักเกิดกรณีที่ output ภาษาเกาหลีมีภาษาฮินดีปนออกมาค่อนข้างบ่อย เลยสงสัยว่าการทำลาเบลชุดข้อมูลภาษาเกาหลีมีคนอินเดียเป็นคนช่วยทำหรือเปล่า?
เดิมทีผมไม่ชอบที่โมเดลจีนมักมีภาษาจีนปนมาในคำตอบภาษาเกาหลี แต่ช่วงหลังพอพวก frontier model ชอบปนภาษาฮินดีเข้ามาบ่อย ๆ กลับทำให้ความรู้สึกต่อต้านโมเดลจีนลดลงไปเสียอีก

 

น่าจะเป็นบทความอ้างอิงที่ดีเลยครับ ถ้าเนื้อหาหลักเป็นแนวทางปิดวาล์วของ "โทเค็นขาเข้า"
สำหรับผมเจอหลายกรณีที่ปัญหาเกิดจาก "สิ่งที่ลงทะเบียนไว้ตั้งแต่แรก" มีมากเกินไป เลยลองทำเครื่องมือชื่อ claude-slim ขึ้นมาครับ

มันเป็น CLI ที่สแกน จัดหมวดหมู่ และจัดระเบียบสถานการณ์อย่างเช่น จากสกิล 60 อัน มีครึ่งหนึ่งที่ไม่เคยใช้เลยสักครั้ง หรือ CLAUDE.md พองตัวขึ้นเพราะปลั๊กอิน การนับโทเค็นอิงกับ js-tiktoken ไม่ได้ลบออก แต่ย้ายไปไว้ที่ skills.disabled/ เพื่อให้ restore กลับได้ทุกเมื่อ

https://github.com/iops-leo/claude-slim

ทิศทางของมันเสริมกับการตั้งค่าในบทความได้พอดี คิดว่าน่าใช้ควบคู่กันครับ