ส่วนไหนที่คุณรู้สึกว่าเหลือเชื่อกันเหรอ

 

เฮ้อ... ช่างน่าอึ้งจริง ๆ ที่ใช้ตรรกะแบบว่า LLM จะมาขโมยข้อมูลส่วนตัวของฉัน...

 

ผมเคยใช้บ่อยเพื่อแชร์ไทม์แลปส์ที่ถ่ายตอนนัดเล่นบอร์ดเกมกันครับ
ช่วงหลัง Galaxy กับ Pixel ก็แชร์แบบ AirDrop กันได้แล้ว เลยทำให้การใช้งานดูคลุมเครือนิดหน่อยครับ
แต่ถ้าจะส่งเข้าเดสก์ท็อปก็ยังดีอยู่เหมือนเดิมครับ

 

Mitchell Hashimoto เขียนไว้ในคอมเมนต์บน HN ด้วยว่าถึงกับน้ำตาไหลจริง ๆ พอไปดูก็เลยเห็นว่า
https://x.com/mitchellh/status/2049213597419774026
เขาเป็นผู้ใช้ GitHub หมายเลข 1299 และสมัครตั้งแต่เดือนกุมภาพันธ์ 2008 เลยครับ

ช่วงนี้ดูเหมือน GitHub จะมีปัญหาเยอะพอสมควรนะครับ ไม่กี่ชั่วโมงก่อนก็ยังมีโพสต์ ขณะนี้ GitHub กำลังเกิดเหตุขัดข้อง ขึ้นมาด้วย

 

ลองติดตั้งบน Windows และดูแล้วครับ

  1. ในรายการเลือกโมเดลยังไม่มี Local LLM อย่าง ollama
  2. ในคำอธิบายของ Warp ระบุให้ป้อนบทสนทนาภาษาธรรมชาติเป็น "ภาษาอังกฤษ" เลยไม่แน่ใจว่าแปลว่าไม่มีฟีเจอร์แปลภาษาเกาหลีอัตโนมัติอะไรทำนองนั้นหรือเปล่า
 

ถึงจะเอาพวกนี้มาใช้ก็ดูเหมือนจะไม่ได้ช่วยมากนักเวลาลงมือเขียนโค้ดจริง ๆ... คงเป็นเพราะเป็นงานพัฒนาที่ยากแค่ระดับวางแผน codex แล้วรันเอเจนต์สินะ 555

 

ถ้าเป็นเมื่อ 1 ปีก่อน ผมคงแนะนำ Claude แบบสุด ๆ แต่ช่วงนี้ผมแนะนำ Codex app แบบสุด ๆ ครับ

 

ดูเหมือนว่าในเกาหลี การจ้างงานเป็นหนึ่งในโจทย์ยากจริงๆ เลยนะครับ ถ้าเลือกพลาดก็ไล่ออกก็ไม่ได้อีก... (เท่าที่ทราบ มีผู้ก่อตั้งหลายคนฟ้องร้องกันเพราะปัญหานี้ด้วย;;;) แม้แต่ในสตาร์ตอัปที่ควรต้องเดินเกมเชิงรุก สุดท้ายก็ยังตกอยู่ในสถานการณ์ที่ต้องเลือกทางที่ปลอดภัยอยู่ดี

 

ใน วิธีบริหารหลายบริษัทให้มีรายได้ต่อเดือน $10K ด้วยสแตกเดือนละ $20
มีคำพูดว่า
'กลเม็ดหลักของ Copilot: Microsoft คิดค่าบริการเป็นรายคำขอ ไม่ใช่ตามจำนวนโทเคน และ "คำขอ" ก็คือสิ่งที่พิมพ์ลงในช่องแชตหนึ่งครั้ง แม้เอเจนต์จะวิเคราะห์ทั้งโค้ดเบสเป็นเวลา 30 นาทีและแก้ไขไฟล์หลายร้อยไฟล์ ก็ยังมีค่าใช้จ่ายเพียงราว 0.04 ดอลลาร์"'
..เหมือนแบบนั้นจะทำได้อยู่ แต่ตอนนี้คงถูกปิดไปแล้วสินะ..

 

ข้อดีคือราคาถูก ส่วนที่เหลือเป็นข้อเสียทั้งหมด ดูเหมือนไม่มีเหตุผลให้ใช้อีกแล้ว

 

ผมก็ยัดทุกอย่างคล้าย ๆ กับที่ Osmani พูดเหมือนกัน
ตอนที่กำลังทำแอปอยู่ แล้วประเด็นนี้ก็โผล่ขึ้นมา เลยรีบพูดหน่อย
Osmani เองก็อย่าพูดอย่างเดียวเลย
ผมว่าถ้าเอาสิ่งที่ตัวเองพูดไปใส่ไว้ใน Google Anti-Gravity ด้วยก็น่าจะดีกว่าไหม
Karpathy ก็เหมือนกัน ตอนนี้เหมือนไม่คิดจะลงมือทำแล้ว เอาแต่โยนบทความออกมานิด ๆ หน่อย ๆ เฉย ๆ แบบนี้ก็ไม่ค่อยไหร่นะ! ครับ

https://github.com/hang-in/tunaFlow

 

สรุป 3 บรรทัด

  • ระบบ (harness) สำคัญกว่าตัวโมเดลในการตัดสินความสำเร็จหรือความล้มเหลว: ประสิทธิภาพของ AI ไม่ได้ขึ้นอยู่กับตัวโมเดลอย่าง GPT หรือ Claude เพียงอย่างเดียว แต่ถูกกำหนดโดยการออกแบบสภาพแวดล้อมการทำงานที่ล้อมรอบมัน เช่น พรอมป์ต์ เครื่องมือ แซนด์บ็อกซ์ และลูปฟีดแบ็ก ซึ่งเรียกรวมว่า harness
  • หลักการ 'Ratchet' ที่เปลี่ยนความผิดพลาดให้กลายเป็นกฎ: ไม่ควรมองความผิดพลาดของ AI เป็นแค่อุบัติเหตุชั่วคราว แต่ต้องสะท้อนกลับเข้าไปในเอกสารกฎ (เช่น AGENTS.md) หรือฮุกทันที เพื่อให้ระบบแข็งแรงขึ้นเรื่อย ๆ ตามกาลเวลา
  • ปัญหาไม่ได้อยู่ที่ตัวโมเดล แต่อยู่ที่การตั้งค่า (Skill): บ่อยครั้งที่ AI ทำงานได้ไม่ดี ไม่ใช่เพราะสติปัญญาของโมเดลไม่พอ แต่เพราะการออกแบบ harness ไม่ดีพอ และจำเป็นต้องใช้แนวทางเชิงวิศวกรรมโดยออกแบบส่วนประกอบและข้อจำกัดที่ต้องมี ไล่ย้อนกลับมาจากผลลัพธ์ที่ต้องการ
 

จะนำไปอ้างอิงครับ ขอบคุณครับ

 

เมื่อก่อนแม้จะเขียนในพรอมป์ชัดเจนว่าให้ทำ A แต่ก็ยังมีโอกาสอยู่เรื่อย ๆ ที่มันจะไม่ทำตาม เลยลองสารพัดวิธี ทั้งเน้นด้วยตัวหนาแบบ mrkdwn เขียนซ้ำสองรอบ เขียนเป็นภาษาอังกฤษ เขียนแบบรับต้นส่งท้าย เขียนเป็น xml แต่สุดท้ายมันก็ยังเมินพรอมป์อยู่เป็นระยะ ๆ...

 

แต่ถ้าพูดในพรอมป์ต์ว่าให้ทำ A และอย่าทำ B แล้วมันเข้าใจได้ดีจริง ๆ วิธีแบบนี้ก็น่าจะใช้ได้ แต่ถ้าการทำตามพรอมป์ต์ของ AI เป็นไปแบบมีความน่าจะเป็นตามสถานะของเซิร์ฟเวอร์ AI วิธีแบบนี้จะยังใช้ได้ผลไหม?

 

เขาคงคิดว่าต่อให้เนิร์ฟประสิทธิภาพแบบลับ ๆ ก็คงไม่มีใครรู้ แต่จริง ๆ แล้วสัญชาตญาณของคนเราคมกว่าที่คิด พอเอาความรู้สึกของผมบวกกับที่คนในคอมมูนิตี้พูดกัน ก็ได้คำตอบทันที

"แล้วงั้นคุณทำอะไรได้บ้างล่ะ 555" ก็เลยไม่มีทางเลือกนอกจากต้องใช้มันอยู่ดี....