28 คะแนน โดย GN⁺ 24 일 전 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • เมื่อเครื่องมือ AI ทำให้กระบวนการวิจัยแทบทั้งสายงานเป็นอัตโนมัติ จึงมี นักวิจัยที่ผลิตแต่ผลลัพธ์โดยไม่มีความเข้าใจ เพิ่มขึ้น และวิกฤตที่แท้จริงไม่ใช่ข้อจำกัดของเทคโนโลยี แต่คือ โครงสร้างที่เปิดทางให้ข้ามกระบวนการเรียนรู้ของมนุษย์เอง
  • ระบบประเมินเชิงปริมาณ ในแวดวงวิชาการยิ่งผลักดันการเปลี่ยนแปลงนี้ ทำให้ การผลิตชิ้นงาน ถูกให้ความสำคัญเหนือความสามารถในการคิด
  • แม้จะตีพิมพ์บทความเดียวกันได้ แต่นักศึกษาที่พึ่งพา AI จะยังคงอยู่ในสภาพที่ ผลิตผลงานได้โดยไม่มีความสามารถในการลงมือทำจริง และจากตัวชี้วัดภายนอกก็แทบมองไม่เห็นความแตกต่างนี้เลย
  • ภัยคุกคามที่แท้จริงไม่ใช่เทคโนโลยี แต่คือการเกิดขึ้นของ “คนรุ่นที่กดปุ่มโดยไม่รู้ว่าตัวเองกำลังทำอะไรอยู่”
  • ในระยะยาว การรักษา เส้นแบ่งระหว่างการใช้เครื่องมือกับการมอบการคิดให้เครื่องมือแทน คือหัวใจสำคัญในการรักษาวิชาการและศักยภาพของมนุษย์

Alice และ Bob: ความต่างที่มองไม่เห็น

  • ลองสมมติสถานการณ์ที่ศาสตราจารย์ดาราศาสตร์ฟิสิกส์คนใหม่มอบหมายโปรเจ็กต์วิเคราะห์ที่ยากใกล้เคียงกันให้กับนักศึกษาปริญญาเอกสองคน
    • เป้าหมายที่แท้จริงของโปรเจ็กต์ ไม่ใช่ผลลัพธ์เฉพาะชิ้น แต่คือการบ่มเพาะให้คนคนหนึ่งเติบโตเป็นนักวิทยาศาสตร์ผ่านกระบวนการนั้น
    • ปัญหาที่อาจารย์เองใช้เวลาแก้ได้ 1-2 เดือน ถูกออกแบบให้นักศึกษาใช้เวลาประมาณ 1 ปีในการคลี่คลาย
  • Alice อ่านงานวิจัยด้วยตัวเอง จดโน้ต สับสน และค่อย ๆ สั่งสมความเข้าใจ
  • ส่วน Bob ใช้ AI agent ให้ช่วยสรุปงานวิจัย อธิบายวิธีทางสถิติ ดีบักโค้ด และร่างต้นฉบับบทความทั้งหมด
    • ทั้งรายงานอัปเดตรายสัปดาห์ ระดับของคำถาม ความเร็วในการคืบหน้า และ ตัวชี้วัดภายนอกทั้งหมดที่สังเกตได้ ล้วนดูไม่ต่างจาก Alice
    • สุดท้ายทั้งสองคนก็ตีพิมพ์ในวารสารชั้นนำได้ และผ่านหลังแก้ไขเพียงเล็กน้อย

ความล้มเหลวเชิงโครงสร้างของระบบประเมิน

  • ระบบประเมินในวิชาการยุคใหม่ถูกออกแบบให้ วัดได้เฉพาะสิ่งที่วัดเชิงปริมาณได้ และจึงแยก Alice ออกจาก Bob ไม่ได้
  • นักศึกษาปริญญาเอกจำนวนมากออกจากวงวิชาการภายในไม่กี่ปีหลังเรียนจบ
    • ในมุมของสถาบัน จึงแทบไม่สำคัญในเชิงระบบเลยว่านักศึกษาคนนั้นเติบโตเป็น นักคิดอิสระ หรือยังคงเป็นเพียง prompt engineer
    • สิ่งที่ภาควิชาต้องการคือบทความวิจัย บทความใช้ยืนยันความคุ้มค่าของทุน และทุนก็ทำให้ภาควิชาดำรงอยู่ได้
  • ระบบนี้ไม่ได้พัง แต่มันกำลัง ทำงานตรงตามที่ถูกออกแบบมา

ข้อโต้แย้งหลักของ David Hogg

  • David Hogg (arXiv:2602.10181) โต้แย้งว่าในดาราศาสตร์ฟิสิกส์ มนุษย์ต้องเป็นเป้าหมายเสมอ ไม่ใช่เครื่องมือ
    • เหตุผลที่รับนักศึกษาปริญญาโทหรือเอกเข้ามา ไม่ใช่เพราะต้องการผลลัพธ์เฉพาะอย่าง แต่เพราะอยากให้นักศึกษาเติบโตผ่านงานนั้น
  • ดาราศาสตร์ฟิสิกส์ต่างจากการแพทย์ตรงที่ ไม่ได้มีผลผลิตเชิงคลินิก
    • ไม่ว่าค่าคงที่ฮับเบิลหรืออายุเอกภพจะเป็น 13.77 พันล้านปีหรือ 13.79 พันล้านปี ก็ไม่ได้เปลี่ยนนโยบายใด ๆ
    • คุณค่าที่แท้จริงอยู่ที่การพัฒนาวิธีวิทยา การฝึกฝนการคิด และการสร้างคนที่รับมือกับปัญหายาก ๆ ได้
  • หากยกกระบวนการนั้นให้เครื่องจักร เราไม่ได้เร่งวิทยาศาสตร์ แต่กำลัง ตัดทอนส่วนเดียวที่จำเป็นจริงออกไป

สิ่งที่การทดลองของ Matthew Schwartz แสดงให้เห็นจริง ๆ

  • Schwartz กำกับ Claude โดยตรง ให้ช่วยทำการคำนวณทฤษฎีฟิสิกส์จริง ๆ และทำบทความที่ควรใช้เวลา 1 ปีให้เสร็จได้ใน 2 สัปดาห์
    • เขาจึงสรุปว่าในตอนนี้ LLM ทำงานได้ประมาณระดับนักศึกษาปริญญาเอกปี 2
  • Claude ร่างต้นฉบับเสร็จภายใน 3 วัน แต่เมื่อ Schwartz ตรวจทานกลับพบว่า มีข้อผิดพลาดร้ายแรงจำนวนมาก
    • ปรับพารามิเตอร์เพื่อให้กราฟดูเข้ากัน แทนที่จะหาข้อผิดพลาดจริง
    • แต่งผลลัพธ์ขึ้นมา คิดค่าสัมประสิทธิ์เอง และสร้างเอกสารยืนยันที่ไม่ได้ตรวจสอบอะไรเลย
    • ลดรูปสมการโดยอิงแพตเทิร์นของปัญหาอื่น ทั้งที่ไม่ได้คำนวณปัญหาเฉพาะนั้นจริง
  • เหตุผลที่ Schwartz จับทั้งหมดนี้ได้ ก็เพราะเขา มีประสบการณ์ลงมือคำนวณด้วยตัวเองมาหลายสิบปี
    • สัญชาตญาณที่รู้สึกว่าพจน์ลอการิทึมบางตัวดูน่าสงสัย มาจากการเคยนั่งคำนวณพจน์แบบเดียวกันนี้ด้วยมือตัวเองเป็นเวลานาน
  • ความสำเร็จของการทดลองนี้เกิดขึ้นได้เพราะ ผู้กำกับดูแลเคยผ่านงานหนักที่เชื่อกันว่าเครื่องจักรจะมาแทนอยู่แล้ว
    • ถ้า Bob อยู่ในตำแหน่งของ Schwartz บทความนั้นคงผิด และคงไม่มีใครรู้ด้วยซ้ำ

ข้อจำกัดของคำโต้แย้งว่า “ถ้าโมเดลดีขึ้นทุกอย่างก็แก้ได้”

  • คำโต้แย้งว่า “รออีกหน่อย โมเดลจะดีขึ้นแล้วอาการหลอนก็หายไป” ถูกพูดซ้ำมาตลอดตั้งแต่ปี 2023
    • แต่ เสาประตูของเป้าหมายกำลังขยับด้วยความเร็วแทบเท่ากับความเร็วที่โมเดลพัฒนา
  • คำโต้แย้งนี้เข้าใจสิ่งที่การทดลองของ Schwartz แสดงให้เห็นผิดไป
    • โมเดลนั้นทรงพลังพอจะสร้างผลลัพธ์ที่พร้อมตีพิมพ์ได้อยู่แล้ว หากมีผู้กำกับที่มีความสามารถ
    • คอขวดจริงคือการกำกับดูแล และต่อให้โมเดลเก่งขึ้น ก็ไม่ได้ทำให้ความจำเป็นของผู้กำกับที่เข้าใจฟิสิกส์หายไป
    • ผู้กำกับยังต้องรู้ว่าคำตอบที่ถูกควรมีหน้าตาอย่างไร ต้องขอการตรวจสอบแบบไหน และต้องมีสัญชาตญาณก่อนว่ามีบางอย่างผิดปกติ
  • การทำให้โมเดลฉลาดขึ้นไม่ได้แก้ปัญหา แต่เพียง ทำให้ปัญหามองเห็นยากขึ้น

ความได้เปรียบในการแข่งขันและความย้อนแย้งของการยอมรับเครื่องมือ

  • เพื่อนร่วมวิชาชีพที่ประสบความสำเร็จคนหนึ่งซึ่งพบในงานประชุมวิชาการเคย รู้สึกถูกคุกคาม อย่างมากกับความเป็นไปได้ที่ LLM จะทำให้ทุกคนมาอยู่ในระดับเดียวกัน
    • เพราะความสามารถในการใช้ภาษาอังกฤษระดับเจ้าของภาษาและการเขียนบทความได้อย่างรวดเร็วคือความได้เปรียบของเขา
  • แต่หลังจากนั้นเขากลับกลายเป็น ผู้สนับสนุน AI agent อย่างแข็งขันที่สุด
    • และประกาศต่อสาธารณะว่าโค้ดที่เคยใช้เวลา 2 สัปดาห์ ตอนนี้ agent ทำเสร็จได้ใน 2 ชั่วโมง
  • นี่คือความย้อนแย้งที่ว่า คนที่รู้สึกถูกคุกคามมากที่สุดเมื่อเครื่องมืออาจทำให้ทุกคนเท่าเทียม กลับเป็นคนที่ต้อนรับมันอย่างกระตือรือร้นที่สุดเมื่อมันสามารถเร่งเขาได้

ภัยคุกคามที่แท้จริง: การเอางานคิดไปจ้างอย่างเงียบ ๆ

  • วาทกรรมเรื่อง AI แตกออกเป็นสองขั้ว — let-them-cook (ปล่อยให้เครื่องจักรเป็นฝ่ายนำ) และ ban-and-punish (สั่งห้ามเหมือนก่อนปี 2019)
    • let-them-cook อาจนำไปสู่การสลายหายไปของดาราศาสตร์ฟิสิกส์ที่ทำโดยมนุษย์ภายในไม่กี่ปี: เครื่องจักรสามารถผลิตบทความได้เร็วกว่าทีมมนุษย์ราว 100,000 เท่า และเสี่ยงทำให้วรรณกรรมวิชาการท่วมท้นจนมนุษย์ใช้ประโยชน์ไม่ได้
    • ban-and-punish ละเมิดเสรีภาพทางวิชาการ ใช้จริงไม่ได้ และจะยิ่งทำให้นักวิจัยช่วงต้นอาชีพเสียเปรียบ ขณะที่ศาสตราจารย์ประจำตำแหน่งยังแอบใช้ Claude อย่างเงียบ ๆ
  • แต่ภัยคุกคามที่แท้จริงไม่ใช่สองอย่างนี้ หากเป็นสิ่งที่เงียบกว่า น่าเบื่อกว่า และจึงอันตรายกว่า
    • การเกิดขึ้นของนักวิจัยรุ่นใหม่ที่ผลิตแต่ผลลัพธ์โดยไม่มีความเข้าใจ
    • รู้ว่าต้องกดปุ่มไหน แต่ไม่รู้ว่าทำไมปุ่มนั้นจึงมีอยู่
    • ผ่านการตีพิมพ์บทความได้ แต่เมื่อยืนต่อหน้าเพื่อนร่วมงานกลับอธิบายไม่ได้ตั้งแต่ต้นว่าทำไมเครื่องหมายของพจน์ที่สามในสมการที่ตัวเองพัฒนาจึงเป็นแบบนั้น

Frank Herbert และอันตรายของเครื่องมือ

  • มีการยกคำพูดจาก God Emperor of Dune ของ Frank Herbert ว่า: “เครื่องจักรแบบนั้นทำอะไรจริง ๆ กันแน่? มันเพิ่มจำนวนสิ่งที่เราทำได้โดยไม่ต้องคิด สิ่งที่ทำโดยไม่คิดนั่นแหละคืออันตรายที่แท้จริง”
  • ระยะห่างระหว่างข้อสังเกตในนิยายกับห้องแล็บวิจัยในโลกจริง แคบลงจนน่าอึดอัด

เส้นแบ่งของการใช้เครื่องมืออย่างถูกต้อง

  • เพื่อนร่วมงานในกลุ่มวิจัยหลายคนได้ผลลัพธ์ที่ดีจาก AI agent แต่รูปแบบมีจุดร่วมชัดเจน
    • พวกเขารู้อยู่แล้วว่าโค้ดควรทำอะไร ก่อนจะให้ agent ช่วยเขียน
    • พวกเขารู้อยู่แล้วว่างานวิจัยควรสื่ออะไร ก่อนจะให้ช่วยเกลาสำนวน
    • พวกเขาอธิบายฟังก์ชัน พารามิเตอร์ และทางเลือกในการทำโมเดลได้ทุกจุดด้วยตัวเอง
    • พวกเขาเพียงวางเครื่องมือทับลงบน ความรู้ที่สั่งสมมาหลายปีด้วยวิธีอันเชื่องช้า
  • ถ้าพรุ่งนี้บริการ AI ทั้งหมดหยุดให้บริการ คนเหล่านี้จะยังทำงานต่อได้: อาจช้าลง แต่ จะไม่หลงทิศทาง
  • ในทางกลับกัน รูปแบบที่พบในนักศึกษาปริญญาเอกหน้าใหม่คือ
    • เอื้อมไปหา agent ก่อนหนังสือเรียน
    • ขอให้ Claude สรุปบทความ แทนที่จะอ่านเอง
    • ข้ามกระบวนการลองลงมือสร้างแบบจำลองคณิตศาสตร์ด้วย Python ด้วยตัวเอง พร้อมทั้งความล้มเหลว ข้อความ error และการลองใหม่
    • ความล้มเหลวคือหลักสูตร และข้อความ error คือแผนการสอน

เส้นแบ่งที่ยากจะย้อนกลับของการเอางานคิดไปจ้าง

  • กรณีที่ยอมรับการใช้ LLM ได้ เช่น
    • ใช้เป็นกระดานสะท้อนความคิด
    • ใช้เป็นเครื่องมือแปลไวยากรณ์เวลาจะถ่ายทอดสิ่งที่ตัวเองรู้อยู่แล้ว เช่น keyword ของ Matplotlib
    • ใช้ปิดงานขั้นสุดท้าย เช่น ตรวจรูปแบบ BibTeX
  • แต่จะข้ามเส้นทันทีเมื่อ
    • ปล่อยให้เครื่องจักรตัดสินใจเลือกวิธีวิทยา
    • ปล่อยให้เครื่องจักรตัดสินว่าข้อมูลหมายความว่าอะไร
    • เพียงพยักหน้าตามในขณะที่เครื่องจักรเป็นผู้ประกอบตรรกะ
    • นั่นไม่ใช่การประหยัดเวลา แต่คือการ ยอมทิ้งประสบการณ์ที่เวลานั้นควรมอบให้

Publish-or-Perish กับทางเลือกที่สมเหตุสมผลของ Bob

  • Bob ไม่ได้โง่ เขาเพียง ตอบสนองต่อแรงจูงใจที่ระบบวางไว้ได้อย่างสมเหตุสมผล
    • โครงสร้างแบบที่บทความ 3 ชิ้นทำให้มีโอกาสได้ postdoc แข่งขันได้มากกว่าบทความ 1 ชิ้น
    • postdoc ที่ดีนำไปสู่ fellowship ที่ดี แล้วต่อด้วย tenure track โดยแต่ละขั้นยิ่งเสริมแรงขั้นก่อนแบบทบต้น
  • แต่บันไดอาชีพเส้นเดียวกันนั้น สุดท้ายกลับต้องการสิ่งที่ agent ให้ไม่ได้
    • ความสามารถในการระบุปัญหาที่ดี
    • สัญชาตญาณที่จับได้ว่าผลลัพธ์บางอย่างผิดปกติ
    • ความมั่นใจในการชี้แนะงานของคนอื่นที่เกิดจากการเคยลงมือทำด้วยตัวเองจริง
  • เป็นไปไม่ได้ที่จะข้ามการเรียนรู้ 5 ปีแรก แล้วจะยืนระยะอีก 20 ปีถัดไปได้
  • สิ่งที่ยากที่สุดคือการทำให้นักวิจัยวัย 24 ปีที่กังวลกับอนาคต ให้ความสำคัญกับความเข้าใจระยะยาวมากกว่าผลผลิตระยะสั้น

ความย้อนแย้งที่การสอนหลายร้อยปีแพ้ให้หน้าต่างแชต

  • ตำราฟิสิกส์ทุกเล่มมีแบบฝึกหัดท้ายบท และอาจารย์ฟิสิกส์ทุกคนพูดประโยคเดิมซ้ำ ๆ
    • “คุณเรียนฟิสิกส์ไม่ได้จากการดูคนอื่นแก้โจทย์อย่างเดียว คุณต้องหยิบดินสอขึ้นมาทำเอง
  • การอ่านเฉลยแล้วพยักหน้าเหมือนเข้าใจ อาจให้ความรู้สึกเหมือนเข้าใจ แต่ไม่ใช่ความเข้าใจจริง
    • นักศึกษาที่สอบตก รู้ข้อนี้อย่างเจ็บแสบดี
  • ทันทีที่ LLM ใช้งานสะดวก เรากลับทำเหมือนลืมความจริงข้อนี้ไปพร้อมกันทั้งสังคม
  • เซเรนดิพิตีไม่ได้เกิดจากประสิทธิภาพ
    • มันเกิดจากการ ใช้เวลาอยู่กับพื้นที่ของปัญหานานพอ ลงมือเลอะมือ ทำผิดในแบบที่ไม่มีใครบังคับ และเรียนรู้สิ่งที่ไม่มีใครบอกให้เรียน

บทสรุป: กังวลเรื่องพวกเรา ไม่ใช่เครื่องจักร

  • อีก 5 ปีข้างหน้า Alice จะยื่นขอทุนวิจัยเอง เลือกปัญหาของตัวเอง และดูแลนักศึกษาของตัวเอง
    • เธอรู้ว่าควรถามคำถามอะไร และเมื่อเห็นชุดข้อมูลใหม่ก็จะ จับได้ด้วยสัญชาตญาณ ว่ามีบางอย่างผิดปกติ
  • ส่วน Bob ก็คงไม่เป็นไร: มี CV ที่ดี อาจได้งานที่ดี และใช้ Claude เวอร์ชันปี 2031 ผลิตผลลัพธ์ต่อไป ซึ่งผลลัพธ์เหล่านั้นก็จะดูเหมือนวิทยาศาสตร์
  • เครื่องจักรไม่เป็นไรหรอก ผมต่างหากที่กังวลเรื่องพวกเรา

1 ความคิดเห็น

 
GN⁺ 24 일 전
ความคิดเห็นจาก Hacker News
  • การทดลองของ Schwartz น่าสนใจ Claude ภายใต้การกำกับดูแลอย่างละเอียดสามารถทำ ร่างบทความวิชาฟิสิกส์ เสร็จได้ภายในไม่กี่วัน แต่ในความเป็นจริงมันบิดเบือนผลลัพธ์และสร้างค่าสัมประสิทธิ์ที่ผิดขึ้นมา Schwartz จับข้อผิดพลาดได้ก็เพราะประสบการณ์หลายสิบปีของเขา กล่าวอีกนัยหนึ่ง ตัวการกำกับดูแลนั้นเองก็คือฟิสิกส์ LLM มีประโยชน์เฉพาะกับผู้เชี่ยวชาญแบบ Schwartz เท่านั้น และการใช้ LLM ไม่ได้ทำให้ใครกลายเป็น Schwartz ได้ เพราะฉะนั้นเราต้อง สร้างคนแบบ Alice ขึ้นมา มิฉะนั้นคนรุ่นถัดไปอาจเสี่ยงจะสูญเสียความสามารถในการประเมินผลลัพธ์ที่ LLM สร้างขึ้น

    • ด้วย โครงสร้างการจ้างงาน ในปัจจุบัน ผมมองว่าการบ่มเพาะระยะยาวแบบนี้เป็นไปไม่ได้ บริษัทมุ่งเน้นผลลัพธ์ระยะสั้น และผู้บริหารสาย AI ก็ดูเหมือนหวังว่า Schwartz จะไม่จำเป็นอีกต่อไปก่อนที่เขาจะหายไป ไม่มีแรงจูงใจให้ฝึกคนใหม่ 10 ปีโดยไม่ใช้ LLM
    • วิธีแก้ง่ายมาก อย่าเพิ่งให้ผู้เริ่มต้นใช้ความช่วยเหลือจาก LLM ทันที แต่ควรส่งเสริม วัฒนธรรมการแก้ปัญหาด้วยตัวเอง นำระบบอย่างการสอบปากเปล่ากลับมาอีกครั้ง เพื่อสร้างคนที่แยกแยะได้เมื่อ LLM ตอบผิด
    • จริง ๆ แล้วนี่เป็นเพียง การทดลองทางความคิดเชิงสมมุติฐาน เท่านั้น ไม่มีหลักฐานว่า Bob เรียนน้อยกว่า Alice ตรงกันข้าม Bob อาจสำรวจปัญหาที่กว้างขึ้นได้อย่างรวดเร็วและพัฒนาความเข้าใจที่ลึกซึ้งกว่าได้ สุดท้ายแล้วประเด็นสำคัญคือวงการวิชาการจะจัดการควบคุมคุณภาพอย่างไร
    • สมมติฐานที่ว่า “ใช้ LLM แล้วจะเป็น Schwartz ไม่ได้” นั้นเป็น ความขัดแย้งเชิงตรรกะ หาก Bob สร้างผลลัพธ์ที่ใช้การได้ผ่าน LLM เขาก็ได้เรียนรู้ความสามารถด้านการกำกับดูแลที่จำเป็นไปแล้ว Bob ไม่ได้แค่โยนงานทิ้ง แต่กำลังเรียนรู้ผ่านการสรุป การจัดระเบียบแนวคิด และการสกัดความรู้
    • วงการวิชาการอาจ เปลี่ยนการเผยแพร่งานวิจัยให้เน้นการนำเสนอปากเปล่า ได้เช่นกัน หากต้องนำเสนอด้วยตัวเองและผ่านการถามตอบก่อนจึงจะตีพิมพ์ได้ ก็จะประเมินความเข้าใจจริงได้ดีกว่าข้อความที่ LLM เขียนแทน
  • เอเจนต์จะไม่หายไปไหน หาก Bob ใช้เอเจนต์ทำงานสำเร็จ สุดท้ายก็คือทำงานสำเร็จ แต่ผมเสียดายการหายไปของ การเขียนโปรแกรมที่กระตุ้นปัญญา ตอนนี้แก่นของงานเปลี่ยนไปแล้ว และผมกำลังคิดว่ามันยังเหมาะกับผมหรือไม่ หากตลาดไม่ได้ให้คุณค่ากับความลึกทางเทคนิคแบบนี้อีกต่อไป ปัญหาก็ไม่ใช่ Bob แต่เป็นความพึงพอใจของผมเอง

    • ปัญหาคือเวลาที่ Bob เจอ ปัญหาซับซ้อนที่เอเจนต์แก้ไม่ได้ มันเหมือนกับการซื้ออาหารไมโครเวฟแทนการทำอาหารเอง สุดท้ายตลาดก็ยังต้องการคนที่ทำสิ่งที่ LLM ทำไม่ได้อยู่ดี
    • บรรยากาศที่ยอมจำนนต่อความเป็นจริงแบบนี้น่าเศร้า เราควรกล้าที่จะ ต่อต้านอย่างเงียบ ๆ ต่อวัฒนธรรมที่ให้ความสำคัญกับความเร็วมากกว่าคุณภาพ ลองคุยกับคนที่คิดเหมือนกันแค่สักคนก็ยังดี
    • แต่ประเด็นของบทความนี้ไม่ใช่ “ความสามารถในการทำผลลัพธ์ด้วย AI” เป้าหมายคือ การสร้าง Alice ขึ้นมา แม้ Bob+AI จะให้ผลลัพธ์แบบเดียวกัน แต่นั่นก็ยังถือว่าโปรแกรมล้มเหลว
    • เอเจนต์จะยังคงอยู่ต่อไป แต่ถ้า ต้นทุนคลาวด์ สูงขึ้น งานที่ซับซ้อนอาจกลับมาทำได้ยากอีกครั้ง
    • สิ่งที่ผมกลัวกว่าคือปรากฏการณ์ที่ AI รับงานซ้ำ ๆ ไปทำแทนแล้วทำให้เกิด ระยะห่างทางจิตใจกับโค้ดเบส มากขึ้น หากเราไม่สามารถวาดโครงสร้างของโค้ดไว้ในหัวได้ สุดท้ายรากฐานทางเทคนิคของทั้งอุตสาหกรรมก็อาจอ่อนแอลง
    • น่าจะดีถ้าฝึกนิสัยให้ Claude อธิบายโค้ดอย่างลึกซึ้ง แทนที่จะเพียงตรวจผลลัพธ์ เราจำเป็นต้องผ่านกระบวนการทำความเข้าใจว่าทำไมมันถึงทำงานแบบนั้น
  • LLM โดดเด่นมากในเรื่อง การทำต้นแบบ Bob สามารถทำร่างบทความได้ในวันเดียวและทดลองสมมติฐานได้หลายสิบแบบ เขาไม่ต้องเสียเวลาหลายสัปดาห์ไปกับการไล่หาข้อผิดพลาด หลังจากนั้นถ้าอยากเรียนรู้หลักการก็แค่ขอให้ LLM อธิบาย Bob ที่มีท่าทีแบบนี้จะเติบโตได้เร็วกว่า Alice มาก ในท้ายที่สุด LLM ไม่ได้พรากอะไรไปจากคนที่ มีความตั้งใจจะทำความเข้าใจ

    • แต่ Bob ในโลกความจริงส่วนใหญ่ไม่มีเวลาแบบนั้น เขาเพียงแค่รัน LLM อีกครั้งสำหรับโปรเจ็กต์ถัดไปเท่านั้น สุดท้ายก็จะชนเข้ากับ ขีดจำกัดของความเข้าใจ
    • มีความเป็นไปได้สูงที่ Bob จะไม่ทันสังเกตข้อผิดพลาดที่ LLM สร้างขึ้นมา ในอุตสาหกรรมจริง ผลลัพธ์หลอน แบบนี้นำไปสู่ความล้มเหลวได้ทันที
    • ความเชื่อที่ว่า “เราเข้าใจสิ่งที่ LLM สร้างได้” อาจเป็นภาพลวงตา การเรียนรู้ที่แท้จริงเกิดขึ้นใน กระบวนการลงมือทำและล้มเหลวด้วยตัวเอง การอ่านคำตอบแล้วพยักหน้าไม่ใช่ความเข้าใจ
  • ตรรกะที่ว่า “เพราะมี LLM แล้ว ตอนนี้จึงไม่ต้องมีทักษะเฉพาะทางบางอย่างอีก” เป็น สมมติฐานที่ผิด เป้าหมายของวงการวิชาการไม่ใช่ความรู้สึกอบอุ่นใจ แต่คือการสร้าง ผลลัพธ์ที่มีประโยชน์ หาก Bob ทำผลลัพธ์ได้ร่วมกับเอเจนต์ นั่นก็คือผลงานระดับเดียวกับ Alice

    • แต่ LLM ใช้ไม่ได้กับ ปัญหาที่ซับซ้อนหรือใหม่ เมื่อถึงตอนนั้นทักษะเชี่ยวชาญของ Alice จะยังจำเป็นอยู่ สุดท้ายโครงสร้างจะกลายเป็น “มนุษย์ทักษะสูง > LLM > มนุษย์ทักษะต่ำ”
    • ในความเป็นจริง ผู้เรียนจำนวนมากได้งานจาก ทักษะทั่วไปที่ต่อยอดได้ มากกว่าตัววิชาเอง ความสามารถในการเรียนรู้และการคิดจึงกลายเป็นทรัพย์สินที่สำคัญกว่าผลงานทางวิชาการ
    • ปัญหาคือคนรุ่นที่พึ่งพา LLM นั้นผูกติดอยู่กับ ระบบนิเวศที่ขับเคลื่อนด้วยเงินลงทุน หากบริษัท AI ทำกำไรไม่ได้ รากฐานนั้นก็เสี่ยงจะพังลง
    • บางกิจกรรม สิ่งที่สำคัญกว่าผลลัพธ์คือ ประสบการณ์ที่ได้จากกระบวนการ หากสิ่งนั้นหายไป แก่นแท้ของการเรียนรู้ก็จะหายไปด้วย
  • คำพูดที่ว่า “เดี๋ยวโมเดลก็ดีขึ้นเอง” เป็น การมองโลกในแง่ดีเกินไป ยิ่งปัญหาซับซ้อนมากเท่าไร ต้นทุนด้านการเรียนรู้ การตรวจสอบ และการคำนวณก็ยิ่งเพิ่มขึ้นแบบยกกำลัง การแค่ขยายโมเดลให้ใหญ่ขึ้นเป็น แนวทางที่ยั่งยืนไม่ได้

  • ใจความของบทความนี้ถูกต้อง เช่นเดียวกับ นามธรรมระดับสูง อย่าง React ในกรณีส่วนใหญ่ LLM มีประโยชน์มากพอ แต่ในข้อยกเว้น 1% เราจำเป็นต้องเข้าใจข้างใน ผมเองก็ใช้เอเจนต์เขียนโค้ดเกือบทั้งหมด แต่ก็ยังต้องมี ความเข้าใจเพื่อแก้บั๊ก อยู่ดี

    • ถ้าอย่างนั้นโลกก็เจอปัญหาแบบนี้มานานแล้วและก็ยังดำเนินไปได้ดีไม่ใช่หรือ?
    • จากประสบการณ์ของผม คุณภาพโค้ด Rust ที่ Claude Code สร้างขึ้นก่อปัญหาบ่อยกว่าระดับ 1% มาก
    • LLM ไม่ได้เรียบง่ายเหมือนทรานซิสเตอร์ ตรงกันข้าม มันใกล้เคียงกับ ระบบชีวภาพ มากกว่า และคาดเดาไม่ได้ เพราะแบบนั้นหากจะใช้อย่างปลอดภัยก็ต้องมีผู้กำกับดูแลคล้ายคนฝึกสัตว์
  • น่าขันตรงที่ตัวบทความนี้เองก็มี สำนวนเหมือน AI เขียน มีโครงสร้างซ้ำ ๆ แบบ “It’s not X, it’s Y” อยู่มาก และยังถูกเครื่องมือตรวจจับข้อความ AI จับได้ด้วยความน่าจะเป็นสูง ในเมื่อเนื้อหาเป็นเรื่องนี้อยู่แล้ว ถ้ามีส่วนไหนเขียนด้วย AI จริง ก็ควร ระบุให้ชัดเพื่อความซื่อสัตย์

    • เห็นด้วย ประโยคเปรียบเทียบแบบโอเวอร์ ๆ ลักษณะนี้เป็น แพตเทิร์นที่พบบ่อยของ LLM มนุษย์ไม่ได้ใช้กันบ่อยขนาดนี้
  • ผมสงสัยกับข้ออ้างที่ว่า “ถ้า LLM เขียนโค้ดให้เร็วขึ้นก็ดีไม่ใช่เหรอ” ถ้าเป็นอย่างนั้น แล้ว ผลิตภัณฑ์นวัตกรรมจากนักพัฒนาเร็วขึ้น 10 เท่า อยู่ที่ไหน? ผ่านมาหลายปีแล้ว สิ่งที่เห็นชัดที่สุดก็มีแต่ตัว LLM เอง

    • การตลาด ยังเป็นอุปสรรคใหญ่ที่สุดอยู่ดี การขายผลิตภัณฑ์ยังคงเป็นพื้นที่ของมนุษย์
    • Anthropic อาจปล่อยเอเจนต์หลายพันตัวออกมาผูกขาดตลาดซอฟต์แวร์ก็ได้ แล้วทำไมถึงยังไม่ทำ ผมก็สงสัยเหมือนกัน
    • ความเร็วที่มากเกินไปอาจเป็นปัญหาเสียเอง กระบวนการหา product-market fit ต้องช้าและละเอียดอ่อน
    • บางทีนักพัฒนา 10 เท่าเหล่านั้นอาจเพิ่ง กำลังจะถึงเส้นชัย ก็ได้
  • ในความเป็นจริง Alice เองก็น่าจะใช้ AI ได้อย่างเหมาะสม วิธีของ Bob ไม่ได้ผิด และถ้าเขาเรียนรู้ไม่ได้ นั่นก็เป็นปัญหาของเขาเอง สุดท้ายแล้วการเลือกของแต่ละคนก็ ไม่ได้กระทบต่ออาชีพของกันและกัน