- ในอุตสาหกรรมซอฟต์แวร์กำลังมี คำกล่าวอ้างเกินจริงว่า AI จะเข้ามาแทนบทบาทของนักพัฒนามนุษย์ แพร่กระจายออกไป
- การถกเถียงอย่างดุเดือดเริ่มขึ้นเมื่อ Jaana Dogan จาก Google ทวีตว่า “Claude Code สร้างระบบที่เราทำมา 1 ปีขึ้นมาใหม่ได้ภายใน 1 ชั่วโมง”
- แต่ในความเป็นจริง นั่นเป็นเพียง โค้ดสาธิตในระดับที่นำไอเดียเดิมมาทำให้ใช้งานได้ด้วย AI และการออกแบบแกนหลักก็อาศัยความเชี่ยวชาญของมนุษย์
- บทความนี้เรียกคนที่เป็นผู้นำการประกาศเกินจริงลักษณะนี้ว่า ‘Influentists’ และชี้ว่าพวกเขามีลักษณะเด่นคือ คำกล่าวอ้างที่ทำซ้ำตรวจสอบไม่ได้และถ้อยคำกำกวม
- พร้อมเตือนว่าคอมมูนิตี้สายเทคควรหันความสนใจกลับไปที่ ผลลัพธ์ที่ทำซ้ำได้และอิงหลักฐาน
ทวีตของ Rakyll และการตีความเกินจริง
การปรากฏตัวของ ‘Influentists’
- ผู้เขียนนิยาม ‘Influentists’ ว่าเป็น “คนในคอมมูนิตี้วิทยาศาสตร์และเทคโนโลยีที่เผยแพร่คำกล่าวอ้างที่ยังไม่ผ่านการพิสูจน์ด้วยอิทธิพลสาธารณะ”
- คนกลุ่มนี้มีลักษณะ 4 ประการ
- วัฒนธรรม ‘trust-me-bro’: นำประสบการณ์ส่วนตัวมาทำให้ดูเหมือนเป็นข้อเท็จจริงสากล
- ไม่มีหลักฐานที่ตรวจสอบซ้ำได้: ไม่เปิดเผยโค้ด ข้อมูล หรือวิธีการ
- ความกำกวมเชิงกลยุทธ์: เมื่อถูกวิจารณ์ก็ยังเปิดช่องให้ตีความใหม่ได้
- น้ำเสียงแบบดราม่า: ใช้ถ้อยคำอย่าง “นี่ไม่ใช่เรื่องล้อเล่น” เพื่อกระตุ้นอารมณ์
- ทวีตของ Andrej Karpathy ที่ว่า “ไม่เคยรู้สึกตามไม่ทันขนาดนี้มาก่อนในฐานะโปรแกรมเมอร์” ก็เป็นรูปแบบเดียวกัน
กลยุทธ์แบบ ‘ให้กระแสนำก่อน’ ของบริษัทยักษ์ใหญ่เทค
- Galen Hunt แห่ง Microsoft เคยประกาศว่าจะใช้ AI แปลงโค้ด C/C++ เป็น Rust ภายในปี 2030 แต่หลังถูกชี้ว่าไม่สมจริงก็แก้คำพูดใหม่ว่าเป็น “โครงการวิจัย”
- วิศวกรจาก Anthropic และ OpenAI ก็มีกรณีซ้ำๆ ของการ สื่อเป็นนัยว่า “บรรลุ AGI ภายในแล้ว” แต่โมเดลที่ปล่อยออกมาจริงกลับต่ำกว่าความคาดหวัง
- บทความชี้ว่าแพตเทิร์นแบบ ‘ปล่อยกระแสก่อนแล้วค่อยแก้ทีหลัง’ กำลังแพร่กระจายไปทั้งอุตสาหกรรม
ต้นทุนของอิทธิพลเกินจริงที่ไม่ถูกตรวจสอบ (Unchecked Influence)
- คำพูดลักษณะนี้ก่อให้เกิด ‘หนี้ทางเทคนิคของความคาดหวัง (technical debt of expectations)’
- นักพัฒนารุ่นจูเนียร์รู้สึกท้อแท้จากความเชื่อว่า “AI ทำงาน 1 ปีได้ภายใน 1 ชั่วโมง”
- ทั้งที่ความจริงแล้วมันคือ ผลลัพธ์สาธิตที่สะท้อนความเชี่ยวชาญสั่งสมมาหลายปี
- คอมมูนิตี้สายเทคจำเป็นต้องกลับไปสู่ การประเมินบนฐานของหลักฐานและความสามารถในการทำซ้ำ
- หากเป็นนวัตกรรมที่แท้จริง ก็ควร พิสูจน์ได้ด้วยผลลัพธ์ ไม่ใช่ด้วยทวีตไวรัล
- สรุปคือ จำเป็นต้องฟื้นวัฒนธรรมที่ ให้ความสำคัญกับผลงานทางเทคนิคที่ตรวจสอบได้มากกว่ากระแส hype
5 ความคิดเห็น
ถ้าแค่ทำ vibe coding ก็หาเงินได้ง่ายขนาดนั้น…
ก็คงหาเงินแบบนั้นไปแล้วสิ… จะมาทำทวิตเตอร์ ยูทูบ แล้วก็สอนทำไม?
คนที่เขียนหนังสือชื่อ “เล่นหุ้นให้ได้เงิน 100 ล้านวอนต่อเดือน” นี่ เขาหาเงินจากหุ้นได้เดือนละ 100 ล้านวอนจริงไหม? ถ้าจริง แล้วเขาจะเขียนหนังสืออะไรแบบนั้นไปทำไม? ทำไมต้องตระเวนไปบรรยายพิเศษทั่วทุกสารทิศ ทำไมต้องทำยูทูบ? เพราะอยากเป็นแสงสว่างให้เหล่ารายย่อยที่ยังไม่รู้ประสีประสางั้นเหรอ?
โมเดลธุรกิจก็คือหาเงินด้วยคอร์สสอนหาเงินนั่นแหละ มองว่าเป็นสื่อลามกประเภทหนึ่งก็ได้ 555
เห็นด้วยมากครับ
นั่นคือการอวย AI แบบมั่ว ๆ
ความคิดเห็นจาก Hacker News
เหตุผลที่ความกังวลว่าจะตาม AI ไม่ทันลดลง ก็เพราะเริ่มตระหนักว่าเรื่องเล่าที่วนอยู่บน Twitter ส่วนใหญ่มักเกินจริง
ตัวอย่างเช่น คำพูดว่า “เริ่มธุรกิจออฟไลน์ได้ด้วย AI” ที่จริงก็แค่ใช้ Claude ช่วยค้นหาทนายและสรุปใบอนุญาตเท่านั้น และคำว่า “ทำงานแทน PM 10 คนได้คนเดียว” ก็เป็นเพียงการร่าง PRD เบื้องต้น
ส่วน “เปิดตัว product line ในสุดสัปดาห์” ก็คือแค่ทำเว็บไซต์หน้าเดียวด้วย JavaScript และ “เขียนนิยายไปพร้อมดื่มกาแฟ” ก็คือ PDF หยาบๆ ที่ ChatGPT สร้างขึ้น
คนให้ความสนใจกับโพสต์ยั่วยุที่ใช้ Cunningham’s Law มากกว่าตัวเนื้อหาทวีตจริงๆ และบัญชีเครื่องหมายถูกสีน้ำเงินก็หวังรายได้จากยอดวิว
เมื่อก่อนเข้าไปดูมีม แต่ตอนนี้กลับเจอแต่โพสต์พูดเกินจริงแนว “AI เปลี่ยนโลกแล้ว” ในที่อย่าง r/agi, r/singularity
ส่วนใหญ่เป็น โฆษณาเกินจริงเรื่อง AI ทำนองว่า “วิศวกรซอฟต์แวร์จบแล้ว” และคอมเมนต์วิจารณ์ก็มักถูกปัดทิ้งด้วยคำพูดว่ารุ่นล่าสุดแก้ทุกอย่างได้แล้ว
มี การปั้นกระแสปลอม (astroturfing) อย่างชัดเจนจำนวนมาก
เหมือน AI จะช่วยเพิ่มผลิตภาพได้ แต่สุดท้ายก็มี บั๊กประหลาดๆ โผล่มา เลยไม่ได้ทำให้โปรเจกต์เสร็จเร็วขึ้นจริง
การที่มีสินค้าสำหรับผู้บริโภคอย่าง ChatGPT อยู่ ก็เหมือนเป็นหลักฐานว่า LLM ยังแทนที่ งานระดับมนุษย์ ได้ไม่สมบูรณ์
ถ้ามันแทนผู้เชี่ยวชาญ 100,000 คนได้จริง OpenAI เอา “แรงงาน” นั้นไปใช้เองน่าจะกำไรมากกว่า
แต่ถ้าใช้ Bing ทุกวันก็จะเห็นว่ายัง คุณภาพแย่มาก อยู่ดี
ถ้าเจอสายแร่ทองจริงก็อาจรวยกว่า แต่พวกต้มตุ๋นก็ยังหาเงินได้ระหว่างทาง
แต่ในขณะเดียวกันก็เป็น สิ่งที่ทั้งฉลาดที่สุดและโง่ที่สุด
แม้ ChatGPT จะยังไม่สมบูรณ์ในเชิงเทคนิค แต่มันก็จุดชนวนจินตนาการของมวลชนจนทำให้ ตลาดทุน AI ระเบิดขึ้น
เป้าหมายสูงสุดคือการแทนที่แรงงานมนุษย์ แต่แค่ทำให้คน เชื่อในความเป็นไปได้นั้น ได้ ก็ทำเงินแล้ว
แต่ถ้าไปถึงระดับ AGI เมื่อไร ผู้ใช้ทั่วไปอาจเข้าถึงไม่ได้เลย
เหตุผลที่ผู้คนไม่พิสูจน์ประสิทธิภาพของ agentic coding มีอยู่สองข้อ
ตัวอย่างเช่น ฉันเปิดเผย prompt ของโปรเจกต์ MIDI mixer ที่ทำไว้ แต่ก็เลยเห็นชัดว่าจริงๆ แล้วฉันไม่ได้รู้เรื่อง MIDI มากนัก
บรรยากาศแบบนี้เลยทำให้ลังเลว่าจะเปิดเผยต่อไปในอนาคตดีไหม
ผลลัพธ์ออกมาแบบ สำเร็จกับล้มเหลวครึ่งต่อครึ่ง เลยตอนนี้ยังใช้แค่ประมาณว่าเป็นทางเลือกสุดท้าย
กรณีโปร่งใสแบบนี้ช่วยให้เข้าใจตำแหน่งที่แท้จริงของเครื่องมือได้
แต่พอใช้ Claude Code จะมีการแก้บทสนทนา ย้อนโค้ด และแก้ด้วยมือซ้ำๆ เยอะมาก จนบันทึกยาก
ถ้ามีเครื่องมือที่ช่วย แสดงภาพเป็นไทม์ไลน์ ของกระบวนการแบบอัตโนมัติก็คงดี
สุดท้ายแล้วมันไม่ใช่ “พิมพ์ prompt บรรทัดเดียวแล้วเสร็จ” แต่ต้องทำมือเยอะมาก
โค้ดที่ AI สร้างนั้น เต็มไปด้วยปัญหา ถ้าเปิดเผยก็อาจโดนล้อ หรือถ้าเอาไปรันเป็นบริการจริงก็อาจโดนแฮ็กทันที
ต้องใช้ทักษะอยู่บ้าง แต่ยังไม่ถึงระดับที่จะเรียกว่าวิทยาศาสตร์หรือวิศวกรรม
หมายถึงแรงตีกลับต่อโฆษณาเกินจริงเรื่อง AI หรือเปล่า? มองอีกมุม การที่ไม่โดนคุกคามก็น่าจะเป็นเรื่องดีไม่ใช่หรือ
วาทกรรมเกี่ยวกับ AI กลายเป็น สงครามโฆษณาชวนเชื่อ ไปแล้ว
ท้ายที่สุด สิ่งเดียวที่เชื่อถือได้คือ ข้อเท็จจริงที่ได้เจอด้วยตัวเอง
โปรเจกต์ DSL และ ส่วนขยาย LSP ที่ฉันทำเป็นการทดลองด้านภาษาแบบเต็มตัว
ฉันลงมือทำฟีเจอร์ต่างๆ เอง ทั้ง async pipeline, BDD test ที่มีมาในตัว, Postgres·GraphQL middleware และอื่นๆ
มันเป็นงานที่ทำเพื่อสนุกกับ กระบวนการออกแบบภาษาเอง มากกว่าตัวผลลัพธ์อย่างเดียว
เหมือนเอาหลายภาษามาปนกัน แค่มองก็รู้สึกต่อต้านแล้ว
คุณค่าที่ได้จากการเรียนรู้ระหว่างทางอาจมากกว่าประสิทธิภาพเสียอีก
ช่วงนี้อยากเรียกว่าเป็น ‘ยุคแห่งคนประจบ (Age of the Sycophants)’
เป็นโลกที่ทั้งการเมือง ธุรกิจ เทคโนโลยี และ SNS ต่างให้ความสนใจกับคนที่พูด สิ่งที่ฟังแล้วสบายใจ มากกว่าความจริง
SNS เพียงแต่ขยายปรากฏการณ์นี้ให้สุดโต่ง เพราะใครๆ ก็สร้างผู้ชมของตัวเองได้
ตอนนี้ภาพลักษณ์ดิจิทัลสำคัญกว่าความเป็นจริงไปแล้ว และ ชื่อเสียงก็คืออำนาจ
พูดตรงๆ แทบไม่มีความหวังเลยว่ากระแสนี้จะดีขึ้น
ฉันเองก็สงสัยเหมือนกันว่า “ถ้า AI เจ๋งขนาดนั้น ทำไมถึงไม่มีหลักฐาน”
ฉันเองก็สร้างซอฟต์แวร์ self-hosted ได้ดีด้วย Antigravity แต่ยังลังเลที่จะเปิดเผย
เพราะมันออกแบบเฉพาะกับความต้องการของฉัน และส่วนใหญ่ก็เขียนโดย AI จนรู้สึกว่า ฉันมีส่วนร่วมเล็กน้อยมาก
ช่วงวันหยุดฉันทำ โปรเจกต์ thermal-bridge กับ แอปเดโม ด้วย Antigravity
สำหรับใช้ส่วนตัวมันสมบูรณ์แบบ แต่บน free hosting มันช้าเกินไป เลยรู้สึกว่าไม่มีค่าพอจะเปิดเผย
ถึงอย่างนั้น AI ก็ช่วยให้ปิดงานที่ปกติต้องใช้ ครึ่งปี ได้ภายในไม่กี่วัน
งานที่ทำร่วมกับ AI ฉันเปิดเผย แต่โปรเจกต์ที่ AI ทำแทบทั้งหมด กลับไม่อยากเปิด เพราะรู้สึกว่า ‘มูลค่าต่ำ’
ยังไงคนอื่นก็สร้างอะไรคล้ายๆ กันได้ด้วย prompt ไม่กี่ครั้งอยู่แล้ว
ผู้คนมีปรากฏการณ์แบบ ตื่นเต้นตามความตื่นเต้นของคนอื่น
คล้ายหนังสยองขวัญ ที่แม้ไม่ได้เห็นเองโดยตรง ความคลั่งไคล้ก็แพร่ต่อกันได้
กระแสโฆษณาเกินจริงเรื่อง AI ก็อาศัยผลทางจิตวิทยาแบบนั้น
ความนับถือ ภายในบริษัทใหญ่กับความดังบน SNS เป็นคนละเรื่องกัน
วิศวกรที่เก่งจริงมักทำงานเงียบๆ ส่วนคนที่ shitposting บนอินเทอร์เน็ตอาจกลับมีทักษะทางเทคนิคน้อยกว่า
ในแง่นี้ฉันกลับคิดว่านโยบาย ควบคุมการพูดอย่างเข้มงวด ของ Apple อาจถูกต้องแล้ว
LLM เป็นเทคโนโลยีที่น่าทึ่ง แต่การประเมินค่าสูงเกินไปในตอนนี้ก็เกินจริง
ถ้ามันถึงระดับ AGI จริง เศรษฐกิจและระบบนิเวศซอฟต์แวร์ก็น่าจะเจอการเปลี่ยนแปลงระดับ อุกกาบาตชนโลก ไปแล้ว
คนอย่าง Rakyll หรือ Andrej ก็แค่พูดในบริบทว่า “มันพัฒนาเร็วเกินคาด” เท่านั้น
แต่ปัญหาคือคนที่เอาคำพูดนั้นไปอ้างกลับ เข้าใจผิดและตื่นตูมเกินเหตุ ว่า “AGI มาแล้ว”