17 คะแนน โดย GN⁺ 2026-01-17 | 5 ความคิดเห็น | แชร์ทาง WhatsApp
  • ในอุตสาหกรรมซอฟต์แวร์กำลังมี คำกล่าวอ้างเกินจริงว่า AI จะเข้ามาแทนบทบาทของนักพัฒนามนุษย์ แพร่กระจายออกไป
  • การถกเถียงอย่างดุเดือดเริ่มขึ้นเมื่อ Jaana Dogan จาก Google ทวีตว่า “Claude Code สร้างระบบที่เราทำมา 1 ปีขึ้นมาใหม่ได้ภายใน 1 ชั่วโมง”
  • แต่ในความเป็นจริง นั่นเป็นเพียง โค้ดสาธิตในระดับที่นำไอเดียเดิมมาทำให้ใช้งานได้ด้วย AI และการออกแบบแกนหลักก็อาศัยความเชี่ยวชาญของมนุษย์
  • บทความนี้เรียกคนที่เป็นผู้นำการประกาศเกินจริงลักษณะนี้ว่า ‘Influentists’ และชี้ว่าพวกเขามีลักษณะเด่นคือ คำกล่าวอ้างที่ทำซ้ำตรวจสอบไม่ได้และถ้อยคำกำกวม
  • พร้อมเตือนว่าคอมมูนิตี้สายเทคควรหันความสนใจกลับไปที่ ผลลัพธ์ที่ทำซ้ำได้และอิงหลักฐาน

ทวีตของ Rakyll และการตีความเกินจริง

การปรากฏตัวของ ‘Influentists’

  • ผู้เขียนนิยาม ‘Influentists’ ว่าเป็น “คนในคอมมูนิตี้วิทยาศาสตร์และเทคโนโลยีที่เผยแพร่คำกล่าวอ้างที่ยังไม่ผ่านการพิสูจน์ด้วยอิทธิพลสาธารณะ”
  • คนกลุ่มนี้มีลักษณะ 4 ประการ
    • วัฒนธรรม ‘trust-me-bro’: นำประสบการณ์ส่วนตัวมาทำให้ดูเหมือนเป็นข้อเท็จจริงสากล
    • ไม่มีหลักฐานที่ตรวจสอบซ้ำได้: ไม่เปิดเผยโค้ด ข้อมูล หรือวิธีการ
    • ความกำกวมเชิงกลยุทธ์: เมื่อถูกวิจารณ์ก็ยังเปิดช่องให้ตีความใหม่ได้
    • น้ำเสียงแบบดราม่า: ใช้ถ้อยคำอย่าง “นี่ไม่ใช่เรื่องล้อเล่น” เพื่อกระตุ้นอารมณ์
  • ทวีตของ Andrej Karpathy ที่ว่า “ไม่เคยรู้สึกตามไม่ทันขนาดนี้มาก่อนในฐานะโปรแกรมเมอร์” ก็เป็นรูปแบบเดียวกัน

กลยุทธ์แบบ ‘ให้กระแสนำก่อน’ ของบริษัทยักษ์ใหญ่เทค

  • Galen Hunt แห่ง Microsoft เคยประกาศว่าจะใช้ AI แปลงโค้ด C/C++ เป็น Rust ภายในปี 2030 แต่หลังถูกชี้ว่าไม่สมจริงก็แก้คำพูดใหม่ว่าเป็น “โครงการวิจัย”
  • วิศวกรจาก Anthropic และ OpenAI ก็มีกรณีซ้ำๆ ของการ สื่อเป็นนัยว่า “บรรลุ AGI ภายในแล้ว” แต่โมเดลที่ปล่อยออกมาจริงกลับต่ำกว่าความคาดหวัง
  • บทความชี้ว่าแพตเทิร์นแบบ ‘ปล่อยกระแสก่อนแล้วค่อยแก้ทีหลัง’ กำลังแพร่กระจายไปทั้งอุตสาหกรรม

ต้นทุนของอิทธิพลเกินจริงที่ไม่ถูกตรวจสอบ (Unchecked Influence)

  • คำพูดลักษณะนี้ก่อให้เกิด ‘หนี้ทางเทคนิคของความคาดหวัง (technical debt of expectations)’
    • นักพัฒนารุ่นจูเนียร์รู้สึกท้อแท้จากความเชื่อว่า “AI ทำงาน 1 ปีได้ภายใน 1 ชั่วโมง”
    • ทั้งที่ความจริงแล้วมันคือ ผลลัพธ์สาธิตที่สะท้อนความเชี่ยวชาญสั่งสมมาหลายปี
  • คอมมูนิตี้สายเทคจำเป็นต้องกลับไปสู่ การประเมินบนฐานของหลักฐานและความสามารถในการทำซ้ำ
    • หากเป็นนวัตกรรมที่แท้จริง ก็ควร พิสูจน์ได้ด้วยผลลัพธ์ ไม่ใช่ด้วยทวีตไวรัล
  • สรุปคือ จำเป็นต้องฟื้นวัฒนธรรมที่ ให้ความสำคัญกับผลงานทางเทคนิคที่ตรวจสอบได้มากกว่ากระแส hype

5 ความคิดเห็น

 
iolothebard 2026-01-18

ถ้าแค่ทำ vibe coding ก็หาเงินได้ง่ายขนาดนั้น…
ก็คงหาเงินแบบนั้นไปแล้วสิ… จะมาทำทวิตเตอร์ ยูทูบ แล้วก็สอนทำไม?

คนที่เขียนหนังสือชื่อ “เล่นหุ้นให้ได้เงิน 100 ล้านวอนต่อเดือน” นี่ เขาหาเงินจากหุ้นได้เดือนละ 100 ล้านวอนจริงไหม? ถ้าจริง แล้วเขาจะเขียนหนังสืออะไรแบบนั้นไปทำไม? ทำไมต้องตระเวนไปบรรยายพิเศษทั่วทุกสารทิศ ทำไมต้องทำยูทูบ? เพราะอยากเป็นแสงสว่างให้เหล่ารายย่อยที่ยังไม่รู้ประสีประสางั้นเหรอ?

 
choijaekyu 2026-01-19

โมเดลธุรกิจก็คือหาเงินด้วยคอร์สสอนหาเงินนั่นแหละ มองว่าเป็นสื่อลามกประเภทหนึ่งก็ได้ 555

 
redmi 2026-01-19

เห็นด้วยมากครับ

 
lighteach 2026-01-19

นั่นคือการอวย AI แบบมั่ว ๆ

 
GN⁺ 2026-01-17
ความคิดเห็นจาก Hacker News
  • เหตุผลที่ความกังวลว่าจะตาม AI ไม่ทันลดลง ก็เพราะเริ่มตระหนักว่าเรื่องเล่าที่วนอยู่บน Twitter ส่วนใหญ่มักเกินจริง
    ตัวอย่างเช่น คำพูดว่า “เริ่มธุรกิจออฟไลน์ได้ด้วย AI” ที่จริงก็แค่ใช้ Claude ช่วยค้นหาทนายและสรุปใบอนุญาตเท่านั้น และคำว่า “ทำงานแทน PM 10 คนได้คนเดียว” ก็เป็นเพียงการร่าง PRD เบื้องต้น
    ส่วน “เปิดตัว product line ในสุดสัปดาห์” ก็คือแค่ทำเว็บไซต์หน้าเดียวด้วย JavaScript และ “เขียนนิยายไปพร้อมดื่มกาแฟ” ก็คือ PDF หยาบๆ ที่ ChatGPT สร้างขึ้น

    • ช่วงนี้สิ่งที่ ไวรัล บน X (Twitter) ให้ความรู้สึกเหมือนเป็นตัวแทนของ “การขายคอร์ส” ในอดีต
      คนให้ความสนใจกับโพสต์ยั่วยุที่ใช้ Cunningham’s Law มากกว่าตัวเนื้อหาทวีตจริงๆ และบัญชีเครื่องหมายถูกสีน้ำเงินก็หวังรายได้จากยอดวิว
    • ตอนนี้ Reddit ก็แย่มากเหมือนกัน
      เมื่อก่อนเข้าไปดูมีม แต่ตอนนี้กลับเจอแต่โพสต์พูดเกินจริงแนว “AI เปลี่ยนโลกแล้ว” ในที่อย่าง r/agi, r/singularity
      ส่วนใหญ่เป็น โฆษณาเกินจริงเรื่อง AI ทำนองว่า “วิศวกรซอฟต์แวร์จบแล้ว” และคอมเมนต์วิจารณ์ก็มักถูกปัดทิ้งด้วยคำพูดว่ารุ่นล่าสุดแก้ทุกอย่างได้แล้ว
      มี การปั้นกระแสปลอม (astro­turfing) อย่างชัดเจนจำนวนมาก
    • ฉันก็รู้สึกคล้ายกัน
      เหมือน AI จะช่วยเพิ่มผลิตภาพได้ แต่สุดท้ายก็มี บั๊กประหลาดๆ โผล่มา เลยไม่ได้ทำให้โปรเจกต์เสร็จเร็วขึ้นจริง
    • ก่อนหน้านี้เคยมีคนสร้างนิยายอัตโนมัติเป็นร้อยเล่มแล้วเอาไปลง Amazon เพื่อทำเงิน เลยสงสัยว่าทุกวันนี้อาจมีคนทำแบบเดียวกันด้วย ChatGPT อยู่หรือเปล่า
    • สุดท้ายผู้คนก็พูดเกินจริงเพื่อ สะสมผู้ติดตาม
  • การที่มีสินค้าสำหรับผู้บริโภคอย่าง ChatGPT อยู่ ก็เหมือนเป็นหลักฐานว่า LLM ยังแทนที่ งานระดับมนุษย์ ได้ไม่สมบูรณ์
    ถ้ามันแทนผู้เชี่ยวชาญ 100,000 คนได้จริง OpenAI เอา “แรงงาน” นั้นไปใช้เองน่าจะกำไรมากกว่า

    • ถ้าเป็นจริง ผลิตภัณฑ์ของ Microsoft ก็น่าจะดีขึ้นกว่านี้มาก
      แต่ถ้าใช้ Bing ทุกวันก็จะเห็นว่ายัง คุณภาพแย่มาก อยู่ดี
    • ท้ายที่สุดแล้วมันเป็นโครงสร้างแบบ คนขายจอบเสียมได้กำไร
      ถ้าเจอสายแร่ทองจริงก็อาจรวยกว่า แต่พวกต้มตุ๋นก็ยังหาเงินได้ระหว่างทาง
    • LLM ทำงานระดับมนุษย์บางส่วนได้อย่างชัดเจน
      แต่ในขณะเดียวกันก็เป็น สิ่งที่ทั้งฉลาดที่สุดและโง่ที่สุด
      แม้ ChatGPT จะยังไม่สมบูรณ์ในเชิงเทคนิค แต่มันก็จุดชนวนจินตนาการของมวลชนจนทำให้ ตลาดทุน AI ระเบิดขึ้น
      เป้าหมายสูงสุดคือการแทนที่แรงงานมนุษย์ แต่แค่ทำให้คน เชื่อในความเป็นไปได้นั้น ได้ ก็ทำเงินแล้ว
    • ตอนนี้ยังเป็นช่วงที่พวกเรากำลังช่วยพัฒนาเทคโนโลยีนี้ด้วยเงินและฟีดแบ็ก
      แต่ถ้าไปถึงระดับ AGI เมื่อไร ผู้ใช้ทั่วไปอาจเข้าถึงไม่ได้เลย
  • เหตุผลที่ผู้คนไม่พิสูจน์ประสิทธิภาพของ agentic coding มีอยู่สองข้อ

    1. prompt หรือ pipeline อาจเป็น ความลับของบริษัท
    2. ของจริงมันน่าเบื่อหรือชวนอายเกินกว่าจะเปิดเผย เพราะถ้าเปิดแล้วภาพลวงตาเรื่อง ‘AI coding แบบมหัศจรรย์’ จะพังลง
      ตัวอย่างเช่น ฉันเปิดเผย prompt ของโปรเจกต์ MIDI mixer ที่ทำไว้ แต่ก็เลยเห็นชัดว่าจริงๆ แล้วฉันไม่ได้รู้เรื่อง MIDI มากนัก
      บรรยากาศแบบนี้เลยทำให้ลังเลว่าจะเปิดเผยต่อไปในอนาคตดีไหม
    • ที่มันโอเคได้ก็เพราะ (1) เป็นโปรเจกต์ที่น่าสนใจ และ (2) ไม่ได้ปิดบังการใช้ AI
      ผลลัพธ์ออกมาแบบ สำเร็จกับล้มเหลวครึ่งต่อครึ่ง เลยตอนนี้ยังใช้แค่ประมาณว่าเป็นทางเลือกสุดท้าย
      กรณีโปร่งใสแบบนี้ช่วยให้เข้าใจตำแหน่งที่แท้จริงของเครื่องมือได้
    • ฉันเป็น นักพัฒนาแบบงานอดิเรก เลยไม่ติดขัดที่จะเปิดเผยกระบวนการ
      แต่พอใช้ Claude Code จะมีการแก้บทสนทนา ย้อนโค้ด และแก้ด้วยมือซ้ำๆ เยอะมาก จนบันทึกยาก
      ถ้ามีเครื่องมือที่ช่วย แสดงภาพเป็นไทม์ไลน์ ของกระบวนการแบบอัตโนมัติก็คงดี
      สุดท้ายแล้วมันไม่ใช่ “พิมพ์ prompt บรรทัดเดียวแล้วเสร็จ” แต่ต้องทำมือเยอะมาก
    • จริงๆ ก็มีเหตุผลง่ายกว่านั้นอีก
      โค้ดที่ AI สร้างนั้น เต็มไปด้วยปัญหา ถ้าเปิดเผยก็อาจโดนล้อ หรือถ้าเอาไปรันเป็นบริการจริงก็อาจโดนแฮ็กทันที
    • ใช่แล้ว การเขียน prompt เป็นงานที่ น่าเบื่อและเห็นชัดอยู่แล้ว
      ต้องใช้ทักษะอยู่บ้าง แต่ยังไม่ถึงระดับที่จะเรียกว่าวิทยาศาสตร์หรือวิศวกรรม
    • สงสัยว่าคำว่า “บรรยากาศที่เป็นข้อถกเถียง” หมายถึงอะไร
      หมายถึงแรงตีกลับต่อโฆษณาเกินจริงเรื่อง AI หรือเปล่า? มองอีกมุม การที่ไม่โดนคุกคามก็น่าจะเป็นเรื่องดีไม่ใช่หรือ
  • วาทกรรมเกี่ยวกับ AI กลายเป็น สงครามโฆษณาชวนเชื่อ ไปแล้ว

    1. การพูดเกินจริงจากบริษัทที่อยากหาเงินกับ AI
    2. ยุทธศาสตร์ระดับรัฐที่ต้องการขัดขวาง AI ของประเทศคู่แข่ง
    3. ยุทธศาสตร์ระดับรัฐในทางตรงกันข้ามที่ต้องการดันอุตสาหกรรม AI ของตัวเอง
    4. การถกเถียงออนไลน์ของพลเมืองทั่วไปที่ถูกครอบงำทางอุดมการณ์
    5. คำกล่าวสุดโต่ง ที่หวังยอดคลิก
      ท้ายที่สุด สิ่งเดียวที่เชื่อถือได้คือ ข้อเท็จจริงที่ได้เจอด้วยตัวเอง
  • โปรเจกต์ DSL และ ส่วนขยาย LSP ที่ฉันทำเป็นการทดลองด้านภาษาแบบเต็มตัว
    ฉันลงมือทำฟีเจอร์ต่างๆ เอง ทั้ง async pipeline, BDD test ที่มีมาในตัว, Postgres·GraphQL middleware และอื่นๆ
    มันเป็นงานที่ทำเพื่อสนุกกับ กระบวนการออกแบบภาษาเอง มากกว่าตัวผลลัพธ์อย่างเดียว

    • เมื่อวานเห็นบน HN แล้วตกใจ เพราะไวยากรณ์ เละเทะมาก
      เหมือนเอาหลายภาษามาปนกัน แค่มองก็รู้สึกต่อต้านแล้ว
    • ถึงอย่างนั้น การทดลองแบบนี้ก็อาจทำให้ได้ มุมมองเชิงลึกด้านการออกแบบภาษา
      คุณค่าที่ได้จากการเรียนรู้ระหว่างทางอาจมากกว่าประสิทธิภาพเสียอีก
  • ช่วงนี้อยากเรียกว่าเป็น ‘ยุคแห่งคนประจบ (Age of the Sycophants)
    เป็นโลกที่ทั้งการเมือง ธุรกิจ เทคโนโลยี และ SNS ต่างให้ความสนใจกับคนที่พูด สิ่งที่ฟังแล้วสบายใจ มากกว่าความจริง

    • เดิมทีมนุษย์ก็มี พฤติกรรมเชิงแสดงออกต่อหน้าผู้ชม อยู่แล้ว
      SNS เพียงแต่ขยายปรากฏการณ์นี้ให้สุดโต่ง เพราะใครๆ ก็สร้างผู้ชมของตัวเองได้
      ตอนนี้ภาพลักษณ์ดิจิทัลสำคัญกว่าความเป็นจริงไปแล้ว และ ชื่อเสียงก็คืออำนาจ
      พูดตรงๆ แทบไม่มีความหวังเลยว่ากระแสนี้จะดีขึ้น
  • ฉันเองก็สงสัยเหมือนกันว่า “ถ้า AI เจ๋งขนาดนั้น ทำไมถึงไม่มีหลักฐาน”
    ฉันเองก็สร้างซอฟต์แวร์ self-hosted ได้ดีด้วย Antigravity แต่ยังลังเลที่จะเปิดเผย
    เพราะมันออกแบบเฉพาะกับความต้องการของฉัน และส่วนใหญ่ก็เขียนโดย AI จนรู้สึกว่า ฉันมีส่วนร่วมเล็กน้อยมาก

    • ฉันก็คล้ายกัน
      ช่วงวันหยุดฉันทำ โปรเจกต์ thermal-bridge กับ แอปเดโม ด้วย Antigravity
      สำหรับใช้ส่วนตัวมันสมบูรณ์แบบ แต่บน free hosting มันช้าเกินไป เลยรู้สึกว่าไม่มีค่าพอจะเปิดเผย
      ถึงอย่างนั้น AI ก็ช่วยให้ปิดงานที่ปกติต้องใช้ ครึ่งปี ได้ภายในไม่กี่วัน
    • ฉันเองก็มีโปรเจกต์อยู่สองประเภท
      งานที่ทำร่วมกับ AI ฉันเปิดเผย แต่โปรเจกต์ที่ AI ทำแทบทั้งหมด กลับไม่อยากเปิด เพราะรู้สึกว่า ‘มูลค่าต่ำ’
      ยังไงคนอื่นก็สร้างอะไรคล้ายๆ กันได้ด้วย prompt ไม่กี่ครั้งอยู่แล้ว
  • ผู้คนมีปรากฏการณ์แบบ ตื่นเต้นตามความตื่นเต้นของคนอื่น
    คล้ายหนังสยองขวัญ ที่แม้ไม่ได้เห็นเองโดยตรง ความคลั่งไคล้ก็แพร่ต่อกันได้
    กระแสโฆษณาเกินจริงเรื่อง AI ก็อาศัยผลทางจิตวิทยาแบบนั้น

  • ความนับถือ ภายในบริษัทใหญ่กับความดังบน SNS เป็นคนละเรื่องกัน
    วิศวกรที่เก่งจริงมักทำงานเงียบๆ ส่วนคนที่ shitposting บนอินเทอร์เน็ตอาจกลับมีทักษะทางเทคนิคน้อยกว่า
    ในแง่นี้ฉันกลับคิดว่านโยบาย ควบคุมการพูดอย่างเข้มงวด ของ Apple อาจถูกต้องแล้ว

  • LLM เป็นเทคโนโลยีที่น่าทึ่ง แต่การประเมินค่าสูงเกินไปในตอนนี้ก็เกินจริง
    ถ้ามันถึงระดับ AGI จริง เศรษฐกิจและระบบนิเวศซอฟต์แวร์ก็น่าจะเจอการเปลี่ยนแปลงระดับ อุกกาบาตชนโลก ไปแล้ว
    คนอย่าง Rakyll หรือ Andrej ก็แค่พูดในบริบทว่า “มันพัฒนาเร็วเกินคาด” เท่านั้น
    แต่ปัญหาคือคนที่เอาคำพูดนั้นไปอ้างกลับ เข้าใจผิดและตื่นตูมเกินเหตุ ว่า “AGI มาแล้ว”