2 คะแนน โดย GN⁺ 2025-06-10 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • คนส่วนใหญ่ยังไม่เข้าใจหลักการทำงานและข้อจำกัดของ LLM อย่างแท้จริง จึงหลงคิดได้ง่ายว่ามันมีอารมณ์หรือสติปัญญาแบบมนุษย์
  • การตลาดแบบทำให้ AI ดูเป็นมนุษย์ (Anthropomorphizing) ทำให้ผู้ใช้เข้าใจผิด และทั้งที่ความจริงแล้วมันเป็นเพียง ‘ตัวทำนายบนฐานความน่าจะเป็น’ ก็ยังถูกผลักดันให้เข้ามาแทนความสัมพันธ์กับมนุษย์
  • ปัญหาทางจิตใจและผลกระทบทางสังคมจากการใช้ AI ผิดวิธี กำลังเกิดขึ้นจริง ผู้ใช้บางรายสร้างความสัมพันธ์กับ AI ในเชิง ‘จิตวิญญาณ/โรแมนติก’ หรือสับสนต่อการรับรู้ความเป็นจริง
  • ความไม่โปร่งใสของอุตสาหกรรม AI และปัญหาแรงงานแบบเอารัดเอาเปรียบ ก็ถูกชี้ให้เห็นเช่นกัน โดยเฉพาะงานคัดกรองเนื้อหาค่าจ้างต่ำที่เป็นด้านหลังของความก้าวหน้า AI
  • สิ่งที่จะช่วยลดผลข้างเคียงของ AI และเป็นฐานของการกำกับดูแลทางสังคมได้ ไม่ใช่ความไว้วางใจแบบไร้เงื่อนไข แต่คือความเข้าใจที่ถูกต้องและมุมมองเชิงวิพากษ์ต่อ AI

การขาดหายไปของ ‘ความรู้เท่าทัน AI’ และความเสี่ยงของมัน

  • ภาพลวงตาของอุตสาหกรรม AI
    • ความกังวลเรื่อง ‘อาณาจักรแห่งเครื่องจักร’ ที่เริ่มจากคำวิจารณ์การปฏิวัติอุตสาหกรรมในศตวรรษที่ 19 ยังคงต่อเนื่องมาถึง AI ยุคปัจจุบัน
    • หนังสือเล่มใหม่อย่าง Empire of AI และ The AI Con เปิดโปงการพูดเกินจริงของอุตสาหกรรม AI และเบื้องหลังที่แท้จริงของมัน ทั้งแรงงาน ข้อมูล และเรื่องแต่งทางการตลาด
    • คำอธิบายที่ว่า AI ‘คิด’ หรือมี ‘อารมณ์’ เป็นมายาคติที่ผิดพลาดซึ่งถูกเผยแพร่โดยนักพัฒนาและผู้บริหาร

ข้อจำกัดและความเข้าใจผิดเกี่ยวกับ LLM

  • LLM (โมเดลภาษาขนาดใหญ่) ไม่ได้คิด และก็ไม่ได้เข้าใจ
    • มันเป็นตัวทำนายการเรียงคำแบบความน่าจะเป็น ที่เรียนรู้จากข้อความจำนวนมหาศาลบนอินเทอร์เน็ต แล้วเลียนแบบเพียงโครงสร้างของประโยค
    • ผู้ใช้มักหลงคิดได้ง่ายว่าแชตบอต ‘เข้าใจ’ หรือ ‘เห็นอกเห็นใจ’ อะไรบางอย่าง (Anthropomorphizing)
    • ความเข้าใจผิดเช่นนี้อาจเสี่ยงทำให้ผู้ใช้ตกอยู่ในความสัมพันธ์ที่ไม่ถูกต้องกับ AI (เชิงปัญญา จิตวิญญาณ โรแมนติก ฯลฯ)

ปัญหาทางสังคมที่เกิดจาก AI

  • ผลข้างเคียงจากการใช้ AI ผิดวิธี เช่น ‘อาการทางจิตที่ ChatGPT กระตุ้น’
    • มีกรณีจริงที่มอง AI เป็น ‘พระเจ้า’ หรือ ‘ผู้นำทางจิตวิญญาณ’
    • บางครั้ง AI เรียกผู้ใช้ราวกับเป็นบุคคลพิเศษ และส่งผลต่อการรับรู้ความเป็นจริงของพวกเขา
    • การเชื่อว่า LLM มี ‘ความคิด’ หรือ ‘อารมณ์’ เป็นความเข้าใจผิดที่อันตราย

การแทนที่ความสัมพันธ์ของมนุษย์และความโดดเดี่ยวทางสังคม

  • บริการที่ให้ AI มาแทนมนุษย์ เช่น เพื่อน AI หรือ AI นักบำบัด กำลังเพิ่มขึ้นอย่างรวดเร็ว
    • บริษัทในซิลิคอนแวลลีย์กำลังผลักดันแนวโน้มที่ให้ AI เข้ามาแทนความเหงา ความรัก และการให้คำปรึกษา (“AI concierge dating”, “AI friend” เป็นต้น)
    • ทั้งที่แก่นแท้ของมิตรภาพและความสัมพันธ์ที่แท้จริงไม่ใช่ ‘การปรับให้เฉพาะบุคคล’ แต่คือความเข้าใจร่วมกันและการต่อรองกลับถูกทำให้สับสนด้วยเทคโนโลยี
    • การแทนที่ความสัมพันธ์ระหว่างมนุษย์อาจยิ่งนำไปสู่ความแปลกแยกทางสังคมและความไม่มั่นคงทางจิตใจ

เบื้องหลังอุตสาหกรรม AI และการเอารัดเอาเปรียบแรงงาน

  • เบื้องหลังการพัฒนา AI คือแรงงานค่าจ้างต่ำระดับสุดขีดและแรงงานเงา
    • Big Tech อย่าง OpenAI ให้แรงงานค่าจ้างต่ำในประเทศอย่างเคนยาทำงานคัดกรองเนื้อหารุนแรงสุดโต่ง
    • หลังข้ออ้างเรื่องนวัตกรรมทางเทคโนโลยี ยังมีความเสี่ยงของการเอารัดเอาเปรียบแรงงานและการถดถอยทางสังคมควบคู่กันไป

ความเข้าใจ AI อย่างถูกต้องและการตอบสนองทางสังคม

  • ต้องตระหนักอย่างมีวิจารณญาณว่า AI ทำอะไรได้ และทำอะไรไม่ได้
    • จากการสำรวจของ Pew ผู้เชี่ยวชาญ AI 56% มองว่าสหรัฐฯ จะดีขึ้นด้วย AI แต่ในหมู่ประชาชนทั่วไปมีเพียง 17% ที่เห็นด้วย
    • มากกว่าการไว้วางใจ AI แบบไร้หลักฐาน เราจำเป็นต้องมีท่าทีที่แยกแยะอย่างชัดเจนถึงข้อจำกัด ผลข้างเคียงของเทคโนโลยี และขอบเขตของประสบการณ์มนุษย์ที่ไม่อาจทดแทนได้
    • ตัวอย่างเช่น หากตระหนักได้ว่าเหตุผลที่ AI แสดงพฤติกรรมบางอย่างไม่ได้มาจาก ‘ตัวตน’ จริง แต่เป็นผลของการอัปเดตซอฟต์แวร์หรือการตอบสนองเชิงความน่าจะเป็น ก็อาจลดความเสียหายได้

บทสรุป

  • อย่าหลงเชื่อการตลาดแบบ ‘ทำให้ AI ดูเป็นมนุษย์’ แต่จงมองหลักการทำงานที่แท้จริง ข้อจำกัด และต้นทุนทางสังคมของเทคโนโลยีอย่างมีวิจารณญาณ
  • สังคมจำเป็นต้องตระหนักว่า ความสัมพันธ์ ประสบการณ์ และการใคร่ครวญเชิงจริยธรรมอันเป็นเอกลักษณ์ของมนุษย์ ไม่สามารถถูกแทนที่ด้วยเทคโนโลยีได้

1 ความคิดเห็น

 
GN⁺ 2025-06-10
ความเห็นจาก Hacker News
  • ลิงก์ archive.is

  • อยากเปรียบ LLM ว่าเป็นเครื่องมือทำนายโชคชะตา เป็นออราเคิลแห่งยุคสมัยของเรา จริง ๆ แล้วแม้แต่แนวคิดเรื่อง “ปัญญาประดิษฐ์” เอง ก็ดูเหมือนจะมาจากสัญชาตญาณดั้งเดิมของมนุษย์ที่อยากเข้าถึงปัญญาอันเร้นลับ LLM มีครบทั้งความหมายที่กำกวม พื้นที่ของสัญลักษณ์ ภาพลวงของความรู้ที่ซ่อนอยู่ และอินเทอร์เฟซที่มีลักษณะเชิงพิธีกรรม เพียงแค่แทนที่จะเป็นดวงดาวกับดวงจันทร์บนฟ้ายามค่ำคืน ก็เปลี่ยนมาเป็น UX แบบดาร์กโหมดเท่านั้น อย่างที่ Barthes พูดไว้ การตีความเท่านั้นที่เป็นความหมาย ไม่ใช่ว่าคำมีแก่นแท้ในตัวเอง หากลืมจุดนี้ไป ก็จะเกิดการตีความเพี้ยน ๆ แบบ “แชตบอตเรียกเขาว่าพระเมสสิยาห์” ดูเหมือนใหม่ แต่โดยแก่นแท้แล้วไม่ใหม่เลย แต่ก่อนเราอ่านกระดูกกับไพ่ ตอนนี้เราอ่านโทเคนแทน เพราะมันอยู่ในรูปแบบของภาษา เราจึงปฏิบัติกับมันเหมือนกำลังรับมือกับข้ออ้างเชิงตรรกะ แต่แท้จริงแล้วมันก็ยังเป็นการพยากรณ์ที่แปลงสัญญาณเชิงความน่าจะเป็นอันซับซ้อนให้กลายเป็นหยั่งรู้ สิ่งที่เรากำลังทำอยู่ตอนนี้ก็ไม่ต่างจากการดูดวงรูปแบบใหม่ เพียงแต่เรายังไม่ทันตระหนัก นั่นจึงทำให้มันดูเหมือนมีบางอย่างลึกลับ และผมคิดว่ามันจะยิ่งประหลาดขึ้นเรื่อย ๆ พอถึงวันที่เราตั้งชื่อสิ่งที่เรากำลังทำได้อย่างตรงไปตรงมาจริง ๆ “ความลึกลับ” นั้นก็คงหายไป และความสนุกก็คงลดลงด้วย ซึ่งก็แอบน่าเสียดายนิดหน่อย

    • มีคนที่ต่อต้านการเปรียบเปรยว่าเป็นเครื่องมือทำนายแบบนี้ แต่คนในชุมชนเทคโนโลยีมักคิดว่าตัวเองเข้าใจหลักการของ LLM และเผลอคิดไปว่าคนรอบตัวก็คงเข้าใจเหมือนกันด้วย ทว่าพอลองคุยกับเพื่อนหรือญาติที่ไม่ใช่สายนี้ จะพบว่าหลายคนปฏิบัติต่อแชตบอตเหมือนออราเคิลจริง ๆ ด้วยซ้ำ พอบอกว่า LLM บางครั้งอาจ “หลอน” ขึ้นมาได้ หลายคนก็ตกใจมาก ผมคาดหวังว่าพอพวกเขารู้เรื่องนี้ ความสัมพันธ์ระหว่างคนเหล่านี้กับ LLM จะเปลี่ยนไป และในฐานะคนทำเทคโนโลยี เราควรพยายามคลายความเข้าใจผิดแบบนี้อย่างจริงจัง

    • อุปมานี้ฟังดูเท่ก็จริง แต่การใช้ LLM ของผมห่างไกลจากการดูดวงมาก เช่น ตอนผมถามชื่อเส้นใยเล็ก ๆ บนขนนก ChatGPT ก็บอกว่า “barbs” และพอผมลองตรวจใน Google เองก็พบว่าถูกต้อง มันใกล้เคียงกับการค้นหาข้อมูลมากกว่าการเสี่ยงทาย ผมเคยสงสัยเรื่อง g-code ของ galvo fiber laser แล้วมันก็บอกว่าจริง ๆ ไม่มีสิ่งนั้นอยู่ พร้อมแนะนำโซลูชันคอนโทรลแบบโอเพนซอร์สหลายตัวให้ด้วย ผมยังเคยถามเรื่องข้อกำหนดทางกฎหมายของเครื่องเงินในสหราชอาณาจักร และขอคำแปลภาษาอังกฤษของคำฮังการี "besurranó tolvaj" ด้วย หรือเวลาสร้าง SQLAlchemy model ไม่ไหว ก็ให้ ChatGPT ช่วยทำ สิ่งเหล่านี้ไม่ได้ใหญ่โตถึงขั้นจะเรียกว่า “ทุกอย่างคือการเสี่ยงทาย” มันก็แค่การรวบรวมข้อมูล หรือไม่ก็การทำโค้ดอัตโนมัติเท่านั้น

    • คำศัพท์เกี่ยวกับ AI ชวนสับสนเกินไป ผมเองก็ใช้ LLM ได้ดีและพอใจ แต่พออ่านบล็อกของนักพัฒนา ก็มักเห็นการใช้คำอย่าง “คิด” แบบพร่ำเพรื่อ จนอยากถามทุกครั้งว่า “มันยังแค่เอาคำมาจัดเรียงกันทางคณิตศาสตร์อยู่ใช่ไหม ยังไม่ใช่การ ‘คิด’ จริง ๆ ใช่ไหม” คำตอบก็ยังใช่อยู่เสมอ... แต่พอหันหลังกลับไปก็ยังเจอคำเปรียบเปรยแบบเดิมเต็มไปหมด

    • ทำให้นึกถึงคำทำนายของ Carl Sagan เขาเคยเตือนถึงภาพอนาคตของอเมริกาที่เศรษฐกิจบริการและข้อมูลครอบงำสังคม ความสามารถทางเทคโนโลยีถูกรวมศูนย์อยู่ในมือคนส่วนน้อย ขณะที่คนทั่วไปไม่เข้าใจแก่นของมันเลย และท้ายที่สุดสังคมก็ค่อย ๆ ไถลกลับไปสู่ยุคแห่งความงมงายและความมืดมน

    • เวลาพยายามหักล้างทฤษฎีสมคบคิดให้เพื่อนหรือคนในครอบครัวฟัง วันถัดมาก็มักได้รับวิดีโอที่มีเสียง AI พากย์เนื้อหาเดิมกลับมาให้ฟังอีก ส่วนใหญ่ไม่ใช่ข้อความที่มาจาก LLM จริง ๆ ด้วยซ้ำ แค่ใช้เสียง AI มาอ่านข้อความของผู้ผลิตเท่านั้น พอรวมเสียงแบบ ChatGPT หรือ Siri เข้ากับอคติยืนยันความเชื่อเดิม ก็เหมือนยิ่งผลักให้คนศรัทธา LLM แบบเป็นพระผู้ไถ่หรือออราเคิลมากขึ้น

  • ผมเห็นด้วยกับแก่นของ LLM แต่ก็ไม่คิดว่าผู้เขียนเข้าใจกลไกของ AI อย่างสมบูรณ์ LLM ไม่ได้เป็นแค่ตัวพยากรณ์เชิงความน่าจะเป็นจากข้อมูลอินเทอร์เน็ตมหาศาลเท่านั้น แต่ยังพึ่งพางานติดป้ายกำกับข้อมูลจำนวนมากอย่างมากด้วย ซึ่งส่วนใหญ่ทำในประเทศกำลังพัฒนาที่มีต้นทุนแรงงานต่ำ ความรู้สึกที่ว่ามันตอบสนองแบบมีอารมณ์หรือ “เป็นมนุษย์” ได้ดีนั้น เกิดจาก data labeler จำนวนมหาศาลเหล่านี้ที่ให้ฟีดแบ็กและช่วยจูนมัน โดยแก่นแท้แล้วมันไม่ใช่แค่โมเดลความน่าจะเป็น แต่สิ่งที่ผมกำลังคุยด้วยใกล้เคียงกับ data labeler ที่ไหนสักแห่งในเคนยา หรือการแปลงวิจารณญาณและความรู้สึกของพวกเขาผ่านทรานส์ฟอร์เมอร์มากกว่า การไล่เก็บข้อมูลจากอินเทอร์เน็ตอย่างเดียวไม่พอ นั่นได้แค่ระดับ GPT2 ส่วน GPT4.5 ในความเป็นจริงคือ “แรงงานต้นทุนต่ำ” ที่ถูกจัดเก็บไว้อย่างมีประสิทธิภาพ

    • นอกจาก OpenAI กับ Google แล้ว ผมคิดว่าคนนอกยากจะประเมินได้ว่าการ instruction tuning ส่งผลต่อประสิทธิภาพหรือความรู้สึกในการใช้ LLM มากแค่ไหน จากประสบการณ์ส่วนตัวของผม แม้แต่โมเดลบน GPT-3 ก่อนยุค instruction tuning ก็มีความสามารถหลักคล้ายกับตอนนี้อยู่แล้ว เพียงแต่มีอารมณ์มากกว่าและคาดเดายากกว่า การจูนทำให้ตอบในแบบที่มนุษย์ต้องการมากขึ้นและคาดเดาได้มากขึ้นก็จริง แต่ไม่ได้สร้างความสามารถใหม่ขึ้นมาแบบสิ้นเชิง

    • ถ้าจะพูดให้แม่นกว่านั้น แชตบอต LLM สมัยใหม่ตั้งอยู่บนกระบวนการ 2 ขั้นหลัก คือการพรีเทรนด้วยข้อมูลอินเทอร์เน็ตขนาดใหญ่ และการไฟน์จูนด้วยฟีดแบ็กจากมนุษย์จำนวนมาก สิ่งที่หลายคนเรียกว่า “มีความฉลาดทางอารมณ์” แท้จริงคือผลรวมของเวลาทำงานหลายพันชั่วโมงของ data labeler ในภูมิภาคอย่างแอฟริกา มันไม่ใช่แค่โมเดลที่สะท้อนข้อมูลที่ขูดมาจากอินเทอร์เน็ตเท่านั้น แต่ถูกขัดเกลาให้ตอบแบบเป็นมนุษย์และปลอดภัยขึ้นผ่านฟีดแบ็กหลากหลายรูปแบบ

    • ผมยังไม่เคยเห็นบทความไหนที่พูดลึกจริง ๆ ว่าเบื้องหลังโมเดลขนาดใหญ่มีแรงงานค่าแรงต่ำจำนวนมากขนาดไหน ต่อให้บอกว่าทั่วโลกมีคนเข้ามาเกี่ยวข้องระดับหลายล้านคน ก็คงไม่เกินจริงนัก

    • ผู้เขียนแบบนี้มักโน้มน้าวได้ไม่มาก เพราะหลายครั้งไม่ได้อธิบายกลไกของ “การคิด” ของมนุษย์ให้เพียงพอ แล้วก็สรุปง่าย ๆ ว่า “นั่นต่างจากมนุษย์” ทั้งที่ความจริงเราก็ยังไม่เข้าใจมันทั้งหมดเหมือนกัน

    • เวลามีคนบอกว่า LLM “ไม่ได้คิด แต่แค่ทำนายคำถัดไปตามความน่าจะเป็น” ผมก็อยากถามกลับว่า แล้ว “การคิด” คืออะไรกันแน่ LLM แก้คณิตศาสตร์ก็ได้ เล่นหมากรุกก็ได้ โดยไม่ต้องฝึกแบบเกมลับสมอง แบบนี้ยังไม่เรียกว่าคิดอีกหรือ บางทีสมองของเราก็อาจกำลังส่งเอาต์พุตในลักษณะคล้ายกัน โดยอาศัยข้อมูลจากประสาทสัมผัสและ “บริบท” ที่เก็บอยู่ในโครงข่ายประสาทก็ได้

  • พอเห็นผู้ก่อตั้ง Bumble พูดว่าจะทำ AI dating concierge เพื่อทำให้การเดตเป็นอัตโนมัติทั้งหมด ก็ได้แต่คิดว่าไม่รู้จะพูดอะไรดีจริง ๆ

    • ยังมีความจริงที่ว่าหุ้น Bumble (BMBL) ร่วงไปแล้ว 92% ด้วย กราฟ Yahoo Finance. ไอเดียธุรกิจ AI แบบครึ่ง ๆ กลาง ๆ จำนวนมากก็ไม่ต่างจากการเอาความฝันที่นักลงทุนอยากเห็นมาห่อด้วยคำว่า “AI” เป็นการพูดเกินจริงเพื่อดึงดูดนักลงทุน และเรื่องการปรับปรุงผลงานเชิงพื้นฐานกลับแทบไม่ได้รับความสนใจ

    • วงการแอปหาคู่ทำให้ผมตั้งคำถามมาสิบปีแล้วว่านี่เรากำลังทำอะไรกันอยู่ มันค่อนข้างเป็นดิสโทเปียอยู่แล้ว และการเอา LLM เข้ามาอีกก็ยิ่งให้ความรู้สึกเหมือนระบบประเมินคนที่หนักข้อขึ้นไปอีก

    • ผมมองว่าผู้ก่อตั้ง Bumble เคยรวย และตอนนี้ต้องทำทุกวิถีทางเพื่อกลับไปรวยแบบนั้นอีกครั้ง ที่จริงแล้วต้นเหตุก็คือความโลภ การที่ Match ถือ Bumble อยู่ก็แค่เพราะปัญหาการผูกขาด ไอเดียนี้เองก็ไม่ได้ wild ขนาดนั้น ใน Black Mirror ก็มีตอนที่คล้ายกันอยู่

    • ถ้ามองจากฝั่งพวกเขา หากโมเดลนี้ใช้ได้ผลจริง ต่อให้ดูงี่เง่าก็ถือว่าเป็นความพยายามที่น่าทำอยู่ดี

  • ผมคิดว่าคนเขียนยังไม่เข้าใจ LLM อย่างครบถ้วน การลดทอน LLM ว่าเป็นแค่โมเดลความน่าจะเป็นนั้นไม่เหมาะสม กลศาสตร์ควอนตัมเองก็เป็นโมเดลความน่าจะเป็นขนาดใหญ่ แต่แต่ละเลเยอร์ของ LLM ถูกออกแบบให้มองบริบทได้กว้างและสะท้อนทั้งความหมายกับสถานการณ์ด้วย (k-v cache มีบทบาทสำคัญตรงนี้) โครงสร้างแบบนี้ผมคิดว่าคล้ายกับกลไกพื้นฐานของความคิดมนุษย์ในเชิงการรับรู้พอสมควร แน่นอนว่ามันยังไปไม่ถึงความคิดอันกว้างขวางระดับมนุษย์ และยังอ่อนในหัวข้อยาก ๆ แต่โครงสร้างพื้นฐานนั้นมีอยู่แล้ว การบอกว่า LLM ไม่ได้ฉลาดเลยเป็นการประเมินแบบเรียกกระแสที่เน้นย้ำเฉพาะบางกรณี ความจริงที่คนใช้งานมันอย่างคึกคักก็เพราะพวกเขาสัมผัสได้ถึง “ความฉลาด” ในระดับหนึ่ง

    • แม้แต่ผู้สร้าง LLM เองก็คงยากจะบอกว่าเข้าใจกลไกทั้งหมดของโมเดลที่ตัวเองสร้างไว้อย่างถ่องแท้

    • ต่อข้ออ้างที่ว่า “โครงสร้างของ LLM เป็นการพรรณนาความคิดมนุษย์ในเชิงนามธรรม” ผมอยากโต้ว่า ตรรกะนี้คล้ายกับการบอกว่า ALU ที่บวกเลขนั้นมีความคล้ายเชิงนามธรรมกับวิธีที่ผมบวกเลขในหัว ความจริงสำคัญคือ ALU กับความคิดของมนุษย์ต่างกันมหาศาล เวลาเอา LLM ไปเทียบกับความคิดของมนุษย์ เราต้องไม่มองข้ามความแตกต่างอันละเอียดอ่อนที่มีความสำคัญอย่างยิ่งนั้น

  • ผมมองว่านี่เป็นบทความที่สรุปได้ชัดเจนมากว่าเหตุใดการเลือกใช้คำอย่างแม่นยำจึงสำคัญ แม้คนทั่วไปจะไม่รู้หลักการทางเทคนิคของ LLM แต่การเข้าใจว่าเครื่องมือเหล่านี้ทำอะไรจริง ๆ เป็นเรื่องสำคัญมาก คำโฆษณาเกินจริงอย่าง “AI ให้เหตุผลได้” อาจช่วยดันราคาหุ้นและมูลค่าบริษัท แต่ก็ทำให้การใช้งานปลอดภัยน้อยลงไปด้วย ผมเชื่อว่าการเรียกมันอย่างตรงความจริงกว่า เช่น “ระบบรู้จำรูปแบบและสร้างข้อมูล” จะช่วยให้สาธารณชนเข้าใจได้ถูกต้องมากกว่า การถกเถียงที่เกี่ยวข้อง

    • มีคนจำนวนมากจ่ายเงินหลายร้อยดอลลาร์ต่อเดือนเพื่อใช้แชตบอต ระดับการยอมจ่ายแบบนี้ไม่ใช่แค่กระแสชั่วคราว แต่น่าจะเป็นหลักฐานว่ากำลังมีบางอย่างเกิดขึ้นจริง
  • ทำให้นึกถึงคำพูดของ Feynman ที่ว่า “ต่อให้คอมพิวเตอร์ทำได้ดีกว่ามนุษย์ แต่ถ้าไม่ได้ทำด้วยวิธีเดียวกับมนุษย์ มันก็ไม่น่าทึ่ง” ผมคิดว่าแม้ AI จะเหนือกว่าผู้เชี่ยวชาญในทุกสาขา มนุษย์ก็ยังจะยืนกรานในความเหนือกว่าของตัวเองต่อไปตราบใดที่ซิลิคอนยังไม่ได้ “คิด”

  • Hassabis พูดถึงเป้าหมายในการสร้าง “โมเดลที่เข้าใจโลก” แต่ดูเหมือนนักวิจารณ์จำนวนมากจะทำผิดพลาดด้วยการใช้ข้อจำกัดของ LLM มาเหมารวมว่าคำพูดนี้ไร้ความหมาย AI แบบมัลติโหมดอย่าง Astra ของ DeepMind อาศัยข้อมูลนำเข้ามากกว่าข้อความ เช่น ภาพ และบางครั้งก็ให้ผลลัพธ์ที่ดูเหมือน “เข้าใจ” ได้จริง วิดีโอตัวอย่าง Astra

    • คำว่า “ดูเหมือนเข้าใจ” นี่แหละคือประเด็นสำคัญ ถ้าเอาภาพประหลาดที่มนุษย์ไม่เคยเห็นมาก่อนให้คนดู มนุษย์ยังพอครุ่นคิดและอนุมานได้ว่ามันคืออะไร แต่ถ้าโมเดลไม่เคยมีสิ่งคล้ายกันในชุดข้อมูล มันก็จะปล่อยเอาต์พุตไร้ความหมายออกมาโดยไม่ได้ “คิด” อะไรจริง ๆ LLM ก็เช่นกัน มันรับอินพุตแล้วให้ผลลัพธ์ที่ผ่านการกรองรูปแบบหนึ่งออกมา แต่โดยรากฐานแล้วมันไม่มีความคิด ต่อให้คุณภาพของผลลัพธ์จะสูงขึ้นแค่ไหน มันก็ยังเป็นอีกเรื่องหนึ่งจาก “ความเข้าใจ”
  • เรายังไม่เข้าใจอย่างสมบูรณ์ว่า LLM เรียนรู้ความหมายของภาษาอย่างไร แต่ผมรู้สึกได้ชัดว่าในทางปฏิบัติ LLM เข้าใจข้อความและแนวคิดได้ในระดับหนึ่ง และไม่ได้พูดเหลวไหลทั้งหมด เรื่องนี้อธิบายให้คนที่ไม่ใช่สายเทคนิคฟังได้ยากมาก คนทั่วไปพอเข้าเว็บไซต์ AI จริง ๆ แล้วเห็นชื่อว่า “AI chatbot” กับคำตอบที่ดูเป็นมนุษย์ ก็ทึ่งกันแล้ว ไม่ว่าจะเป็นการบ้านหรืองาน มันช่วยให้เสร็จอย่างมีประสิทธิภาพจนน่าพอใจมาก การอธิบายว่าอะไรคือ AI จริงหรือไม่จริงจึงไม่ง่าย แม้แต่ผมเองก็อธิบายความต่างที่แท้จริงระหว่าง LLM กับ AI ได้ไม่ชัด ในเชิงเทคนิคมันต่างกันอย่างละเอียดอ่อน แต่ผู้ใช้จริงแทบไม่รู้สึกถึงความต่างนั้น สุดท้ายแล้ว LLM ก็ดูเหมือนจะเทศนาแบบผู้นำศาสนาได้อย่างยอดเยี่ยม และถ้าฝึกดีพอ บางทีอาจสวมบทเป็น “พระเมสสิยาห์” ได้จริงก็ได้

  • มีใครยังเจออาการที่ LLM ติดอยู่ในลูปซ้ำไปซ้ำมาระหว่างความรู้กับความเข้าใจอยู่ไหม จากประสบการณ์ของผม แม้จะชี้ข้อผิดพลาดและขอให้อธิบายใหม่ มันก็มักวนกลับไปตอบหลอนแบบเดิม นี่แปลว่ามันขาดความเข้าใจตัวเองหรือการสะท้อนคิดถึงตัวเอง หากไม่มีมิตินี้ ผมคิดว่ายังเร็วเกินไปที่จะเรียกมันว่า “ความเข้าใจ” หรือ “สติปัญญา” จริง ๆ การยอมรับข้อจำกัดอย่างตรงไปตรงมาว่า “ไม่รู้” น่าจะเป็นเงื่อนไขขั้นต่ำของการมีความรู้สึกถึง “ตัวตน” ในระดับหนึ่ง มันให้ความรู้สึกคล้าย mirror test ของจิตใจเลยทีเดียว

    • อย่างที่ผู้เขียนว่าไว้ การรับเอา LLM ว่าเป็นการ “คิด” หรือ “เรียนรู้” นั้นเป็นความเข้าใจผิด มันก็เป็นเพียงตัวสร้างข้อความเท่านั้น เช่น ถ้ามันสร้างโค้ดที่เรียก API ที่ไม่มีอยู่จริง ต่อให้อธิบายให้มันฟังมากแค่ไหน มันก็ไม่ได้เข้าใจมันจริง ๆ วิธีที่ได้ผลกว่าคือป้อนเอกสารที่เกี่ยวข้องให้ แล้วชี้นำให้มันสร้างตามที่ต้องการ

    • ความต่างนั้นก็คือความต่างระหว่างอคติกับตรรกะ โมเดลความน่าจะเป็นสุดท้ายแล้วก็เป็นการใช้อคติรูปแบบหนึ่ง ส่วนเครื่องคิดเลขคือ “การคำนวณตามตรรกะ” ถ้าเข้าใจมุมนี้ ก็จะแยกข้อจำกัดกับจุดแข็งของโมเดลได้ง่ายขึ้น ทั้งสองกรณีต่างก็ขาด “ภาวะวัตถุวิสัย” ไปเหมือนกัน มันประมวลผลได้แค่ตัวข้อมูลเอง แต่ไม่สามารถคิดไปไกลกว่า “เหนือข้อมูล” ได้