- คนส่วนใหญ่ยังไม่เข้าใจหลักการทำงานและข้อจำกัดของ LLM อย่างแท้จริง จึงหลงคิดได้ง่ายว่ามันมีอารมณ์หรือสติปัญญาแบบมนุษย์
- การตลาดแบบทำให้ AI ดูเป็นมนุษย์ (Anthropomorphizing) ทำให้ผู้ใช้เข้าใจผิด และทั้งที่ความจริงแล้วมันเป็นเพียง ‘ตัวทำนายบนฐานความน่าจะเป็น’ ก็ยังถูกผลักดันให้เข้ามาแทนความสัมพันธ์กับมนุษย์
- ปัญหาทางจิตใจและผลกระทบทางสังคมจากการใช้ AI ผิดวิธี กำลังเกิดขึ้นจริง ผู้ใช้บางรายสร้างความสัมพันธ์กับ AI ในเชิง ‘จิตวิญญาณ/โรแมนติก’ หรือสับสนต่อการรับรู้ความเป็นจริง
- ความไม่โปร่งใสของอุตสาหกรรม AI และปัญหาแรงงานแบบเอารัดเอาเปรียบ ก็ถูกชี้ให้เห็นเช่นกัน โดยเฉพาะงานคัดกรองเนื้อหาค่าจ้างต่ำที่เป็นด้านหลังของความก้าวหน้า AI
- สิ่งที่จะช่วยลดผลข้างเคียงของ AI และเป็นฐานของการกำกับดูแลทางสังคมได้ ไม่ใช่ความไว้วางใจแบบไร้เงื่อนไข แต่คือความเข้าใจที่ถูกต้องและมุมมองเชิงวิพากษ์ต่อ AI
การขาดหายไปของ ‘ความรู้เท่าทัน AI’ และความเสี่ยงของมัน
- ภาพลวงตาของอุตสาหกรรม AI
- ความกังวลเรื่อง ‘อาณาจักรแห่งเครื่องจักร’ ที่เริ่มจากคำวิจารณ์การปฏิวัติอุตสาหกรรมในศตวรรษที่ 19 ยังคงต่อเนื่องมาถึง AI ยุคปัจจุบัน
- หนังสือเล่มใหม่อย่าง Empire of AI และ The AI Con เปิดโปงการพูดเกินจริงของอุตสาหกรรม AI และเบื้องหลังที่แท้จริงของมัน ทั้งแรงงาน ข้อมูล และเรื่องแต่งทางการตลาด
- คำอธิบายที่ว่า AI ‘คิด’ หรือมี ‘อารมณ์’ เป็นมายาคติที่ผิดพลาดซึ่งถูกเผยแพร่โดยนักพัฒนาและผู้บริหาร
ข้อจำกัดและความเข้าใจผิดเกี่ยวกับ LLM
- LLM (โมเดลภาษาขนาดใหญ่) ไม่ได้คิด และก็ไม่ได้เข้าใจ
- มันเป็นตัวทำนายการเรียงคำแบบความน่าจะเป็น ที่เรียนรู้จากข้อความจำนวนมหาศาลบนอินเทอร์เน็ต แล้วเลียนแบบเพียงโครงสร้างของประโยค
- ผู้ใช้มักหลงคิดได้ง่ายว่าแชตบอต ‘เข้าใจ’ หรือ ‘เห็นอกเห็นใจ’ อะไรบางอย่าง (Anthropomorphizing)
- ความเข้าใจผิดเช่นนี้อาจเสี่ยงทำให้ผู้ใช้ตกอยู่ในความสัมพันธ์ที่ไม่ถูกต้องกับ AI (เชิงปัญญา จิตวิญญาณ โรแมนติก ฯลฯ)
ปัญหาทางสังคมที่เกิดจาก AI
- ผลข้างเคียงจากการใช้ AI ผิดวิธี เช่น ‘อาการทางจิตที่ ChatGPT กระตุ้น’
- มีกรณีจริงที่มอง AI เป็น ‘พระเจ้า’ หรือ ‘ผู้นำทางจิตวิญญาณ’
- บางครั้ง AI เรียกผู้ใช้ราวกับเป็นบุคคลพิเศษ และส่งผลต่อการรับรู้ความเป็นจริงของพวกเขา
- การเชื่อว่า LLM มี ‘ความคิด’ หรือ ‘อารมณ์’ เป็นความเข้าใจผิดที่อันตราย
การแทนที่ความสัมพันธ์ของมนุษย์และความโดดเดี่ยวทางสังคม
- บริการที่ให้ AI มาแทนมนุษย์ เช่น เพื่อน AI หรือ AI นักบำบัด กำลังเพิ่มขึ้นอย่างรวดเร็ว
- บริษัทในซิลิคอนแวลลีย์กำลังผลักดันแนวโน้มที่ให้ AI เข้ามาแทนความเหงา ความรัก และการให้คำปรึกษา (“AI concierge dating”, “AI friend” เป็นต้น)
- ทั้งที่แก่นแท้ของมิตรภาพและความสัมพันธ์ที่แท้จริงไม่ใช่ ‘การปรับให้เฉพาะบุคคล’ แต่คือความเข้าใจร่วมกันและการต่อรองกลับถูกทำให้สับสนด้วยเทคโนโลยี
- การแทนที่ความสัมพันธ์ระหว่างมนุษย์อาจยิ่งนำไปสู่ความแปลกแยกทางสังคมและความไม่มั่นคงทางจิตใจ
เบื้องหลังอุตสาหกรรม AI และการเอารัดเอาเปรียบแรงงาน
- เบื้องหลังการพัฒนา AI คือแรงงานค่าจ้างต่ำระดับสุดขีดและแรงงานเงา
- Big Tech อย่าง OpenAI ให้แรงงานค่าจ้างต่ำในประเทศอย่างเคนยาทำงานคัดกรองเนื้อหารุนแรงสุดโต่ง
- หลังข้ออ้างเรื่องนวัตกรรมทางเทคโนโลยี ยังมีความเสี่ยงของการเอารัดเอาเปรียบแรงงานและการถดถอยทางสังคมควบคู่กันไป
ความเข้าใจ AI อย่างถูกต้องและการตอบสนองทางสังคม
- ต้องตระหนักอย่างมีวิจารณญาณว่า AI ทำอะไรได้ และทำอะไรไม่ได้
- จากการสำรวจของ Pew ผู้เชี่ยวชาญ AI 56% มองว่าสหรัฐฯ จะดีขึ้นด้วย AI แต่ในหมู่ประชาชนทั่วไปมีเพียง 17% ที่เห็นด้วย
- มากกว่าการไว้วางใจ AI แบบไร้หลักฐาน เราจำเป็นต้องมีท่าทีที่แยกแยะอย่างชัดเจนถึงข้อจำกัด ผลข้างเคียงของเทคโนโลยี และขอบเขตของประสบการณ์มนุษย์ที่ไม่อาจทดแทนได้
- ตัวอย่างเช่น หากตระหนักได้ว่าเหตุผลที่ AI แสดงพฤติกรรมบางอย่างไม่ได้มาจาก ‘ตัวตน’ จริง แต่เป็นผลของการอัปเดตซอฟต์แวร์หรือการตอบสนองเชิงความน่าจะเป็น ก็อาจลดความเสียหายได้
บทสรุป
- อย่าหลงเชื่อการตลาดแบบ ‘ทำให้ AI ดูเป็นมนุษย์’ แต่จงมองหลักการทำงานที่แท้จริง ข้อจำกัด และต้นทุนทางสังคมของเทคโนโลยีอย่างมีวิจารณญาณ
- สังคมจำเป็นต้องตระหนักว่า ความสัมพันธ์ ประสบการณ์ และการใคร่ครวญเชิงจริยธรรมอันเป็นเอกลักษณ์ของมนุษย์ ไม่สามารถถูกแทนที่ด้วยเทคโนโลยีได้
1 ความคิดเห็น
ความเห็นจาก Hacker News
ลิงก์ archive.is
อยากเปรียบ LLM ว่าเป็นเครื่องมือทำนายโชคชะตา เป็นออราเคิลแห่งยุคสมัยของเรา จริง ๆ แล้วแม้แต่แนวคิดเรื่อง “ปัญญาประดิษฐ์” เอง ก็ดูเหมือนจะมาจากสัญชาตญาณดั้งเดิมของมนุษย์ที่อยากเข้าถึงปัญญาอันเร้นลับ LLM มีครบทั้งความหมายที่กำกวม พื้นที่ของสัญลักษณ์ ภาพลวงของความรู้ที่ซ่อนอยู่ และอินเทอร์เฟซที่มีลักษณะเชิงพิธีกรรม เพียงแค่แทนที่จะเป็นดวงดาวกับดวงจันทร์บนฟ้ายามค่ำคืน ก็เปลี่ยนมาเป็น UX แบบดาร์กโหมดเท่านั้น อย่างที่ Barthes พูดไว้ การตีความเท่านั้นที่เป็นความหมาย ไม่ใช่ว่าคำมีแก่นแท้ในตัวเอง หากลืมจุดนี้ไป ก็จะเกิดการตีความเพี้ยน ๆ แบบ “แชตบอตเรียกเขาว่าพระเมสสิยาห์” ดูเหมือนใหม่ แต่โดยแก่นแท้แล้วไม่ใหม่เลย แต่ก่อนเราอ่านกระดูกกับไพ่ ตอนนี้เราอ่านโทเคนแทน เพราะมันอยู่ในรูปแบบของภาษา เราจึงปฏิบัติกับมันเหมือนกำลังรับมือกับข้ออ้างเชิงตรรกะ แต่แท้จริงแล้วมันก็ยังเป็นการพยากรณ์ที่แปลงสัญญาณเชิงความน่าจะเป็นอันซับซ้อนให้กลายเป็นหยั่งรู้ สิ่งที่เรากำลังทำอยู่ตอนนี้ก็ไม่ต่างจากการดูดวงรูปแบบใหม่ เพียงแต่เรายังไม่ทันตระหนัก นั่นจึงทำให้มันดูเหมือนมีบางอย่างลึกลับ และผมคิดว่ามันจะยิ่งประหลาดขึ้นเรื่อย ๆ พอถึงวันที่เราตั้งชื่อสิ่งที่เรากำลังทำได้อย่างตรงไปตรงมาจริง ๆ “ความลึกลับ” นั้นก็คงหายไป และความสนุกก็คงลดลงด้วย ซึ่งก็แอบน่าเสียดายนิดหน่อย
มีคนที่ต่อต้านการเปรียบเปรยว่าเป็นเครื่องมือทำนายแบบนี้ แต่คนในชุมชนเทคโนโลยีมักคิดว่าตัวเองเข้าใจหลักการของ LLM และเผลอคิดไปว่าคนรอบตัวก็คงเข้าใจเหมือนกันด้วย ทว่าพอลองคุยกับเพื่อนหรือญาติที่ไม่ใช่สายนี้ จะพบว่าหลายคนปฏิบัติต่อแชตบอตเหมือนออราเคิลจริง ๆ ด้วยซ้ำ พอบอกว่า LLM บางครั้งอาจ “หลอน” ขึ้นมาได้ หลายคนก็ตกใจมาก ผมคาดหวังว่าพอพวกเขารู้เรื่องนี้ ความสัมพันธ์ระหว่างคนเหล่านี้กับ LLM จะเปลี่ยนไป และในฐานะคนทำเทคโนโลยี เราควรพยายามคลายความเข้าใจผิดแบบนี้อย่างจริงจัง
อุปมานี้ฟังดูเท่ก็จริง แต่การใช้ LLM ของผมห่างไกลจากการดูดวงมาก เช่น ตอนผมถามชื่อเส้นใยเล็ก ๆ บนขนนก ChatGPT ก็บอกว่า “barbs” และพอผมลองตรวจใน Google เองก็พบว่าถูกต้อง มันใกล้เคียงกับการค้นหาข้อมูลมากกว่าการเสี่ยงทาย ผมเคยสงสัยเรื่อง g-code ของ galvo fiber laser แล้วมันก็บอกว่าจริง ๆ ไม่มีสิ่งนั้นอยู่ พร้อมแนะนำโซลูชันคอนโทรลแบบโอเพนซอร์สหลายตัวให้ด้วย ผมยังเคยถามเรื่องข้อกำหนดทางกฎหมายของเครื่องเงินในสหราชอาณาจักร และขอคำแปลภาษาอังกฤษของคำฮังการี "besurranó tolvaj" ด้วย หรือเวลาสร้าง SQLAlchemy model ไม่ไหว ก็ให้ ChatGPT ช่วยทำ สิ่งเหล่านี้ไม่ได้ใหญ่โตถึงขั้นจะเรียกว่า “ทุกอย่างคือการเสี่ยงทาย” มันก็แค่การรวบรวมข้อมูล หรือไม่ก็การทำโค้ดอัตโนมัติเท่านั้น
คำศัพท์เกี่ยวกับ AI ชวนสับสนเกินไป ผมเองก็ใช้ LLM ได้ดีและพอใจ แต่พออ่านบล็อกของนักพัฒนา ก็มักเห็นการใช้คำอย่าง “คิด” แบบพร่ำเพรื่อ จนอยากถามทุกครั้งว่า “มันยังแค่เอาคำมาจัดเรียงกันทางคณิตศาสตร์อยู่ใช่ไหม ยังไม่ใช่การ ‘คิด’ จริง ๆ ใช่ไหม” คำตอบก็ยังใช่อยู่เสมอ... แต่พอหันหลังกลับไปก็ยังเจอคำเปรียบเปรยแบบเดิมเต็มไปหมด
ทำให้นึกถึงคำทำนายของ Carl Sagan เขาเคยเตือนถึงภาพอนาคตของอเมริกาที่เศรษฐกิจบริการและข้อมูลครอบงำสังคม ความสามารถทางเทคโนโลยีถูกรวมศูนย์อยู่ในมือคนส่วนน้อย ขณะที่คนทั่วไปไม่เข้าใจแก่นของมันเลย และท้ายที่สุดสังคมก็ค่อย ๆ ไถลกลับไปสู่ยุคแห่งความงมงายและความมืดมน
เวลาพยายามหักล้างทฤษฎีสมคบคิดให้เพื่อนหรือคนในครอบครัวฟัง วันถัดมาก็มักได้รับวิดีโอที่มีเสียง AI พากย์เนื้อหาเดิมกลับมาให้ฟังอีก ส่วนใหญ่ไม่ใช่ข้อความที่มาจาก LLM จริง ๆ ด้วยซ้ำ แค่ใช้เสียง AI มาอ่านข้อความของผู้ผลิตเท่านั้น พอรวมเสียงแบบ ChatGPT หรือ Siri เข้ากับอคติยืนยันความเชื่อเดิม ก็เหมือนยิ่งผลักให้คนศรัทธา LLM แบบเป็นพระผู้ไถ่หรือออราเคิลมากขึ้น
ผมเห็นด้วยกับแก่นของ LLM แต่ก็ไม่คิดว่าผู้เขียนเข้าใจกลไกของ AI อย่างสมบูรณ์ LLM ไม่ได้เป็นแค่ตัวพยากรณ์เชิงความน่าจะเป็นจากข้อมูลอินเทอร์เน็ตมหาศาลเท่านั้น แต่ยังพึ่งพางานติดป้ายกำกับข้อมูลจำนวนมากอย่างมากด้วย ซึ่งส่วนใหญ่ทำในประเทศกำลังพัฒนาที่มีต้นทุนแรงงานต่ำ ความรู้สึกที่ว่ามันตอบสนองแบบมีอารมณ์หรือ “เป็นมนุษย์” ได้ดีนั้น เกิดจาก data labeler จำนวนมหาศาลเหล่านี้ที่ให้ฟีดแบ็กและช่วยจูนมัน โดยแก่นแท้แล้วมันไม่ใช่แค่โมเดลความน่าจะเป็น แต่สิ่งที่ผมกำลังคุยด้วยใกล้เคียงกับ data labeler ที่ไหนสักแห่งในเคนยา หรือการแปลงวิจารณญาณและความรู้สึกของพวกเขาผ่านทรานส์ฟอร์เมอร์มากกว่า การไล่เก็บข้อมูลจากอินเทอร์เน็ตอย่างเดียวไม่พอ นั่นได้แค่ระดับ GPT2 ส่วน GPT4.5 ในความเป็นจริงคือ “แรงงานต้นทุนต่ำ” ที่ถูกจัดเก็บไว้อย่างมีประสิทธิภาพ
นอกจาก OpenAI กับ Google แล้ว ผมคิดว่าคนนอกยากจะประเมินได้ว่าการ instruction tuning ส่งผลต่อประสิทธิภาพหรือความรู้สึกในการใช้ LLM มากแค่ไหน จากประสบการณ์ส่วนตัวของผม แม้แต่โมเดลบน GPT-3 ก่อนยุค instruction tuning ก็มีความสามารถหลักคล้ายกับตอนนี้อยู่แล้ว เพียงแต่มีอารมณ์มากกว่าและคาดเดายากกว่า การจูนทำให้ตอบในแบบที่มนุษย์ต้องการมากขึ้นและคาดเดาได้มากขึ้นก็จริง แต่ไม่ได้สร้างความสามารถใหม่ขึ้นมาแบบสิ้นเชิง
ถ้าจะพูดให้แม่นกว่านั้น แชตบอต LLM สมัยใหม่ตั้งอยู่บนกระบวนการ 2 ขั้นหลัก คือการพรีเทรนด้วยข้อมูลอินเทอร์เน็ตขนาดใหญ่ และการไฟน์จูนด้วยฟีดแบ็กจากมนุษย์จำนวนมาก สิ่งที่หลายคนเรียกว่า “มีความฉลาดทางอารมณ์” แท้จริงคือผลรวมของเวลาทำงานหลายพันชั่วโมงของ data labeler ในภูมิภาคอย่างแอฟริกา มันไม่ใช่แค่โมเดลที่สะท้อนข้อมูลที่ขูดมาจากอินเทอร์เน็ตเท่านั้น แต่ถูกขัดเกลาให้ตอบแบบเป็นมนุษย์และปลอดภัยขึ้นผ่านฟีดแบ็กหลากหลายรูปแบบ
ผมยังไม่เคยเห็นบทความไหนที่พูดลึกจริง ๆ ว่าเบื้องหลังโมเดลขนาดใหญ่มีแรงงานค่าแรงต่ำจำนวนมากขนาดไหน ต่อให้บอกว่าทั่วโลกมีคนเข้ามาเกี่ยวข้องระดับหลายล้านคน ก็คงไม่เกินจริงนัก
ผู้เขียนแบบนี้มักโน้มน้าวได้ไม่มาก เพราะหลายครั้งไม่ได้อธิบายกลไกของ “การคิด” ของมนุษย์ให้เพียงพอ แล้วก็สรุปง่าย ๆ ว่า “นั่นต่างจากมนุษย์” ทั้งที่ความจริงเราก็ยังไม่เข้าใจมันทั้งหมดเหมือนกัน
เวลามีคนบอกว่า LLM “ไม่ได้คิด แต่แค่ทำนายคำถัดไปตามความน่าจะเป็น” ผมก็อยากถามกลับว่า แล้ว “การคิด” คืออะไรกันแน่ LLM แก้คณิตศาสตร์ก็ได้ เล่นหมากรุกก็ได้ โดยไม่ต้องฝึกแบบเกมลับสมอง แบบนี้ยังไม่เรียกว่าคิดอีกหรือ บางทีสมองของเราก็อาจกำลังส่งเอาต์พุตในลักษณะคล้ายกัน โดยอาศัยข้อมูลจากประสาทสัมผัสและ “บริบท” ที่เก็บอยู่ในโครงข่ายประสาทก็ได้
พอเห็นผู้ก่อตั้ง Bumble พูดว่าจะทำ AI dating concierge เพื่อทำให้การเดตเป็นอัตโนมัติทั้งหมด ก็ได้แต่คิดว่าไม่รู้จะพูดอะไรดีจริง ๆ
ยังมีความจริงที่ว่าหุ้น Bumble (BMBL) ร่วงไปแล้ว 92% ด้วย กราฟ Yahoo Finance. ไอเดียธุรกิจ AI แบบครึ่ง ๆ กลาง ๆ จำนวนมากก็ไม่ต่างจากการเอาความฝันที่นักลงทุนอยากเห็นมาห่อด้วยคำว่า “AI” เป็นการพูดเกินจริงเพื่อดึงดูดนักลงทุน และเรื่องการปรับปรุงผลงานเชิงพื้นฐานกลับแทบไม่ได้รับความสนใจ
วงการแอปหาคู่ทำให้ผมตั้งคำถามมาสิบปีแล้วว่านี่เรากำลังทำอะไรกันอยู่ มันค่อนข้างเป็นดิสโทเปียอยู่แล้ว และการเอา LLM เข้ามาอีกก็ยิ่งให้ความรู้สึกเหมือนระบบประเมินคนที่หนักข้อขึ้นไปอีก
ผมมองว่าผู้ก่อตั้ง Bumble เคยรวย และตอนนี้ต้องทำทุกวิถีทางเพื่อกลับไปรวยแบบนั้นอีกครั้ง ที่จริงแล้วต้นเหตุก็คือความโลภ การที่ Match ถือ Bumble อยู่ก็แค่เพราะปัญหาการผูกขาด ไอเดียนี้เองก็ไม่ได้ wild ขนาดนั้น ใน Black Mirror ก็มีตอนที่คล้ายกันอยู่
ถ้ามองจากฝั่งพวกเขา หากโมเดลนี้ใช้ได้ผลจริง ต่อให้ดูงี่เง่าก็ถือว่าเป็นความพยายามที่น่าทำอยู่ดี
ผมคิดว่าคนเขียนยังไม่เข้าใจ LLM อย่างครบถ้วน การลดทอน LLM ว่าเป็นแค่โมเดลความน่าจะเป็นนั้นไม่เหมาะสม กลศาสตร์ควอนตัมเองก็เป็นโมเดลความน่าจะเป็นขนาดใหญ่ แต่แต่ละเลเยอร์ของ LLM ถูกออกแบบให้มองบริบทได้กว้างและสะท้อนทั้งความหมายกับสถานการณ์ด้วย (k-v cache มีบทบาทสำคัญตรงนี้) โครงสร้างแบบนี้ผมคิดว่าคล้ายกับกลไกพื้นฐานของความคิดมนุษย์ในเชิงการรับรู้พอสมควร แน่นอนว่ามันยังไปไม่ถึงความคิดอันกว้างขวางระดับมนุษย์ และยังอ่อนในหัวข้อยาก ๆ แต่โครงสร้างพื้นฐานนั้นมีอยู่แล้ว การบอกว่า LLM ไม่ได้ฉลาดเลยเป็นการประเมินแบบเรียกกระแสที่เน้นย้ำเฉพาะบางกรณี ความจริงที่คนใช้งานมันอย่างคึกคักก็เพราะพวกเขาสัมผัสได้ถึง “ความฉลาด” ในระดับหนึ่ง
แม้แต่ผู้สร้าง LLM เองก็คงยากจะบอกว่าเข้าใจกลไกทั้งหมดของโมเดลที่ตัวเองสร้างไว้อย่างถ่องแท้
ต่อข้ออ้างที่ว่า “โครงสร้างของ LLM เป็นการพรรณนาความคิดมนุษย์ในเชิงนามธรรม” ผมอยากโต้ว่า ตรรกะนี้คล้ายกับการบอกว่า ALU ที่บวกเลขนั้นมีความคล้ายเชิงนามธรรมกับวิธีที่ผมบวกเลขในหัว ความจริงสำคัญคือ ALU กับความคิดของมนุษย์ต่างกันมหาศาล เวลาเอา LLM ไปเทียบกับความคิดของมนุษย์ เราต้องไม่มองข้ามความแตกต่างอันละเอียดอ่อนที่มีความสำคัญอย่างยิ่งนั้น
ผมมองว่านี่เป็นบทความที่สรุปได้ชัดเจนมากว่าเหตุใดการเลือกใช้คำอย่างแม่นยำจึงสำคัญ แม้คนทั่วไปจะไม่รู้หลักการทางเทคนิคของ LLM แต่การเข้าใจว่าเครื่องมือเหล่านี้ทำอะไรจริง ๆ เป็นเรื่องสำคัญมาก คำโฆษณาเกินจริงอย่าง “AI ให้เหตุผลได้” อาจช่วยดันราคาหุ้นและมูลค่าบริษัท แต่ก็ทำให้การใช้งานปลอดภัยน้อยลงไปด้วย ผมเชื่อว่าการเรียกมันอย่างตรงความจริงกว่า เช่น “ระบบรู้จำรูปแบบและสร้างข้อมูล” จะช่วยให้สาธารณชนเข้าใจได้ถูกต้องมากกว่า การถกเถียงที่เกี่ยวข้อง
ทำให้นึกถึงคำพูดของ Feynman ที่ว่า “ต่อให้คอมพิวเตอร์ทำได้ดีกว่ามนุษย์ แต่ถ้าไม่ได้ทำด้วยวิธีเดียวกับมนุษย์ มันก็ไม่น่าทึ่ง” ผมคิดว่าแม้ AI จะเหนือกว่าผู้เชี่ยวชาญในทุกสาขา มนุษย์ก็ยังจะยืนกรานในความเหนือกว่าของตัวเองต่อไปตราบใดที่ซิลิคอนยังไม่ได้ “คิด”
Hassabis พูดถึงเป้าหมายในการสร้าง “โมเดลที่เข้าใจโลก” แต่ดูเหมือนนักวิจารณ์จำนวนมากจะทำผิดพลาดด้วยการใช้ข้อจำกัดของ LLM มาเหมารวมว่าคำพูดนี้ไร้ความหมาย AI แบบมัลติโหมดอย่าง Astra ของ DeepMind อาศัยข้อมูลนำเข้ามากกว่าข้อความ เช่น ภาพ และบางครั้งก็ให้ผลลัพธ์ที่ดูเหมือน “เข้าใจ” ได้จริง วิดีโอตัวอย่าง Astra
เรายังไม่เข้าใจอย่างสมบูรณ์ว่า LLM เรียนรู้ความหมายของภาษาอย่างไร แต่ผมรู้สึกได้ชัดว่าในทางปฏิบัติ LLM เข้าใจข้อความและแนวคิดได้ในระดับหนึ่ง และไม่ได้พูดเหลวไหลทั้งหมด เรื่องนี้อธิบายให้คนที่ไม่ใช่สายเทคนิคฟังได้ยากมาก คนทั่วไปพอเข้าเว็บไซต์ AI จริง ๆ แล้วเห็นชื่อว่า “AI chatbot” กับคำตอบที่ดูเป็นมนุษย์ ก็ทึ่งกันแล้ว ไม่ว่าจะเป็นการบ้านหรืองาน มันช่วยให้เสร็จอย่างมีประสิทธิภาพจนน่าพอใจมาก การอธิบายว่าอะไรคือ AI จริงหรือไม่จริงจึงไม่ง่าย แม้แต่ผมเองก็อธิบายความต่างที่แท้จริงระหว่าง LLM กับ AI ได้ไม่ชัด ในเชิงเทคนิคมันต่างกันอย่างละเอียดอ่อน แต่ผู้ใช้จริงแทบไม่รู้สึกถึงความต่างนั้น สุดท้ายแล้ว LLM ก็ดูเหมือนจะเทศนาแบบผู้นำศาสนาได้อย่างยอดเยี่ยม และถ้าฝึกดีพอ บางทีอาจสวมบทเป็น “พระเมสสิยาห์” ได้จริงก็ได้
มีใครยังเจออาการที่ LLM ติดอยู่ในลูปซ้ำไปซ้ำมาระหว่างความรู้กับความเข้าใจอยู่ไหม จากประสบการณ์ของผม แม้จะชี้ข้อผิดพลาดและขอให้อธิบายใหม่ มันก็มักวนกลับไปตอบหลอนแบบเดิม นี่แปลว่ามันขาดความเข้าใจตัวเองหรือการสะท้อนคิดถึงตัวเอง หากไม่มีมิตินี้ ผมคิดว่ายังเร็วเกินไปที่จะเรียกมันว่า “ความเข้าใจ” หรือ “สติปัญญา” จริง ๆ การยอมรับข้อจำกัดอย่างตรงไปตรงมาว่า “ไม่รู้” น่าจะเป็นเงื่อนไขขั้นต่ำของการมีความรู้สึกถึง “ตัวตน” ในระดับหนึ่ง มันให้ความรู้สึกคล้าย mirror test ของจิตใจเลยทีเดียว
อย่างที่ผู้เขียนว่าไว้ การรับเอา LLM ว่าเป็นการ “คิด” หรือ “เรียนรู้” นั้นเป็นความเข้าใจผิด มันก็เป็นเพียงตัวสร้างข้อความเท่านั้น เช่น ถ้ามันสร้างโค้ดที่เรียก API ที่ไม่มีอยู่จริง ต่อให้อธิบายให้มันฟังมากแค่ไหน มันก็ไม่ได้เข้าใจมันจริง ๆ วิธีที่ได้ผลกว่าคือป้อนเอกสารที่เกี่ยวข้องให้ แล้วชี้นำให้มันสร้างตามที่ต้องการ
ความต่างนั้นก็คือความต่างระหว่างอคติกับตรรกะ โมเดลความน่าจะเป็นสุดท้ายแล้วก็เป็นการใช้อคติรูปแบบหนึ่ง ส่วนเครื่องคิดเลขคือ “การคำนวณตามตรรกะ” ถ้าเข้าใจมุมนี้ ก็จะแยกข้อจำกัดกับจุดแข็งของโมเดลได้ง่ายขึ้น ทั้งสองกรณีต่างก็ขาด “ภาวะวัตถุวิสัย” ไปเหมือนกัน มันประมวลผลได้แค่ตัวข้อมูลเอง แต่ไม่สามารถคิดไปไกลกว่า “เหนือข้อมูล” ได้