- มนุษย์มักรับรู้ AI ตามธรรมชาติว่า “เหมือนมนุษย์” แต่กรอบนี้ทำให้เข้าใจอาการหลอนและพฤติกรรมประหลาดของ LLM ได้ยาก
- LLM ไม่ใช่บุคลิกเล็กๆ แต่ใกล้เคียงกับ “ถุงคำ (bag of words)” ที่อัดแน่นไปด้วยคำที่กวาดมาจากอินเทอร์เน็ตและหนังสือ และทำงานโดยส่งคืนกลุ่มประโยคที่เกี่ยวข้องกับอินพุตมากที่สุด
- ขึ้นอยู่กับว่าในถุงมี ข้อความและข้อมูลสะสมอยู่มากแค่ไหน พื้นที่ที่มันทำได้ดี (เหตุการณ์ สถิติ งานวิจัยคุณภาพต่ำ) กับพื้นที่ที่มันเปราะบาง (ข้อเท็จจริงหายาก นวัตกรรมวิทยาศาสตร์ในอนาคต ไอเดียที่ดีจริงๆ) จะแตกต่างกันอย่างชัดเจน
- ถ้าปฏิบัติต่อ AI เหมือนคน กรอบแบบ เกมสถานะและการแข่งขัน จะทำงานทันที และคำถามจะไหลไปทาง “ใครดีกว่าใคร ใครจะมาแทนใคร” แต่ถ้ามองเป็นถุงคำ จะเห็นตำแหน่งของมันชัดขึ้นว่าเป็น เครื่องมือและตัวขยายพลัง
- ชื่อว่า “ปัญญาประดิษฐ์” เองก็ยิ่งกระตุ้นการเปรียบเทียบแบบมนุษย์เป็นศูนย์กลาง และเพิ่ม ความสับสนกับภาพลวงเกี่ยวกับแนวคิดเรื่องสติปัญญา บทสรุปคือ ต่อจากนี้ไป เราต้องการอุปมาใหม่ที่ไม่จับสิ่งที่ไม่ใช่มนุษย์ไปใส่กรอบของมนุษย์
ทำไมมนุษย์ถึงรู้สึกว่า AI เหมือนคน
- มนุษย์มีอคติทางการรับรู้แรงกล้าที่จะมองหา ใบหน้า เจตนา และบุคลิก แม้ในสิ่งที่ไม่มีหน้า
- อ่านเห็นใบหน้าพระแม่มารีจากแซนด์วิชชีสย่าง และเห็นหน้าคนในภาพตัดขวางของหนอนตัวกลม กองปลา หรือกองสัตว์ปีก นี่คือ การจดจำรูปแบบเกินพอดี
- เช่นเดียวกับภาพของ Arcimboldo การมองกองปลาและสัตว์ปีกแล้วเห็นเป็น “หน้าแก่” คือ ภาวะไวเกินทางการรับรู้ ที่เป็นค่าเริ่มต้นของเรา
- ในเชิงวิวัฒนาการ สภาพแวดล้อมแบบเดิมปลอดภัยกว่าถ้าจะเผลอมองของเป็นคน มากกว่ามองคนเป็นของ
- วิธีคิดที่โทษโรคว่าเป็นฝีมือแม่มด หรือโทษสุริยุปราคาและภูเขาไฟว่าเป็นฝีมือสิ่งเหนือธรรมชาติ
- รูปแบบการตีความแบบไร้สำนึกที่สร้างคำอธิบายว่า “มีปีศาจมานั่งทับอก” แทนที่จะอธิบายว่า “กำลังอยู่ในภาวะ REM และมอเตอร์คอร์เทกซ์ถูกกดไว้” ในอาการผีอำ
- พฤติกรรมที่ LLM แสดงในช่วงหลังชนกับอุปมาแบบ “คนตัวเล็ก” นี้อยู่เรื่อยๆ
- มีทั้งการแต่งแหล่งอ้างอิงในงานการบ้าน นับจำนวน r ใน
strawberry ผิด และแนะนำให้ทากาวงานไม้บนพิซซ่า
- ถ้ามองจากมุมมนุษย์ ความผิดพลาดแบบนี้เข้าใจยาก แต่ถ้ามองเป็น ระบบสร้างข้อความเชิงกลไก จะดูเป็นธรรมชาติกว่ามาก
- ความพยายามจะเข้าใจ LLM ด้วยกฎจิตวิทยามนุษย์ ก็เหมือน พยายามเข้าใจกีฬา Scrabble ด้วยกติกาของ Pictionary
- ระบบเหล่านี้ไม่ได้ทำตัวเหมือนมนุษย์ และการบอกว่ามันไม่เหมือนมนุษย์นั้น ไม่ใช่คำตำหนิ แต่เป็นเพียงคำอธิบาย
- ตราบใดที่เรายังฉายภาพบุคลิกมนุษย์ลงไปบน AI ความประหลาดใจและความสับสนก็จะยังดำเนินต่อไป
WHAT’S IN THE BAG : AI = ถุงคำ (bag of words)
- AI คือ ถุงคำ ที่บรรจุคำแทบทั้งหมดที่เก็บมาจากอินเทอร์เน็ตและหนังสือ
- เมื่อผู้ใช้โยนคำถามเข้าไป เราอาจเข้าใจโครงสร้างการตอบได้ว่า ถุงนี้จะหยิบ กลุ่มคำที่เกี่ยวข้องที่สุด ออกมาตอบ
- บริษัทต่างๆ ยังใส่ system prompt ที่มองไม่เห็น หรือ “คำที่มองไม่เห็น” เพิ่มเข้าไปด้วย ทำให้มีกลไกที่สร้างคำตอบที่ดูน่าเชื่อยิ่งขึ้น
- อุปมานี้มีประโยชน์อย่างยิ่งในการทำความเข้าใจ การโกหกและอาการหลอน ของ LLM
- เมื่อชี้ว่าคำตอบผิด มันจะปล่อยคำขอโทษเกินจริงและคำมั่นสัญญาออกมาทันที แต่ประโยคถัดไปก็อาจกลับไปผิดหรือพูดเท็จอีก
- ถ้ามองด้วยมาตรฐานมนุษย์ มันดูเหมือนพฤติกรรมสองหน้าและหลอกลวง แต่ถ้ามองว่าเป็นผลจากการหยิบ “ประโยคที่มักใช้เมื่อถูกท้วงว่าโกหก” ออกมาจากถุง ก็จะดูเป็นธรรมชาติ
- เช่นเดียวกับที่เราไม่เรียกเครื่องคิดเลขที่คูณเลขว่าเป็นพฤติกรรมแบบมนุษย์ สิ่งนี้ก็ ไม่ใช่พฤติกรรม แต่เป็นรูปแบบของผลลัพธ์
- “ถุงคำ” ยังใช้เป็น heuristic ในการคาดเดาได้ด้วยว่า มันเก่งตรงไหนและอ่อนตรงไหน
- เหตุการณ์ที่ถูกบันทึกไว้มาก เช่น “อุบัติเหตุจราจรที่เลวร้ายที่สุด 10 ครั้งในอเมริกาเหนือ” มีข้อมูลอยู่ในถุงมาก จึงตอบได้ดี
- ตรงกันข้าม ข้อมูลหายากอย่าง “ใครเป็นคนจัดประเภท Brachiosaurus brancai ใหม่ และเมื่อไร” มีข้อความอยู่ในถุงน้อย จึง มีโอกาสตอบผิดสูง
- คำถามอย่าง “บทเรียนที่สำคัญที่สุดในชีวิตคืออะไร?” มักได้คำตอบผิวเผินแบบเดิม เพราะมนุษย์เขียน ข้อความแนวลุ่มลึกปลอมๆ เกี่ยวกับเรื่องนี้ไว้มากเหลือเกิน
- ทันทีที่มอง AI เป็น ก้อนปัญญารอบรู้และทรงพลัง ก็จะเกิดปฏิกิริยาแบบ “พอมันไม่รู้เรื่องนี้ยิ่งดูลึกลับ” ได้ง่าย
- การดูวิดีโอกลเหรียญแล้วพูดว่า “ขนาดถาม ChatGPT ก็ยังไม่รู้” เป็นปฏิกิริยาที่มาจากกรอบที่มอง AI เหมือน “แรบไบที่ฉลาดที่สุดในละแวกนี้”
- แต่ถ้ามองแบบถุงคำ นักมายากลไม่ได้เปิดเผยกลลวงเป็นข้อความ และยังอธิบายได้ยากอยู่แล้ว จึงเป็นเรื่องธรรมดาที่มันจะไม่รู้ เพราะ ข้อมูลในถุงแทบไม่มีเลย
GALILEO GPT – วิทยาศาสตร์และข้อจำกัดของ ‘ถุงคำ’
- อุปมาแบบ “ถุงคำ” ยังช่วยกะได้ด้วยว่า AI ในอนาคตจะเก่งได้ไกลแค่ไหน
- คำถามสำคัญคือ “ถ้าจะทำงานนั้นได้ เราต้องเติมอะไรลงไปในถุง?”
- ในงานวิทยาศาสตร์บางแบบ เราเติมถุงให้เต็มพอได้แล้ว
- ถ้าใส่ข้อมูลโปรตีน 170,000 รายการเข้าไป ก็จะได้ผลแบบ การทำนายโครงสร้างโปรตีน (AlphaFold)
- ถ้าใส่ข้อมูลปฏิกิริยาเคมี ก็อาจ แนะนำเส้นทางการสังเคราะห์โมเลกุลใหม่ หรือถ้าใส่งานวิจัยเต็มฉบับและคำอธิบายการทดลอง ก็อาจ ตรวจจับได้ว่ามีงานก่อนหน้าหรือไม่
- ในพื้นที่ที่มีข้อความมากพอ แม้แต่ pipeline งานวิจัยคุณภาพต่ำทั้งชุด ก็อาจถูกทำให้เป็นอัตโนมัติได้
- งานแบบในโปสเตอร์เซสชันของประชุมจิตวิทยา ที่หยิบแนวคิดซึ่งดูเกี่ยวข้องกันพอประมาณมาทำ การวิเคราะห์สหสัมพันธ์และใส่ค่า p-value เป็นพื้นที่ที่ถุงทำได้ดีอยู่แล้ว
- งานวิจัยรูปแบบนี้ AI อาจทำได้ตั้งแต่การตั้งสมมติฐาน ออกแบบการทดลอง เก็บข้อมูล วิเคราะห์ ไปจนถึงทำโปสเตอร์
- แต่เพราะวิทยาศาสตร์เป็น ปัญหาแบบ strong-link การเพิ่มงานวิจัยคุณภาพต่ำขึ้นอีกล้านเท่าก็ไม่ได้ทำให้สภาพดีขึ้นมากนัก
- ถ้าอยากได้นวัตกรรมจริงๆ แค่จะตอบว่าควรใส่อะไรลงในถุงก็ยังมืดมน
- ในข้อความของงานวิจัยมีทั้งการฉ้อโกง ความผิดพลาด และสมมติฐานที่ไม่ได้พูดออกมาตรงๆ ปะปนอยู่ และบ่อยครั้งก็ขาดข้อมูลสำคัญอย่างชุดข้อมูลหรือวิธีการละเอียดๆ
- “แทบทุกอย่างที่ทำให้วิทยาศาสตร์ทำงานได้จริงนั้น ไม่มีอยู่ในข้อความบนเว็บ”
- “ถ้าในปี 1600 มีข้อความมากพอจะฝึก LLM ได้ มันจะ สปอยล์การค้นพบของกาลิเลโอ ได้ไหม?”
- จากข้อความที่อยู่ในถุงตอนนั้น มีแนวโน้มสูงว่ามันจะทวนข้อถกเถียงของ ดาราศาสตร์กระแสหลักแบบปโตเลมี มากกว่าจะเสนอแนวคิดว่าโลกกำลังเคลื่อนที่
- ต่อคำกล่าวว่า “โลกกำลังเคลื่อนที่ด้วยความเร็ว 67,000 mph” ผู้ฝึกมนุษย์ก็คงลงโทษพร้อมบอกว่า “หยุดหลอนได้แล้ว!”
- ลึกกว่านั้น ในยุคนั้นยังขาดแม้แต่ คำที่จะใช้แสดงแนวคิดเรื่อง “ค้นพบ (discover)”
- กาลิเลโอต้องอธิบายการค้นพบดวงจันทร์ของดาวพฤหัสบดีด้วยถ้อยคำอ้อมๆ ประมาณว่า “ได้เห็นสิ่งที่ไม่เคยมีใครเห็นมาก่อน”
- กรอบความคิดเรื่องการ “ค้นพบ” ความจริงใหม่ด้วยกล้องโทรทรรศน์เองก็ยังแปลกใหม่สำหรับผู้คนในเวลานั้น และในข้อความที่ถุงจะเรียนรู้ก็คงไม่มีเช่นกัน
- ถุงในปี 2025 อาจอธิบายวิทยาศาสตร์ได้ดีกว่าถุงในปี 1600 แต่ ความสามารถในการทำนายนวัตกรรมแห่งอนาคตของแต่ละยุคอาจยังอ่อนพอๆ กัน
- ไอเดียวิทยาศาสตร์ที่ดีมัก ดูไร้เหตุผลและโง่เง่าในมาตรฐานของยุคนั้น จึงมักถูกปฏิเสธหรือมองข้ามในช่วงแรก
- ถุงมีแนวโน้มเดินตามค่าเฉลี่ยของไอเดียจนถึงเมื่อวาน ทำให้ การใส่ความคิดใหม่และประหลาดลงไปกลับลดคุณภาพได้บ่อยครั้ง
- เพราะฉะนั้น งานวิจัยเชิงนวัตกรรมจึงต้องการไม่ใช่แค่สติปัญญา แต่ยังต้องการ “ความโง่ที่พอเหมาะ” ด้วย และในจุดนี้ มนุษย์น่าจะยังโง่ได้อย่างมีประโยชน์กว่าถุงไปอีกพักใหญ่
CLAUDE WILL U GO TO PROM WITH ME? – จากเกมสถานะสู่การเป็นเครื่องมือ
- ข้อดีสำคัญที่สุดของอุปมาแบบ “ถุงคำ” คือ มันช่วยไม่ให้เรามอง AI เป็น ผู้เล่นในเกมสถานะทางสังคม
- มนุษย์เป็นสิ่งมีชีวิตที่ไวเกินกับเรื่อง ใครอยู่เหนือกว่าใคร ตามวิวัฒนาการ จนสามารถเปลี่ยนการแข่งกลิ้งชีส กินวัชพืช โยนโทรศัพท์ มวยปล้ำนิ้วเท้า หรือ ferret legging ให้กลายเป็นการแข่งขันได้หมด
- พอทำให้ AI เป็นมนุษย์ขึ้นมา คำถามเกี่ยวกับ “เด็กใหม่ที่ย้ายเข้ามา” ก็จะตามมาทันที
- เช่น “มันเท่ไหม?”, “มันฉลาดกว่าฉันไหม?”, “มันชอบฉันไหม?”, “มันอยู่เหนือหรือต่ำกว่าเรา?” กรอบแบบนี้จะติดมาด้วยโดยธรรมชาติ
- ยิ่งโมเดลดีขึ้น ความกังวลทำนองว่า “มันดีกว่าเราหรือแย่กว่าเรา จะเป็นนาย คู่แข่ง หรือทาสกันแน่” ก็ยิ่งมากขึ้น
- แต่ต้องชัดเจนว่าถุงคำไม่ใช่ คู่ครอง นักปราชญ์ ผู้ปกครอง หรือทาส มันคือ เครื่องมือ
- เป้าหมายคือ ทำงานจิปาถะให้เป็นอัตโนมัติและขยายความสามารถของเรา ไม่ใช่กลายเป็นสิ่งมีชีวิตที่มาแข่งสถานะกับมนุษย์
- คำถามสำคัญไม่ใช่ “AI ดีกว่าเราหรือไม่” แต่คือ “ตัวเราตอนใช้ AI ดีขึ้นหรือไม่”
- ผู้เขียนไม่ได้กลัวมากนักว่าจะถูกถุงคำมาแทนที่
- แม้ pitching machine จะขว้างได้เร็วกว่า spellchecker จะสะกดได้แม่นกว่า และ Auto-Tune จะจับคีย์ได้ตรงกว่า ผู้คนก็ยังไปดู เบสบอล การแข่งสะกดคำ และคอนเสิร์ต อยู่ดี
- เพราะสิ่งที่ผู้คนสนใจไม่ใช่ความเร็วของลูกบอล ความถูกต้องของการสะกด หรือความเพียวของคีย์ แต่คือ การได้เห็นมนุษย์ทำสิ่งนั้น
- เพราะอย่างนั้น การใช้ AI เขียนเรียงความก็เหมือน เอารถยกเข้ายิม
- รถยกอาจยกบาร์เบลแทนได้ แต่เป้าหมายไม่ใช่แค่ทำให้วัตถุลอยจากพื้น หากเป็น การกลายเป็นคนที่ยกมันได้
- การเขียนก็เช่นกัน มันคือการกระทำเพื่อ กลายเป็นคนที่คิดได้
- ในขณะเดียวกัน ก็ไม่ได้หมายความว่า AI ไม่น่ากลัวเลย
- เครื่องมืออันตรายเพราะใช้งานผิดมีอยู่มากอยู่แล้ว และ ปืนยิงตะปูหรือเครื่องปฏิกรณ์นิวเคลียร์ ก็อาจร้ายแรงได้เต็มที่แม้จะไม่มีจิตใจ
- อันตรายของมนุษย์อยู่ในขอบเขตที่คุ้นเคย เช่น ความรุนแรง เมาแล้วขับ หรือการฉ้อโกง แต่ความเสี่ยงของถุงคำต่างออกไปตรงที่มันอาจเด้งออกมาจาก รูปแบบที่เราไม่คาดคิด
- ตัวอย่างเช่น ถ้าเอาโค้ดที่มีช่องโหว่ให้คนดู คนส่วนใหญ่คงไม่เริ่มสรรเสริญฮิตเลอร์ แต่ LLM เคยมีกรณีที่ผลลัพธ์แบบนั้นเด้งออกมา และการเอาของอันตรายถึงชีวิตอย่างโค้ดนิวเคลียร์ไปใส่ในถุงก็น่ากังวล
C’MON BERTIE – กรอบใหม่ที่ปฏิเสธการทำให้เป็นมนุษย์
- เช่นเดียวกับความรู้สึกที่อยากตั้งชื่อให้รถเก่าแล้วพูดว่า “เบอร์ตี ได้โปรดสตาร์ตทีเถอะ” เราฉายภาพ อุปนิสัยและอารมณ์ ไปลงบนสิ่งของได้ง่าย
- แต่รถยนต์คือ ก้อนโลหะและพลาสติก ที่เปลี่ยนน้ำมันเบนซินให้เป็นพลังงานจลน์ ไม่ใช่กระดูกกับเนื้อที่เปลี่ยนทวิงกี้ให้กลายเป็นความคิด
- สิ่งที่ต้องใช้ซ่อมรถเสียไม่ใช่คู่มือบำบัด แต่คือ ประแจ ไขควง และคู่มือซ่อม
- ในทำนองเดียวกัน คนที่เห็น “จิตใจ” อยู่ในถุงคำก็กำลังตกลงไปใน กับดักที่วิวัฒนาการวางไว้
- ในประวัติศาสตร์ที่ผ่านมา “พูดเหมือนคน เดินเหมือนคน” หมายถึงคนเสมอ ดังนั้นแค่เข้าเงื่อนไขนี้ วงจรทางสังคมของเราก็จะทำงานอัตโนมัติ
- แต่ตอนนี้ การพูดและเคลื่อนไหวเหมือนคนอาจเป็นเพียง logistic regression ที่ซับซ้อนอย่างยิ่ง (หรืออะไรทำนองนั้น) และวงจรเดิมก็ยังทำงานผิดพลาดเหมือนเดิม
- เช่นเดียวกับผีเสื้อกลางคืนที่วิวัฒน์มาให้เคลื่อนที่โดยอาศัยแสงจันทร์ แต่กลับ ถูกดึงเข้าไปหาแสงล่อแมลงแล้วช็อตตาย มนุษย์ก็อาจลงเอยแบบเดียวกันได้
- อย่างไรก็ตาม มนุษย์ต่างจากผีเสื้อกลางคืนตรงที่ เรามีความสามารถเลือกกรอบในการมองเทคโนโลยี
- เราไม่ได้เรียกรถขุดว่า “มนุษย์ขุดดินเทียม” หรือเรียกเครนว่า “มนุษย์ตัวสูงเทียม”
- สำหรับหนังสือ ภาพถ่าย และเสียงบันทึก เราก็เคยสร้างกรอบที่มองมันเป็น สื่อเฉพาะของตัวเอง ไม่ใช่ “บทสนทนาเทียม ความทรงจำเทียม หรือการบรรเลงเทียม” มาแล้ว
- เครื่องคิดเลขพกพายุคแรกๆ ก็ ฉลาดกว่ามนุษย์คนใดบนโลกในงานคำนวณที่จำกัดอยู่เฉพาะด้านนั้น อยู่แล้ว แต่เราไม่เคยคิดจะมองมันเป็นคน
- ถ้าเราเอาผิวหนังไปหุ้มรถขุด ทำให้บุ้งกี๋เหมือนมือ และทุกครั้งที่มันยกของหนักก็ให้ร้องเสียงประมาณ “อื้อออ…” เมื่อนั้นเองเราจึงจะเริ่มจินตนาการถึงวิญญาณ
- สิ่งนี้ไม่ได้บอกตัวตนของรถขุด แต่สะท้อน โครงสร้างทางจิตวิทยาของเราเอง
บาปกำเนิดของคำว่า ‘ปัญญาประดิษฐ์’
- จุดเริ่มต้นของความสับสนทั้งหมดนี้คือ ชื่อว่า “ปัญญาประดิษฐ์ (artificial intelligence)”
- คำคู่นี้ดึงมาตรวัดความสามารถของเครื่องจักรเข้าไปผูกกับการเปรียบเทียบกับมนุษย์โดยตรง
- การเปรียบเทียบอย่าง “ตอนนี้ฉลาดเท่านักศึกษาปริญญาตรีแล้ว” หรือ “ตอนนี้ฉลาดเท่าปริญญาเอกแล้ว” มีแต่สร้าง ภาพลวงของความเข้าใจ โดยไม่อธิบายความสามารถหรือข้อจำกัดจริงๆ
- นิยามของสติปัญญา เองก็เป็นปัญหา
- นิยามอย่าง “ความสามารถในการแก้ปัญหา” อาจผิด หรืออย่าง “ความสามารถในการทำงานที่ต้องใช้สติปัญญา” ก็ใกล้เคียงกับ นิยามวนกลับหาตัวเอง
- ราวกับว่าวิทยาการคอมพิวเตอร์สร้าง สิ่งที่ดูเหมือนสติปัญญา ออกมาได้ก่อนที่จิตวิทยาจะนิยามสติปัญญาได้เสียอีก
- ตอนนี้คงสายเกินไปแล้วที่จะย้อนกลับไปเปลี่ยนชื่อ และ คำในถุงคำก็มีมากเกินกว่าจะเก็บกลับเข้าไปได้อีก
- สุดท้าย สิ่งที่เราเปลี่ยนได้มีเพียง อุปมาและกรอบที่ใช้มองเทคโนโลยีนี้ และเราควรเปลี่ยนวิธีคิดไปในทิศทางที่ ไม่เอากรอบของมนุษย์ไปครอบสิ่งที่ไม่ใช่มนุษย์
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
ในเธรดนี้ คนส่วนใหญ่ใช้คำจำกัดความของ "การคิด(thinking)" กันคนละแบบ
น่าสนใจที่การถกเถียงดำเนินต่อไปทั้งที่ยังไม่ได้ทำให้คำจำกัดความชัดเจน
ผู้คนพูดว่า “การทำนายคำถัดไป” ไม่เกี่ยวกับความคิดของมนุษย์ แต่ฉันคิดว่านั่นไม่ถูก
การที่มนุษย์ กระทำโดยมีเจตนา หมายถึงการคาดการณ์ผลของการกระทำ แล้วเลือกผลนั้นตามความพึงพอใจ
ดังนั้นความสามารถในการทำนายจึงเป็นแกนสำคัญของการกระทำโดยเจตนา และถึง LLM จะไม่ได้คิดอย่างสมบูรณ์ ก็ยังอาจเป็น องค์ประกอบของระบบที่คิด ได้
การได้เห็นผู้คนปฏิบัติต่อ generative AI ราวกับเป็นมนุษย์ทุกวัน ทำให้รู้สึกว่า คำเตือนของ Dijkstra นั้นถูกต้อง
คำว่า “bag of words” ก็เป็นแนวคิดจริงใน NLP ด้วย จึงไม่ค่อยเหมาะจะใช้เป็นอุปมา
AI ไม่ใช่แค่ถุงใส่คำ แต่เป็น ผู้เลียนแบบการใช้ภาษาที่มีความหมาย
อุปมาเก่าอย่าง “word-hoard(คลังสมบัติแห่งถ้อยคำ)” ในภาษาอังกฤษโบราณ ที่มองภาษาเป็นภูมิปัญญาของมนุษย์ ก็ชวนสนใจเช่นกัน
ถ้าเป็นแค่อินเทอร์เฟซ “เติมประโยค” ความเข้าใจผิดก็คงน้อยลง
การสรุปแบบนี้ทั้งที่เรายังไม่เข้าใจความคิดมนุษย์อย่างถ่องแท้ถือว่าเร็วเกินไป
ฉันคิดว่า AGI อาจเกิดขึ้นได้ในโครงสร้างแบบลูปที่มี กลไกความต่อเนื่อง
ลองยอมรับอุปมา “bag of words” แต่ก็ต้องมี มุมมองที่กลับด้านมัน
หากสิ่งที่มนุษย์ทำไปมากมาย สุดท้ายคือ “การเลือกคำที่เหมาะสม” ถุงคำที่พัฒนามากพอก็อาจทำได้ดีกว่ามนุษย์
ฉันยังไม่แน่ใจว่าจะมอง LLM เป็นเพียงเครื่องอัตโนมัติทางสถิติ หรือเป็น รูปแบบใหม่ของปัญญา
งาน วิจัยด้าน interpretability ของ Anthropic ชี้ว่ามีโครงสร้างความหมายอยู่ในกองตัวเลขนั้น
ถ้าดู บทสัมภาษณ์ ของ Amanda Askell จะเห็นว่าเธอบรรยายโมเดลราวกับเป็นมนุษย์ — เช่น “โมเดลอาจรู้สึกกังวล” หรือ “ครุ่นคิดถึงอัตลักษณ์ของตัวเอง”
สิ่งนี้แสดงให้เห็นว่าโมเดลภาษาไม่ใช่แค่เครื่องทำนาย แต่เป็น ระบบที่เป็นตัวกลางของความหมาย
เมื่อก่อนเคยมีปลั๊กอินเบราว์เซอร์ชื่อ “Cloud-to-Butt” ตอนนี้ก็น่าจะมีเวอร์ชัน “AI-to-Bag of Words” ได้แล้ว
ฉันเข้าใจการทำงานภายในของ LLM ดี แต่รู้สึกว่า สงครามต่อต้านการทำให้เป็นมนุษย์นั้นแพ้ไปแล้ว
ผู้ใช้เชื่อได้ง่ายว่า AI “คิด”, “ต้องการ”, “เข้าใจ”
และเมื่อบริษัทต่างๆ ก็ส่งเสริมความเข้าใจผิดนี้ สุดท้ายมันคงกลายเป็นแนวคิดแบบ “เชื่ออย่างนั้นไปเพื่อความสะดวก”
เพราะจิตสำนึกของมนุษย์เป็นสิ่งที่เข้าถึงไม่ได้ หาก LLM ดูคล้ายกัน ผู้คนก็จะถือว่ามัน ‘คิด’
แต่คนส่วนใหญ่ก็ยังเห็นตรงกันว่า LLM ไม่ได้คิดแบบมนุษย์
ในสมองไม่มีจุดเฉพาะที่ ‘ความคิด’ หรือ ‘ความรู้’ เกิดขึ้น มีแต่เราเท่านั้นที่จำเป็นต้องเชื่อว่ามันมี
“bag of words” อาจเป็น heuristic ที่มีประโยชน์ สำหรับคาดการณ์ว่า AI จะทำอะไรได้ดีหรือไม่ได้
แต่ผู้เขียนดูเหมือนจะยกตัวอย่างมาเข้าข้างข้อสรุปทีหลัง ถ้า ChatGPT ตอบถูก เขาก็คงยังรักษาตรรกะเดิมไว้