13 คะแนน โดย GN⁺ 2025-12-09 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • มนุษย์มักรับรู้ AI ตามธรรมชาติว่า “เหมือนมนุษย์” แต่กรอบนี้ทำให้เข้าใจอาการหลอนและพฤติกรรมประหลาดของ LLM ได้ยาก
  • LLM ไม่ใช่บุคลิกเล็กๆ แต่ใกล้เคียงกับ “ถุงคำ (bag of words)” ที่อัดแน่นไปด้วยคำที่กวาดมาจากอินเทอร์เน็ตและหนังสือ และทำงานโดยส่งคืนกลุ่มประโยคที่เกี่ยวข้องกับอินพุตมากที่สุด
  • ขึ้นอยู่กับว่าในถุงมี ข้อความและข้อมูลสะสมอยู่มากแค่ไหน พื้นที่ที่มันทำได้ดี (เหตุการณ์ สถิติ งานวิจัยคุณภาพต่ำ) กับพื้นที่ที่มันเปราะบาง (ข้อเท็จจริงหายาก นวัตกรรมวิทยาศาสตร์ในอนาคต ไอเดียที่ดีจริงๆ) จะแตกต่างกันอย่างชัดเจน
  • ถ้าปฏิบัติต่อ AI เหมือนคน กรอบแบบ เกมสถานะและการแข่งขัน จะทำงานทันที และคำถามจะไหลไปทาง “ใครดีกว่าใคร ใครจะมาแทนใคร” แต่ถ้ามองเป็นถุงคำ จะเห็นตำแหน่งของมันชัดขึ้นว่าเป็น เครื่องมือและตัวขยายพลัง
  • ชื่อว่า “ปัญญาประดิษฐ์” เองก็ยิ่งกระตุ้นการเปรียบเทียบแบบมนุษย์เป็นศูนย์กลาง และเพิ่ม ความสับสนกับภาพลวงเกี่ยวกับแนวคิดเรื่องสติปัญญา บทสรุปคือ ต่อจากนี้ไป เราต้องการอุปมาใหม่ที่ไม่จับสิ่งที่ไม่ใช่มนุษย์ไปใส่กรอบของมนุษย์

ทำไมมนุษย์ถึงรู้สึกว่า AI เหมือนคน

  • มนุษย์มีอคติทางการรับรู้แรงกล้าที่จะมองหา ใบหน้า เจตนา และบุคลิก แม้ในสิ่งที่ไม่มีหน้า
    • อ่านเห็นใบหน้าพระแม่มารีจากแซนด์วิชชีสย่าง และเห็นหน้าคนในภาพตัดขวางของหนอนตัวกลม กองปลา หรือกองสัตว์ปีก นี่คือ การจดจำรูปแบบเกินพอดี
    • เช่นเดียวกับภาพของ Arcimboldo การมองกองปลาและสัตว์ปีกแล้วเห็นเป็น “หน้าแก่” คือ ภาวะไวเกินทางการรับรู้ ที่เป็นค่าเริ่มต้นของเรา
  • ในเชิงวิวัฒนาการ สภาพแวดล้อมแบบเดิมปลอดภัยกว่าถ้าจะเผลอมองของเป็นคน มากกว่ามองคนเป็นของ
    • วิธีคิดที่โทษโรคว่าเป็นฝีมือแม่มด หรือโทษสุริยุปราคาและภูเขาไฟว่าเป็นฝีมือสิ่งเหนือธรรมชาติ
    • รูปแบบการตีความแบบไร้สำนึกที่สร้างคำอธิบายว่า “มีปีศาจมานั่งทับอก” แทนที่จะอธิบายว่า “กำลังอยู่ในภาวะ REM และมอเตอร์คอร์เทกซ์ถูกกดไว้” ในอาการผีอำ
  • พฤติกรรมที่ LLM แสดงในช่วงหลังชนกับอุปมาแบบ “คนตัวเล็ก” นี้อยู่เรื่อยๆ
    • มีทั้งการแต่งแหล่งอ้างอิงในงานการบ้าน นับจำนวน r ใน strawberry ผิด และแนะนำให้ทากาวงานไม้บนพิซซ่า
    • ถ้ามองจากมุมมนุษย์ ความผิดพลาดแบบนี้เข้าใจยาก แต่ถ้ามองเป็น ระบบสร้างข้อความเชิงกลไก จะดูเป็นธรรมชาติกว่ามาก
  • ความพยายามจะเข้าใจ LLM ด้วยกฎจิตวิทยามนุษย์ ก็เหมือน พยายามเข้าใจกีฬา Scrabble ด้วยกติกาของ Pictionary
    • ระบบเหล่านี้ไม่ได้ทำตัวเหมือนมนุษย์ และการบอกว่ามันไม่เหมือนมนุษย์นั้น ไม่ใช่คำตำหนิ แต่เป็นเพียงคำอธิบาย
    • ตราบใดที่เรายังฉายภาพบุคลิกมนุษย์ลงไปบน AI ความประหลาดใจและความสับสนก็จะยังดำเนินต่อไป

WHAT’S IN THE BAG : AI = ถุงคำ (bag of words)

  • AI คือ ถุงคำ ที่บรรจุคำแทบทั้งหมดที่เก็บมาจากอินเทอร์เน็ตและหนังสือ
    • เมื่อผู้ใช้โยนคำถามเข้าไป เราอาจเข้าใจโครงสร้างการตอบได้ว่า ถุงนี้จะหยิบ กลุ่มคำที่เกี่ยวข้องที่สุด ออกมาตอบ
    • บริษัทต่างๆ ยังใส่ system prompt ที่มองไม่เห็น หรือ “คำที่มองไม่เห็น” เพิ่มเข้าไปด้วย ทำให้มีกลไกที่สร้างคำตอบที่ดูน่าเชื่อยิ่งขึ้น
  • อุปมานี้มีประโยชน์อย่างยิ่งในการทำความเข้าใจ การโกหกและอาการหลอน ของ LLM
    • เมื่อชี้ว่าคำตอบผิด มันจะปล่อยคำขอโทษเกินจริงและคำมั่นสัญญาออกมาทันที แต่ประโยคถัดไปก็อาจกลับไปผิดหรือพูดเท็จอีก
    • ถ้ามองด้วยมาตรฐานมนุษย์ มันดูเหมือนพฤติกรรมสองหน้าและหลอกลวง แต่ถ้ามองว่าเป็นผลจากการหยิบ “ประโยคที่มักใช้เมื่อถูกท้วงว่าโกหก” ออกมาจากถุง ก็จะดูเป็นธรรมชาติ
    • เช่นเดียวกับที่เราไม่เรียกเครื่องคิดเลขที่คูณเลขว่าเป็นพฤติกรรมแบบมนุษย์ สิ่งนี้ก็ ไม่ใช่พฤติกรรม แต่เป็นรูปแบบของผลลัพธ์
  • “ถุงคำ” ยังใช้เป็น heuristic ในการคาดเดาได้ด้วยว่า มันเก่งตรงไหนและอ่อนตรงไหน
    • เหตุการณ์ที่ถูกบันทึกไว้มาก เช่น “อุบัติเหตุจราจรที่เลวร้ายที่สุด 10 ครั้งในอเมริกาเหนือ” มีข้อมูลอยู่ในถุงมาก จึงตอบได้ดี
    • ตรงกันข้าม ข้อมูลหายากอย่าง “ใครเป็นคนจัดประเภท Brachiosaurus brancai ใหม่ และเมื่อไร” มีข้อความอยู่ในถุงน้อย จึง มีโอกาสตอบผิดสูง
    • คำถามอย่าง “บทเรียนที่สำคัญที่สุดในชีวิตคืออะไร?” มักได้คำตอบผิวเผินแบบเดิม เพราะมนุษย์เขียน ข้อความแนวลุ่มลึกปลอมๆ เกี่ยวกับเรื่องนี้ไว้มากเหลือเกิน
  • ทันทีที่มอง AI เป็น ก้อนปัญญารอบรู้และทรงพลัง ก็จะเกิดปฏิกิริยาแบบ “พอมันไม่รู้เรื่องนี้ยิ่งดูลึกลับ” ได้ง่าย
    • การดูวิดีโอกลเหรียญแล้วพูดว่า “ขนาดถาม ChatGPT ก็ยังไม่รู้” เป็นปฏิกิริยาที่มาจากกรอบที่มอง AI เหมือน “แรบไบที่ฉลาดที่สุดในละแวกนี้”
    • แต่ถ้ามองแบบถุงคำ นักมายากลไม่ได้เปิดเผยกลลวงเป็นข้อความ และยังอธิบายได้ยากอยู่แล้ว จึงเป็นเรื่องธรรมดาที่มันจะไม่รู้ เพราะ ข้อมูลในถุงแทบไม่มีเลย

GALILEO GPT – วิทยาศาสตร์และข้อจำกัดของ ‘ถุงคำ’

  • อุปมาแบบ “ถุงคำ” ยังช่วยกะได้ด้วยว่า AI ในอนาคตจะเก่งได้ไกลแค่ไหน
    • คำถามสำคัญคือ “ถ้าจะทำงานนั้นได้ เราต้องเติมอะไรลงไปในถุง?”
  • ในงานวิทยาศาสตร์บางแบบ เราเติมถุงให้เต็มพอได้แล้ว
    • ถ้าใส่ข้อมูลโปรตีน 170,000 รายการเข้าไป ก็จะได้ผลแบบ การทำนายโครงสร้างโปรตีน (AlphaFold)
    • ถ้าใส่ข้อมูลปฏิกิริยาเคมี ก็อาจ แนะนำเส้นทางการสังเคราะห์โมเลกุลใหม่ หรือถ้าใส่งานวิจัยเต็มฉบับและคำอธิบายการทดลอง ก็อาจ ตรวจจับได้ว่ามีงานก่อนหน้าหรือไม่
  • ในพื้นที่ที่มีข้อความมากพอ แม้แต่ pipeline งานวิจัยคุณภาพต่ำทั้งชุด ก็อาจถูกทำให้เป็นอัตโนมัติได้
    • งานแบบในโปสเตอร์เซสชันของประชุมจิตวิทยา ที่หยิบแนวคิดซึ่งดูเกี่ยวข้องกันพอประมาณมาทำ การวิเคราะห์สหสัมพันธ์และใส่ค่า p-value เป็นพื้นที่ที่ถุงทำได้ดีอยู่แล้ว
    • งานวิจัยรูปแบบนี้ AI อาจทำได้ตั้งแต่การตั้งสมมติฐาน ออกแบบการทดลอง เก็บข้อมูล วิเคราะห์ ไปจนถึงทำโปสเตอร์
  • แต่เพราะวิทยาศาสตร์เป็น ปัญหาแบบ strong-link การเพิ่มงานวิจัยคุณภาพต่ำขึ้นอีกล้านเท่าก็ไม่ได้ทำให้สภาพดีขึ้นมากนัก
    • ถ้าอยากได้นวัตกรรมจริงๆ แค่จะตอบว่าควรใส่อะไรลงในถุงก็ยังมืดมน
    • ในข้อความของงานวิจัยมีทั้งการฉ้อโกง ความผิดพลาด และสมมติฐานที่ไม่ได้พูดออกมาตรงๆ ปะปนอยู่ และบ่อยครั้งก็ขาดข้อมูลสำคัญอย่างชุดข้อมูลหรือวิธีการละเอียดๆ
    • แทบทุกอย่างที่ทำให้วิทยาศาสตร์ทำงานได้จริงนั้น ไม่มีอยู่ในข้อความบนเว็บ
  • “ถ้าในปี 1600 มีข้อความมากพอจะฝึก LLM ได้ มันจะ สปอยล์การค้นพบของกาลิเลโอ ได้ไหม?”
    • จากข้อความที่อยู่ในถุงตอนนั้น มีแนวโน้มสูงว่ามันจะทวนข้อถกเถียงของ ดาราศาสตร์กระแสหลักแบบปโตเลมี มากกว่าจะเสนอแนวคิดว่าโลกกำลังเคลื่อนที่
    • ต่อคำกล่าวว่า “โลกกำลังเคลื่อนที่ด้วยความเร็ว 67,000 mph” ผู้ฝึกมนุษย์ก็คงลงโทษพร้อมบอกว่า “หยุดหลอนได้แล้ว!”
  • ลึกกว่านั้น ในยุคนั้นยังขาดแม้แต่ คำที่จะใช้แสดงแนวคิดเรื่อง “ค้นพบ (discover)”
    • กาลิเลโอต้องอธิบายการค้นพบดวงจันทร์ของดาวพฤหัสบดีด้วยถ้อยคำอ้อมๆ ประมาณว่า “ได้เห็นสิ่งที่ไม่เคยมีใครเห็นมาก่อน”
    • กรอบความคิดเรื่องการ “ค้นพบ” ความจริงใหม่ด้วยกล้องโทรทรรศน์เองก็ยังแปลกใหม่สำหรับผู้คนในเวลานั้น และในข้อความที่ถุงจะเรียนรู้ก็คงไม่มีเช่นกัน
  • ถุงในปี 2025 อาจอธิบายวิทยาศาสตร์ได้ดีกว่าถุงในปี 1600 แต่ ความสามารถในการทำนายนวัตกรรมแห่งอนาคตของแต่ละยุคอาจยังอ่อนพอๆ กัน
    • ไอเดียวิทยาศาสตร์ที่ดีมัก ดูไร้เหตุผลและโง่เง่าในมาตรฐานของยุคนั้น จึงมักถูกปฏิเสธหรือมองข้ามในช่วงแรก
    • ถุงมีแนวโน้มเดินตามค่าเฉลี่ยของไอเดียจนถึงเมื่อวาน ทำให้ การใส่ความคิดใหม่และประหลาดลงไปกลับลดคุณภาพได้บ่อยครั้ง
    • เพราะฉะนั้น งานวิจัยเชิงนวัตกรรมจึงต้องการไม่ใช่แค่สติปัญญา แต่ยังต้องการ “ความโง่ที่พอเหมาะ” ด้วย และในจุดนี้ มนุษย์น่าจะยังโง่ได้อย่างมีประโยชน์กว่าถุงไปอีกพักใหญ่

CLAUDE WILL U GO TO PROM WITH ME? – จากเกมสถานะสู่การเป็นเครื่องมือ

  • ข้อดีสำคัญที่สุดของอุปมาแบบ “ถุงคำ” คือ มันช่วยไม่ให้เรามอง AI เป็น ผู้เล่นในเกมสถานะทางสังคม
    • มนุษย์เป็นสิ่งมีชีวิตที่ไวเกินกับเรื่อง ใครอยู่เหนือกว่าใคร ตามวิวัฒนาการ จนสามารถเปลี่ยนการแข่งกลิ้งชีส กินวัชพืช โยนโทรศัพท์ มวยปล้ำนิ้วเท้า หรือ ferret legging ให้กลายเป็นการแข่งขันได้หมด
  • พอทำให้ AI เป็นมนุษย์ขึ้นมา คำถามเกี่ยวกับ “เด็กใหม่ที่ย้ายเข้ามา” ก็จะตามมาทันที
    • เช่น “มันเท่ไหม?”, “มันฉลาดกว่าฉันไหม?”, “มันชอบฉันไหม?”, “มันอยู่เหนือหรือต่ำกว่าเรา?” กรอบแบบนี้จะติดมาด้วยโดยธรรมชาติ
    • ยิ่งโมเดลดีขึ้น ความกังวลทำนองว่า “มันดีกว่าเราหรือแย่กว่าเรา จะเป็นนาย คู่แข่ง หรือทาสกันแน่” ก็ยิ่งมากขึ้น
  • แต่ต้องชัดเจนว่าถุงคำไม่ใช่ คู่ครอง นักปราชญ์ ผู้ปกครอง หรือทาส มันคือ เครื่องมือ
    • เป้าหมายคือ ทำงานจิปาถะให้เป็นอัตโนมัติและขยายความสามารถของเรา ไม่ใช่กลายเป็นสิ่งมีชีวิตที่มาแข่งสถานะกับมนุษย์
    • คำถามสำคัญไม่ใช่ “AI ดีกว่าเราหรือไม่” แต่คือ “ตัวเราตอนใช้ AI ดีขึ้นหรือไม่”
  • ผู้เขียนไม่ได้กลัวมากนักว่าจะถูกถุงคำมาแทนที่
    • แม้ pitching machine จะขว้างได้เร็วกว่า spellchecker จะสะกดได้แม่นกว่า และ Auto-Tune จะจับคีย์ได้ตรงกว่า ผู้คนก็ยังไปดู เบสบอล การแข่งสะกดคำ และคอนเสิร์ต อยู่ดี
    • เพราะสิ่งที่ผู้คนสนใจไม่ใช่ความเร็วของลูกบอล ความถูกต้องของการสะกด หรือความเพียวของคีย์ แต่คือ การได้เห็นมนุษย์ทำสิ่งนั้น
  • เพราะอย่างนั้น การใช้ AI เขียนเรียงความก็เหมือน เอารถยกเข้ายิม
    • รถยกอาจยกบาร์เบลแทนได้ แต่เป้าหมายไม่ใช่แค่ทำให้วัตถุลอยจากพื้น หากเป็น การกลายเป็นคนที่ยกมันได้
    • การเขียนก็เช่นกัน มันคือการกระทำเพื่อ กลายเป็นคนที่คิดได้
  • ในขณะเดียวกัน ก็ไม่ได้หมายความว่า AI ไม่น่ากลัวเลย
    • เครื่องมืออันตรายเพราะใช้งานผิดมีอยู่มากอยู่แล้ว และ ปืนยิงตะปูหรือเครื่องปฏิกรณ์นิวเคลียร์ ก็อาจร้ายแรงได้เต็มที่แม้จะไม่มีจิตใจ
    • อันตรายของมนุษย์อยู่ในขอบเขตที่คุ้นเคย เช่น ความรุนแรง เมาแล้วขับ หรือการฉ้อโกง แต่ความเสี่ยงของถุงคำต่างออกไปตรงที่มันอาจเด้งออกมาจาก รูปแบบที่เราไม่คาดคิด
    • ตัวอย่างเช่น ถ้าเอาโค้ดที่มีช่องโหว่ให้คนดู คนส่วนใหญ่คงไม่เริ่มสรรเสริญฮิตเลอร์ แต่ LLM เคยมีกรณีที่ผลลัพธ์แบบนั้นเด้งออกมา และการเอาของอันตรายถึงชีวิตอย่างโค้ดนิวเคลียร์ไปใส่ในถุงก็น่ากังวล

C’MON BERTIE – กรอบใหม่ที่ปฏิเสธการทำให้เป็นมนุษย์

  • เช่นเดียวกับความรู้สึกที่อยากตั้งชื่อให้รถเก่าแล้วพูดว่า “เบอร์ตี ได้โปรดสตาร์ตทีเถอะ” เราฉายภาพ อุปนิสัยและอารมณ์ ไปลงบนสิ่งของได้ง่าย
    • แต่รถยนต์คือ ก้อนโลหะและพลาสติก ที่เปลี่ยนน้ำมันเบนซินให้เป็นพลังงานจลน์ ไม่ใช่กระดูกกับเนื้อที่เปลี่ยนทวิงกี้ให้กลายเป็นความคิด
    • สิ่งที่ต้องใช้ซ่อมรถเสียไม่ใช่คู่มือบำบัด แต่คือ ประแจ ไขควง และคู่มือซ่อม
  • ในทำนองเดียวกัน คนที่เห็น “จิตใจ” อยู่ในถุงคำก็กำลังตกลงไปใน กับดักที่วิวัฒนาการวางไว้
    • ในประวัติศาสตร์ที่ผ่านมา “พูดเหมือนคน เดินเหมือนคน” หมายถึงคนเสมอ ดังนั้นแค่เข้าเงื่อนไขนี้ วงจรทางสังคมของเราก็จะทำงานอัตโนมัติ
    • แต่ตอนนี้ การพูดและเคลื่อนไหวเหมือนคนอาจเป็นเพียง logistic regression ที่ซับซ้อนอย่างยิ่ง (หรืออะไรทำนองนั้น) และวงจรเดิมก็ยังทำงานผิดพลาดเหมือนเดิม
  • เช่นเดียวกับผีเสื้อกลางคืนที่วิวัฒน์มาให้เคลื่อนที่โดยอาศัยแสงจันทร์ แต่กลับ ถูกดึงเข้าไปหาแสงล่อแมลงแล้วช็อตตาย มนุษย์ก็อาจลงเอยแบบเดียวกันได้
  • อย่างไรก็ตาม มนุษย์ต่างจากผีเสื้อกลางคืนตรงที่ เรามีความสามารถเลือกกรอบในการมองเทคโนโลยี
    • เราไม่ได้เรียกรถขุดว่า “มนุษย์ขุดดินเทียม” หรือเรียกเครนว่า “มนุษย์ตัวสูงเทียม”
    • สำหรับหนังสือ ภาพถ่าย และเสียงบันทึก เราก็เคยสร้างกรอบที่มองมันเป็น สื่อเฉพาะของตัวเอง ไม่ใช่ “บทสนทนาเทียม ความทรงจำเทียม หรือการบรรเลงเทียม” มาแล้ว
  • เครื่องคิดเลขพกพายุคแรกๆ ก็ ฉลาดกว่ามนุษย์คนใดบนโลกในงานคำนวณที่จำกัดอยู่เฉพาะด้านนั้น อยู่แล้ว แต่เราไม่เคยคิดจะมองมันเป็นคน
  • ถ้าเราเอาผิวหนังไปหุ้มรถขุด ทำให้บุ้งกี๋เหมือนมือ และทุกครั้งที่มันยกของหนักก็ให้ร้องเสียงประมาณ “อื้อออ…” เมื่อนั้นเองเราจึงจะเริ่มจินตนาการถึงวิญญาณ
    • สิ่งนี้ไม่ได้บอกตัวตนของรถขุด แต่สะท้อน โครงสร้างทางจิตวิทยาของเราเอง

บาปกำเนิดของคำว่า ‘ปัญญาประดิษฐ์’

  • จุดเริ่มต้นของความสับสนทั้งหมดนี้คือ ชื่อว่า “ปัญญาประดิษฐ์ (artificial intelligence)”
    • คำคู่นี้ดึงมาตรวัดความสามารถของเครื่องจักรเข้าไปผูกกับการเปรียบเทียบกับมนุษย์โดยตรง
    • การเปรียบเทียบอย่าง “ตอนนี้ฉลาดเท่านักศึกษาปริญญาตรีแล้ว” หรือ “ตอนนี้ฉลาดเท่าปริญญาเอกแล้ว” มีแต่สร้าง ภาพลวงของความเข้าใจ โดยไม่อธิบายความสามารถหรือข้อจำกัดจริงๆ
  • นิยามของสติปัญญา เองก็เป็นปัญหา
    • นิยามอย่าง “ความสามารถในการแก้ปัญหา” อาจผิด หรืออย่าง “ความสามารถในการทำงานที่ต้องใช้สติปัญญา” ก็ใกล้เคียงกับ นิยามวนกลับหาตัวเอง
    • ราวกับว่าวิทยาการคอมพิวเตอร์สร้าง สิ่งที่ดูเหมือนสติปัญญา ออกมาได้ก่อนที่จิตวิทยาจะนิยามสติปัญญาได้เสียอีก
  • ตอนนี้คงสายเกินไปแล้วที่จะย้อนกลับไปเปลี่ยนชื่อ และ คำในถุงคำก็มีมากเกินกว่าจะเก็บกลับเข้าไปได้อีก
    • สุดท้าย สิ่งที่เราเปลี่ยนได้มีเพียง อุปมาและกรอบที่ใช้มองเทคโนโลยีนี้ และเราควรเปลี่ยนวิธีคิดไปในทิศทางที่ ไม่เอากรอบของมนุษย์ไปครอบสิ่งที่ไม่ใช่มนุษย์

1 ความคิดเห็น

 
GN⁺ 2025-12-09
ความคิดเห็นจาก Hacker News
  • ในเธรดนี้ คนส่วนใหญ่ใช้คำจำกัดความของ "การคิด(thinking)" กันคนละแบบ
    น่าสนใจที่การถกเถียงดำเนินต่อไปทั้งที่ยังไม่ได้ทำให้คำจำกัดความชัดเจน

  • ผู้คนพูดว่า “การทำนายคำถัดไป” ไม่เกี่ยวกับความคิดของมนุษย์ แต่ฉันคิดว่านั่นไม่ถูก
    การที่มนุษย์ กระทำโดยมีเจตนา หมายถึงการคาดการณ์ผลของการกระทำ แล้วเลือกผลนั้นตามความพึงพอใจ
    ดังนั้นความสามารถในการทำนายจึงเป็นแกนสำคัญของการกระทำโดยเจตนา และถึง LLM จะไม่ได้คิดอย่างสมบูรณ์ ก็ยังอาจเป็น องค์ประกอบของระบบที่คิด ได้

    • ภาษาเป็นสิ่งสำคัญ แต่ฉันไม่คิดว่าโมเดลภาษาจะเรียนรู้ การคิดเชิงนามธรรม หรือกลายเป็นส่วนหนึ่งของมันได้
    • “การทำนายคำถัดไป” ไม่ใช่ทั้งหมดของความคิดมนุษย์ และด้วยตัวมันเองก็ยังเรียกว่าความคิดไม่ได้
    • ถ้า AI ทำงานที่มีประโยชน์ได้ดีกว่ามนุษย์ แนวคิดเรื่อง เหตุผลของการมีอยู่ของมนุษย์ และความหมายของคำว่า ‘คิด’ เองก็คงสั่นคลอน
    • เหมือนมอเตอร์ไซค์ไม่ได้วิ่งด้วยขา LLM ก็ไม่ได้ ‘คิด’ เช่นกัน การต้องพูดอุปมาแบบนี้ซ้ำๆ ทำให้น่าหงุดหงิด
    • LLM อาจไปถึง AGI ได้ แต่มนุษย์ไม่ได้ต้องการโลกที่ มอบหมายการคิดให้เครื่องจักร
  • การได้เห็นผู้คนปฏิบัติต่อ generative AI ราวกับเป็นมนุษย์ทุกวัน ทำให้รู้สึกว่า คำเตือนของ Dijkstra นั้นถูกต้อง
    คำว่า “bag of words” ก็เป็นแนวคิดจริงใน NLP ด้วย จึงไม่ค่อยเหมาะจะใช้เป็นอุปมา
    AI ไม่ใช่แค่ถุงใส่คำ แต่เป็น ผู้เลียนแบบการใช้ภาษาที่มีความหมาย

    • บางคนมองว่า “bag of words” กลับเป็นอุปมาที่สมบูรณ์แบบ เพราะโครงสร้างข้อมูลคือถุง ผลลัพธ์คือคำ และกลยุทธ์การเลือกก็ไม่โปร่งใส
    • ฉันคิดว่า “superpowered sentence completion(การเติมประโยคแบบทรงพลัง)” เป็นคำอธิบายที่ตรงไปตรงมาและมีประโยชน์กว่ามาก
    • อุปมาแบบ “มองโมเดลเป็นคน” กับ “มองเป็นกองคำ” เป็นแนวทางที่ตรงข้ามกันโดยสิ้นเชิง และความต่างนี้คือประเด็นสำคัญ
      อุปมาเก่าอย่าง “word-hoard(คลังสมบัติแห่งถ้อยคำ)” ในภาษาอังกฤษโบราณ ที่มองภาษาเป็นภูมิปัญญาของมนุษย์ ก็ชวนสนใจเช่นกัน
    • ปัญหาคือบริษัทอย่าง OpenAI ใช้ 'อินเทอร์เฟซแชต' ซึ่งยิ่งเสริมภาพลวงตาแบบมนุษย์นิยม
      ถ้าเป็นแค่อินเทอร์เฟซ “เติมประโยค” ความเข้าใจผิดก็คงน้อยลง
    • ปฏิปักษ์ของ “LLM ทุกตัวไม่ได้คิดเหมือนมนุษย์” คือ “ไม่มีมนุษย์คนไหนคิดเหมือน LLM”
      การสรุปแบบนี้ทั้งที่เรายังไม่เข้าใจความคิดมนุษย์อย่างถ่องแท้ถือว่าเร็วเกินไป
      ฉันคิดว่า AGI อาจเกิดขึ้นได้ในโครงสร้างแบบลูปที่มี กลไกความต่อเนื่อง
  • ลองยอมรับอุปมา “bag of words” แต่ก็ต้องมี มุมมองที่กลับด้านมัน
    หากสิ่งที่มนุษย์ทำไปมากมาย สุดท้ายคือ “การเลือกคำที่เหมาะสม” ถุงคำที่พัฒนามากพอก็อาจทำได้ดีกว่ามนุษย์

    • งานบางส่วนของมนุษย์อาจถูกแทนที่ แต่ในเรื่อง การขยายองค์ความรู้ หรือ พื้นที่ของการสร้างสรรค์ มนุษย์ก็ยังมีบทบาทอยู่
    • สุดท้ายมนุษย์เองก็อาจเป็นแค่ ถุงคำราคาแพง ก็ได้ ทำให้นึกถึงคำพูดเก่าว่า “ร่างกายของเราคืออุปกรณ์สำหรับขนย้ายหัว”
    • หากไม่มี ระบบเศรษฐกิจแบบใหม่ ที่ทำให้มนุษย์อยู่รอดได้โดยไม่ต้องทำงาน การถกเถียงนี้ก็ว่างเปล่า
  • ฉันยังไม่แน่ใจว่าจะมอง LLM เป็นเพียงเครื่องอัตโนมัติทางสถิติ หรือเป็น รูปแบบใหม่ของปัญญา
    งาน วิจัยด้าน interpretability ของ Anthropic ชี้ว่ามีโครงสร้างความหมายอยู่ในกองตัวเลขนั้น
    ถ้าดู บทสัมภาษณ์ ของ Amanda Askell จะเห็นว่าเธอบรรยายโมเดลราวกับเป็นมนุษย์ — เช่น “โมเดลอาจรู้สึกกังวล” หรือ “ครุ่นคิดถึงอัตลักษณ์ของตัวเอง”

    • Askell เป็นนักปรัชญาที่เรียนกับ David Chalmers ดังนั้นสิ่งที่เธอพูดจึงไม่ใช่แค่การทำให้เป็นมนุษย์ง่ายๆ แต่มี บริบทของปรัชญาว่าด้วยจิตสำนึก อยู่ด้วย
    • อยากเห็นตัวอย่างที่เป็นรูปธรรม เธออธิบายการจัดแนวโมเดลว่าเป็น “การทำให้มันมีนิสัยที่ดี”
    • ตู้เย็นก็อ่านอินพุตและบรรลุเป้าหมายได้ แต่ไม่ได้ ‘คิด’ อย่างไรก็ตาม LLM ถูกออกแบบมาให้เลียนแบบพฤติกรรมมนุษย์ จึงเป็นธรรมดาที่จะเกิด รูปแบบคล้ายมนุษย์
    • ฉันเคยทดลองเชื่อม Gemini กับ Z-Image-Turbo และมันสร้างภาพใหม่ที่แทบจะเหมือนเดิมทุกประการขึ้นมาได้
      สิ่งนี้แสดงให้เห็นว่าโมเดลภาษาไม่ใช่แค่เครื่องทำนาย แต่เป็น ระบบที่เป็นตัวกลางของความหมาย
    • คำพูดของเธอฟังดูเป็น ภาษามานุษยวิทยาที่ชวนไม่สบายใจ อยู่พอสมควร
  • เมื่อก่อนเคยมีปลั๊กอินเบราว์เซอร์ชื่อ “Cloud-to-Butt” ตอนนี้ก็น่าจะมีเวอร์ชัน “AI-to-Bag of Words” ได้แล้ว

  • ฉันเข้าใจการทำงานภายในของ LLM ดี แต่รู้สึกว่า สงครามต่อต้านการทำให้เป็นมนุษย์นั้นแพ้ไปแล้ว
    ผู้ใช้เชื่อได้ง่ายว่า AI “คิด”, “ต้องการ”, “เข้าใจ”
    และเมื่อบริษัทต่างๆ ก็ส่งเสริมความเข้าใจผิดนี้ สุดท้ายมันคงกลายเป็นแนวคิดแบบ “เชื่ออย่างนั้นไปเพื่อความสะดวก”

    • การถกเถียงแบบนี้มักไหลไปคล้าย ข้อถกเถียงทางศาสนา
      เพราะจิตสำนึกของมนุษย์เป็นสิ่งที่เข้าถึงไม่ได้ หาก LLM ดูคล้ายกัน ผู้คนก็จะถือว่ามัน ‘คิด’
      แต่คนส่วนใหญ่ก็ยังเห็นตรงกันว่า LLM ไม่ได้คิดแบบมนุษย์
    • ในฐานะแพทย์ผู้เชี่ยวชาญด้านประสาทวิทยา ฉันเข้าใจสมองมนุษย์ แต่ความคิดของมนุษย์เองก็เป็นเพียง ลูกโซ่ของปฏิกิริยาเคมีเชิงความน่าจะเป็น
      ในสมองไม่มีจุดเฉพาะที่ ‘ความคิด’ หรือ ‘ความรู้’ เกิดขึ้น มีแต่เราเท่านั้นที่จำเป็นต้องเชื่อว่ามันมี
  • “bag of words” อาจเป็น heuristic ที่มีประโยชน์ สำหรับคาดการณ์ว่า AI จะทำอะไรได้ดีหรือไม่ได้
    แต่ผู้เขียนดูเหมือนจะยกตัวอย่างมาเข้าข้างข้อสรุปทีหลัง ถ้า ChatGPT ตอบถูก เขาก็คงยังรักษาตรรกะเดิมไว้

    • ที่จริง ChatGPT-5.1 และ Gemini 3.0 ให้ คำตอบที่ถูกต้อง ได้ ซึ่งก็เพียงเพราะมีข้อความค้นหาจำนวนมาก
    • คำวิจารณ์แบบนี้มีความหมาย คล้าย การวิเคราะห์ความไว ในการวิเคราะห์ถดถอย ที่ใช้เผยข้อจำกัดของโมเดลเชิงสถิติ
    • การสมมติว่าผู้เขียนจะไม่เปลี่ยนจุดยืนแม้มีหลักฐานใหม่ เป็น การตีความที่ไม่ยุติธรรม
    • การพูดว่า “ฉันไม่รู้เพราะไม่เคยเห็นข้อมูลนั้นมาก่อน” สุดท้ายก็เป็นเพียงตัวอย่างง่ายๆ ของ GIGO(ขยะเข้า-ขยะออก)
    • แค่อ่านย่อหน้าแรกของบทความก็รู้สึกได้ว่าผู้เขียนติด การพรั่งพรูถ้อยคำ(graphomania) เหมือนหมกมุ่นกับสำนวนมากกว่าประเด็นที่ต้องการสื่อ