24 คะแนน โดย helio 2026-03-22 | 2 ความคิดเห็น | แชร์ทาง WhatsApp

Thinking—Fast, Slow, and Artificial

งานวิจัยที่มองว่า AI ไม่ใช่เครื่องมือ แต่เป็น ‘ระบบการคิดระบบที่สาม’

  • มกราคม 2026, Wharton School แห่งมหาวิทยาลัยเพนซิลเวเนีย
    • Steven D. Shaw (นักวิจัยระดับปริญญาเอก)
    • Gideon Nave (ศาสตราจารย์ด้านการตลาด/พฤติกรรมศาสตร์)
  • ขยายโมเดลการคิดของมนุษย์จาก System 1 / 2 → System 1 / 2 / 3
  • ข้ออ้างหลัก:
    → AI ไม่ใช่เพียงเครื่องมือ แต่เป็นระบบการคิด (System 3) ที่ทำงานจากภายนอก

แนวคิดหลัก

แบบเดิม

  • System 1: สัญชาตญาณที่รวดเร็ว
  • System 2: การวิเคราะห์ที่ช้า

แนวคิดที่เพิ่มเข้ามา

  • System 3: AI (ระบบการรับรู้ภายนอก)
    • ทำงานนอกสมอง
    • อัตโนมัติ อิงข้อมูล และรวดเร็ว
    • สามารถช่วยเสริมหรือทดแทนการคิดของมนุษย์ได้

Cognitive Surrender (การยอมจำนนทางการรับรู้)

  • นิยาม:
    → ปรากฏการณ์ที่ยอมรับผลลัพธ์จาก AI ไปตรงๆ โดยไม่ตรวจสอบ

  • ความต่างจากแนวคิดเดิม:

    • Offloading: ใช้เครื่องมือช่วย (เช่น เครื่องคิดเลข)
    • Surrender: มอบการตัดสินใจให้ไปเลย
  • ลักษณะเด่น:

    • ผู้ใช้ไม่ได้รับรู้ว่า “AI เป็นคนตอบ” แต่
      → รับรู้ว่า “ฉันเป็นคนตัดสินใจ”

สรุปการทดลอง

  • ผู้เข้าร่วม: 1,372 คน
  • รวม 9,593 trials
  • มีการปรับความแม่นยำของ AI โดยเจตนา

ผลลัพธ์ 1: มนุษย์ทำตาม AI แทบจะตรงๆ

  • AI ตอบถูก → ทำตาม 92.7%
  • AI ตอบผิด → ทำตาม 79.8%

→ ต่อให้ผิด คนส่วนใหญ่ก็ยังยอมรับ


ผลลัพธ์ 2: ประสิทธิภาพขึ้นอยู่กับ AI

  • Brain-only: 45.8%
  • AI ตอบถูก: 71.0%
  • AI ตอบผิด: 31.5%

→ ถ้า AI ผิด ก็ทำได้แย่กว่าคิดเองลำพังอีก


ผลลัพธ์ 3: ปัญหาเรื่องความไว้วางใจ + ความมั่นใจ

  • เมื่อใช้ AI:
    • ความมั่นใจเพิ่มขึ้น +11.7%p
    • ไม่ขึ้นกับว่า AI จะผิดหรือถูก

→ ต่อให้ผิด ก็ยิ่งมั่นใจมากขึ้น


ผลลัพธ์ตามเงื่อนไข

แรงกดดันด้านเวลา

  • การคิดของมนุษย์อ่อนลง (System 2 ลดลง)
  • การพึ่งพา AI ยังคงอยู่
  • ผลลัพธ์:
    • ถ้า AI ถูก ก็ช่วยได้
    • ถ้า AI ผิด ก็ยิ่งแย่ลงต่อเนื่อง

รางวัล + ฟีดแบ็ก

  • การแก้ไขข้อผิดพลาดเพิ่มขึ้น
  • อัตราการปฏิเสธคำตอบผิดของ AI เพิ่มขึ้น
  • แต่:
    • Cognitive surrender ไม่ได้หายไปโดยสิ้นเชิง

ความแตกต่างระหว่างบุคคล

Cognitive surrender เพิ่มขึ้นในคนที่:

  • ไว้วางใจ AI สูง
  • มีแนวโน้มคิดเชิงวิเคราะห์ต่ำ
  • มีความสามารถทางการรับรู้ต่ำ

Cognitive surrender ลดลงในคนที่:

  • มี Fluid IQ สูง
  • มี Need for Cognition สูง

การเปลี่ยนกรอบคิดที่สำคัญ

การคิดของมนุษย์ในตอนนี้
ไม่ใช่แค่ “คิดเร็ว vs คิดช้า” อีกต่อไป

→ แต่กำลังเปลี่ยนเป็นโครงสร้าง “ความคิดของฉัน vs ความคิดของ AI”


ความเสี่ยงหลัก

  • ผลลัพธ์เปลี่ยนไปโดยตรงตามความแม่นยำของ AI
  • ในสถานการณ์ที่เกิดข้อผิดพลาด:
    • การตัดสินใจลดลง
    • ความมั่นใจเพิ่มขึ้น
  • ผู้ที่ต้องรับผิดชอบกลายเป็นเรื่องไม่ชัดเจน

นัยสำคัญ

  • ปัญหาไม่ใช่การที่ AI ตอบผิด
    → แต่คือผู้ใช้ไม่ตรวจสอบ

  • โดยเฉพาะ
    → ในงานที่ต้องการการตัดสินใจระดับสติปัญญาสูง ความเสี่ยงจะยิ่งทวีคูณ


ที่เกี่ยวข้อง: https://news.ycombinator.com/item?id=47467913

2 ความคิดเห็น

 
bini59 2026-03-23

อืม ก็จริงนะครับ ถ้า AI ตัดสินผิด ผมมักจะให้ AI ช่วยแก้มากกว่าจะคิดเอง สุดท้ายก็ยังหาคำตอบไม่ได้ เลยจำได้ว่าเคยเปิดเซสชันใหม่อยู่เหมือนกัน..

 
mrtj0329 2026-03-23

เหตุใดระบบ AI จึงไม่เรียนรู้ และเราควรทำอย่างไรกับมัน
บทเรียนว่าด้วยการเรียนรู้อย่างอัตโนมัติจากวิทยาศาสตร์การรู้คิด
Emmanuel Dupoux, Yann LeCun, Jitendra Malik
https://arxiv.org/pdf/2603.15381