การคิด — เร็ว ช้า และด้วยปัญญาประดิษฐ์: AI กำลังปรับโครงสร้างวิธีคิดของมนุษย์อย่างไร
(papers.ssrn.com)Thinking—Fast, Slow, and Artificial
งานวิจัยที่มองว่า AI ไม่ใช่เครื่องมือ แต่เป็น ‘ระบบการคิดระบบที่สาม’
- มกราคม 2026, Wharton School แห่งมหาวิทยาลัยเพนซิลเวเนีย
- Steven D. Shaw (นักวิจัยระดับปริญญาเอก)
- Gideon Nave (ศาสตราจารย์ด้านการตลาด/พฤติกรรมศาสตร์)
- ขยายโมเดลการคิดของมนุษย์จาก System 1 / 2 → System 1 / 2 / 3
- ข้ออ้างหลัก:
→ AI ไม่ใช่เพียงเครื่องมือ แต่เป็นระบบการคิด (System 3) ที่ทำงานจากภายนอก
แนวคิดหลัก
แบบเดิม
- System 1: สัญชาตญาณที่รวดเร็ว
- System 2: การวิเคราะห์ที่ช้า
แนวคิดที่เพิ่มเข้ามา
- System 3: AI (ระบบการรับรู้ภายนอก)
- ทำงานนอกสมอง
- อัตโนมัติ อิงข้อมูล และรวดเร็ว
- สามารถช่วยเสริมหรือทดแทนการคิดของมนุษย์ได้
Cognitive Surrender (การยอมจำนนทางการรับรู้)
-
นิยาม:
→ ปรากฏการณ์ที่ยอมรับผลลัพธ์จาก AI ไปตรงๆ โดยไม่ตรวจสอบ -
ความต่างจากแนวคิดเดิม:
- Offloading: ใช้เครื่องมือช่วย (เช่น เครื่องคิดเลข)
- Surrender: มอบการตัดสินใจให้ไปเลย
-
ลักษณะเด่น:
- ผู้ใช้ไม่ได้รับรู้ว่า “AI เป็นคนตอบ” แต่
→ รับรู้ว่า “ฉันเป็นคนตัดสินใจ”
- ผู้ใช้ไม่ได้รับรู้ว่า “AI เป็นคนตอบ” แต่
สรุปการทดลอง
- ผู้เข้าร่วม: 1,372 คน
- รวม 9,593 trials
- มีการปรับความแม่นยำของ AI โดยเจตนา
ผลลัพธ์ 1: มนุษย์ทำตาม AI แทบจะตรงๆ
- AI ตอบถูก → ทำตาม 92.7%
- AI ตอบผิด → ทำตาม 79.8%
→ ต่อให้ผิด คนส่วนใหญ่ก็ยังยอมรับ
ผลลัพธ์ 2: ประสิทธิภาพขึ้นอยู่กับ AI
- Brain-only: 45.8%
- AI ตอบถูก: 71.0%
- AI ตอบผิด: 31.5%
→ ถ้า AI ผิด ก็ทำได้แย่กว่าคิดเองลำพังอีก
ผลลัพธ์ 3: ปัญหาเรื่องความไว้วางใจ + ความมั่นใจ
- เมื่อใช้ AI:
- ความมั่นใจเพิ่มขึ้น +11.7%p
- ไม่ขึ้นกับว่า AI จะผิดหรือถูก
→ ต่อให้ผิด ก็ยิ่งมั่นใจมากขึ้น
ผลลัพธ์ตามเงื่อนไข
แรงกดดันด้านเวลา
- การคิดของมนุษย์อ่อนลง (System 2 ลดลง)
- การพึ่งพา AI ยังคงอยู่
- ผลลัพธ์:
- ถ้า AI ถูก ก็ช่วยได้
- ถ้า AI ผิด ก็ยิ่งแย่ลงต่อเนื่อง
รางวัล + ฟีดแบ็ก
- การแก้ไขข้อผิดพลาดเพิ่มขึ้น
- อัตราการปฏิเสธคำตอบผิดของ AI เพิ่มขึ้น
- แต่:
- Cognitive surrender ไม่ได้หายไปโดยสิ้นเชิง
ความแตกต่างระหว่างบุคคล
Cognitive surrender เพิ่มขึ้นในคนที่:
- ไว้วางใจ AI สูง
- มีแนวโน้มคิดเชิงวิเคราะห์ต่ำ
- มีความสามารถทางการรับรู้ต่ำ
Cognitive surrender ลดลงในคนที่:
- มี Fluid IQ สูง
- มี Need for Cognition สูง
การเปลี่ยนกรอบคิดที่สำคัญ
การคิดของมนุษย์ในตอนนี้
ไม่ใช่แค่ “คิดเร็ว vs คิดช้า” อีกต่อไป
→ แต่กำลังเปลี่ยนเป็นโครงสร้าง “ความคิดของฉัน vs ความคิดของ AI”
ความเสี่ยงหลัก
- ผลลัพธ์เปลี่ยนไปโดยตรงตามความแม่นยำของ AI
- ในสถานการณ์ที่เกิดข้อผิดพลาด:
- การตัดสินใจลดลง
- ความมั่นใจเพิ่มขึ้น
- ผู้ที่ต้องรับผิดชอบกลายเป็นเรื่องไม่ชัดเจน
นัยสำคัญ
-
ปัญหาไม่ใช่การที่ AI ตอบผิด
→ แต่คือผู้ใช้ไม่ตรวจสอบ -
โดยเฉพาะ
→ ในงานที่ต้องการการตัดสินใจระดับสติปัญญาสูง ความเสี่ยงจะยิ่งทวีคูณ
ที่เกี่ยวข้อง: https://news.ycombinator.com/item?id=47467913
2 ความคิดเห็น
อืม ก็จริงนะครับ ถ้า AI ตัดสินผิด ผมมักจะให้ AI ช่วยแก้มากกว่าจะคิดเอง สุดท้ายก็ยังหาคำตอบไม่ได้ เลยจำได้ว่าเคยเปิดเซสชันใหม่อยู่เหมือนกัน..
เหตุใดระบบ AI จึงไม่เรียนรู้ และเราควรทำอย่างไรกับมัน
บทเรียนว่าด้วยการเรียนรู้อย่างอัตโนมัติจากวิทยาศาสตร์การรู้คิด
Emmanuel Dupoux, Yann LeCun, Jitendra Malik
https://arxiv.org/pdf/2603.15381