AI กำลังทำให้ความคิดของเรากลายเป็นแบบเดียวกัน
(newyorker.com)- งานวิจัยของ MIT พบว่า กลุ่มที่ใช้ ChatGPT มีการทำงานของสมองต่ำกว่าเมื่อเทียบกัน
- การใช้ปัญญาประดิษฐ์ทำให้ ความคิดสร้างสรรค์และความหลากหลาย ลดลง และก่อให้เกิดปรากฏการณ์ที่ผลงานมีลักษณะเหมือนกันมากขึ้น
- งานวิจัยจากมหาวิทยาลัย Cornell ก็ยืนยันเช่นกันว่า แม้แต่การเขียนที่สะท้อน ความแตกต่างทางวัฒนธรรมและความเป็นปัจเจก ก็มีแนวโน้มจะไหลไปรวมสู่ความเป็นตะวันตกและความเป็นค่าเฉลี่ยเมื่อใช้ AI
- คำตอบที่เป็นค่าเฉลี่ยและปลอดภัย ที่ AI นำเสนอ อาจทำให้ความหลากหลายทางวัฒนธรรมและเอกลักษณ์ส่วนบุคคลอ่อนแอลง
- ผลกระทบระยะยาว ของ AI ที่ถูกใช้อย่างแพร่หลายยังไม่เป็นที่เข้าใจอย่างเพียงพอ แต่การทำให้ความคิดง่ายลงและเป็นแบบเดียวกันกำลังกลายเป็นข้อกังวลสำคัญ
การทดลองและข้อค้นพบสำคัญ
- ในปี 2023 MIT ได้แบ่งนักศึกษามหาวิทยาลัยราว 50 คนในย่านบอสตันออกเป็น 3 กลุ่มเพื่อทำการทดลองเขียนเรียงความสไตล์ SAT
- กลุ่มหนึ่งใช้เพียง สมอง ของตนเองเท่านั้น
- กลุ่มที่สองสามารถใช้ Google Search ได้
- กลุ่มที่สามใช้ ChatGPT ในการเขียนเรียงความ
- ผู้เข้าร่วมทุกคนสวม เฮดเซ็ตวัดคลื่นสมอง และผลการวิเคราะห์พบว่ากลุ่มที่ใช้ ChatGPT มีการทำงานของสมองต่ำที่สุด
- มีการสังเกตว่าการ เชื่อมโยงกัน ระหว่างหลายส่วนของสมอง (คลื่นอัลฟาและธีตา) ลดลง
- ผู้ใช้บางคนแสดงให้เห็นถึง การขาดความรู้สึกเป็นเจ้าของ ต่อเรียงความที่ตนเขียน และคนส่วนใหญ่ไม่สามารถอ้างอิงสิ่งที่เขียนเองได้ด้วยซ้ำ
- นักวิจัยของ MIT เรียกสิ่งนี้ว่า ต้นทุนทางการรู้คิดจากการพึ่งพา AI
AI กับการทำให้ความคิดกลายเป็นค่าเฉลี่ย
- เรียงความของกลุ่มที่ใช้ ChatGPT แสดงแนวโน้มว่าจะไปรวมกันที่ คำและแนวคิดคล้ายกัน
- แม้พรอมป์ต์ SAT จะเปิดกว้างให้ตอบได้หลากหลาย แต่กลุ่มที่ใช้ AI กลับใช้ตรรกะและคำศัพท์ที่ เป็นแบบเดียวกัน
- ตัวอย่างเช่น คำตอบเรื่อง ‘ความสุขที่แท้จริง’ ล้วนมุ่งไปที่อาชีพและความสำเร็จ ส่วนคำถามเรื่อง ‘หน้าที่ทางศีลธรรมในการบริจาค’ ก็มีแต่จุดยืนเห็นด้วยอย่างสม่ำเสมอ
- ตามคำอธิบายของ นักวิจัย Kosmyna จาก MIT มีการพบปรากฏการณ์ที่ “ทุกอย่างถูกรวบให้กลายเป็นค่าเฉลี่ย”
การอ่อนตัวลงของความหลากหลายเชิงสาธารณะและวัฒนธรรม
- ทีมนักวิจัยจาก Cornell ทำการทดลองให้ผู้ใช้จากสหรัฐอเมริกาและอินเดียเขียนข้อความโดยสะท้อน ภูมิหลังทางวัฒนธรรม ของตน
- บางคนใช้ระบบเติมข้อความอัตโนมัติที่เชื่อมกับ ChatGPT ขณะที่บางคนไม่ใช้
- เมื่อใช้ระบบเติมข้อความอัตโนมัติ พบว่างานเขียนของผู้เข้าร่วมไหลไปรวมสู่ แนวโน้มแบบตะวันตกและแบบค่าเฉลี่ย และยิ่งคล้ายกันมากขึ้น
- ในคำถามเกี่ยวกับอาหารและวันหยุดเทศกาล พิซซ่าและคริสต์มาส กลายเป็นคำตอบยอดนิยมซ้ำ ๆ ขณะที่ความแตกต่างตามท้องถิ่นมีน้อยมาก
- แม้แต่รายละเอียดและบรรยากาศของเรียงความก็เปลี่ยนไปใช้ วลีธรรมดาทั่วไป เป็นหลัก
อิทธิพลของคำแนะนำจากเครื่องมือ AI และการลดทอนอัตลักษณ์
- ผู้เขียนอธิบายว่าฟังก์ชันคำแนะนำของ AI มี ‘ผลแบบสะกดจิต’ ที่ทำให้ เสียงของตัวเอง ของนักเขียนอ่อนลง
- มีความกังวลว่าการ เผชิญอย่างต่อเนื่อง อาจทำให้สูญเสียความมั่นใจในการเขียนและอัตลักษณ์ของตน
- คำแนะนำของ AI ไม่ได้ทำให้เพียงความคิดของผู้ใช้เป็นค่าเฉลี่ยเท่านั้น แต่ยังมีบทบาททำให้ วิธีคิด เองกลายเป็นค่าเฉลี่ยด้วย
- ผลลัพธ์คืออาจนำไปสู่การเปลี่ยนแปลงของการรับรู้ทางสังคมเกี่ยวกับ “อะไรคือเรื่องปกติและพึงประสงค์”
แรงขับเคลื่อนทางอุตสาหกรรมและการทำให้วัฒนธรรมเป็นมาตรฐานเดียวกัน
- OpenAI และบริษัทพัฒนา AI อื่น ๆ ออกแบบระบบให้ผู้ใช้จำนวนมากขึ้นพึงพอใจกับ ผลลัพธ์ที่เป็นแบบทั่วไปและเป็นค่าเฉลี่ย
- ยิ่งส่งมอบผลลัพธ์ของโมเดลที่ยอมรับได้สำหรับคนจำนวนมาก ก็ยิ่งมีโอกาสได้ผู้ใช้แบบเสียเงินมากขึ้น
- ในแง่ของ ประสิทธิภาพ ก็สามารถทำให้เกิดการประหยัดต่อขนาดได้เมื่อ ‘ทุกอย่างเหมือนกัน’
AI กับความคิดสร้างสรรค์: ข้อจำกัดเชิงการทดลอง
-
Sam Altman ซีอีโอของ OpenAI และคนอื่น ๆ ระบุว่า AI ทำให้ ใคร ๆ ก็เป็นครีเอเตอร์ได้
-
แต่ในการทดลองกลับพบว่ากลุ่มที่ใช้ AI มีแนวโน้มจะให้ไอเดียที่เป็นค่าเฉลี่ยและคล้ายกันมากขึ้นในแง่ของ ความเป็นต้นฉบับ
- งานวิจัยจากมหาวิทยาลัย Santa Clara เปรียบเทียบ ChatGPT กับเครื่องมือส่งเสริมความคิดสร้างสรรค์แบบเดิมอย่าง Oblique Strategies
- ผู้ใช้ ChatGPT แสดงแนวโน้มที่ไอเดียมี ความคล้ายคลึงกันเชิงความหมาย หรือก็คือมีแนวโน้มเป็นแบบเดียวกัน
-
ตามคำอธิบายของนักวิเคราะห์การทดลอง Max Kreminski ความคิดดิบตามธรรมชาติของมนุษย์กำลังค่อย ๆ ถูกดึงไปทาง ค่าเฉลี่ยของ AI
- เมื่อ AI สร้าง “คำตอบที่ดีพอใช้” ได้อย่างรวดเร็วซ้ำ ๆ ผู้ใช้ก็จะหมกมุ่นกับการ คัดเลือกผลลัพธ์ของ AI มากกว่าการพัฒนาไอเดียของตนเอง
- ยิ่งบทสนทนายาวขึ้น ข้อจำกัดของ context window ของ AI ก็ยิ่งเสริมให้คำตอบซ้ำ ๆ และเป็นค่าเฉลี่ยมากขึ้น
สภาพแวดล้อม AI ที่แพร่หลายและการขาดความหลากหลายของข้อมูล
- งานวิจัยส่วนใหญ่ยังเป็น การทดลองขนาดเล็ก แต่ผลกระทบระยะยาวของ AI ยังคงไม่ชัดเจน
- ในแอป AI ของ Meta และบริการลักษณะเดียวกัน มีการสร้าง คอนเทนต์ที่ลื่นไหลเกินไปและมีรูปแบบซ้ำกัน จำนวนมหาศาลโดยผู้คนมากมาย
- ทั้งอีเมลอัตโนมัติและคำขอในชีวิตประจำวันต่างเต็มไปด้วย รูปแบบและคำศัพท์ที่เหมือน ๆ กัน
- แม้แต่ในตัวอย่างพรอมป์ต์จริง ก็พบว่า AI มักแจกแจงแต่อนาคตเชิงบวก และตัดฉากทัศน์เชิงลบหรือความเสี่ยงออกไป
- สิ่งนี้ชี้ให้เห็นว่า อคติแบบนิยมเทคโนโลยีในกระบวนการออกแบบ AI อาจนำไปสู่การลดลงของความหลากหลายของผลลัพธ์
บทสรุปและแนวโน้ม
- หากใครจะเชื่อเฉพาะข้อมูลที่ AI นำเสนอ ก็จำเป็นต้อง หยุดคิด เสียก่อน
- สังคมและวัฒนธรรมจำเป็นต้องตื่นตัวต่อปรากฏการณ์ที่ AI ทำให้ ความคิดกลายเป็นค่าเฉลี่ยและความคิดสร้างสรรค์อ่อนแอลง
3 ความคิดเห็น
ตอนอินเทอร์เน็ตเพิ่งออกมาใหม่ ๆ ก็น่าจะมีประเด็นคล้ายกันเหมือนกันนะครับ/ค่ะ ผม/ฉันคิดว่าความสามารถในการพัฒนาการคิดเชิงวิพากษ์น่าจะสำคัญกว่าไม่ใช่หรือ
ก็น่าจะดีกว่าการรับข้อมูลผิด ๆ จากการค้นหาอินเทอร์เน็ตหรือจาก YouTube นะครับ ผมคิดว่ามันยังดีกว่าการรับข้อมูลที่มีอคติเพื่อจุดประสงค์ในการเป็นตัวแทนผลประโยชน์ของกลุ่มใดกลุ่มหนึ่ง อาจมีคนบอกได้ว่า AI เองก็มีอคติเหมือนกัน แต่ผมคิดว่าความน่าเชื่อถือของมันก็ยังสูงกว่าค่าเฉลี่ยของข้อมูลสุ่ม ๆ ที่ลอยอยู่บนอินเทอร์เน็ตอยู่ดี และในแง่ที่ว่าถ้าไม่มีการคิดอย่างมีวิจารณญาณก็อาจรับข้อมูลผิด ๆ เข้าไปได้ มันก็คล้ายกันเหมือนกัน
ความคิดเห็นจาก Hacker News
ช่วงนี้รู้สึกว่า "ช่องว่างดิจิทัล" ที่แท้จริงถูกแบ่งตามว่าคนคนนั้นได้พัฒนาทักษะการคิดเชิงวิพากษ์มาจนแข็งแรงแล้วหรือยังในช่วงไม่กี่ปีที่ผ่านมา สำหรับคนที่สร้างความสามารถนี้ขึ้นมาผ่านการอ่านอย่างหลากหลายและการใคร่ครวญอย่างอดทน เครื่องมืออย่าง LLM ให้ความรู้สึกเหมือนมอบกุญแจสำหรับขี่ wave runner กลางทะเลข้อมูลอันปั่นป่วน แต่สำหรับคนที่เพิ่งต้องมาเรียนรู้การคิดเชิงวิพากษ์ตอนนี้ ดูเหมือนว่าจะยากที่จะผ่านพ้นความลำบากของการใคร่ครวญได้หากไม่หันไปหา LLM จนเป็นนิสัย การทนอยู่กับความกำกวมด้วยตนเอง ซึ่งก็คือช่วงเวลาที่ข้อมูลเปลี่ยนเป็นความรู้ กลับถูกทำให้หายไปในทันทีตรงนี้ รู้สึกโล่งใจที่ได้พัฒนาความสามารถนี้มาก่อนปี 2023 แต่ก็กลัวอยู่เหมือนกันกับความจริงที่ว่าคนรุ่นใหม่กำลังได้รับ LLM เป็นเครื่องมือการเรียนรู้แบบไร้เงื่อนไข
ผมคิดว่ามุมมองสิ้นหวังแบบที่ว่า AI จะทำให้ทุกคนโง่ลงนั้น แท้จริงเป็นการประเมินสูงเกินไปต่อความจริงที่ว่าคนส่วนใหญ่เดิมทีก็ไม่ได้มีทักษะการคิดเชิงวิพากษ์โดดเด่นอยู่แล้ว ตลอดเกือบ 20 ปีที่ทำงานในสายวิศวกรรมขั้นสูง คนที่เข้าใจแนวคิดซับซ้อนอย่างแท้จริงนั้นพบได้ยาก แม้ในหมู่ผู้เชี่ยวชาญที่ accomplished แล้วก็ตาม ผมจึงคาดว่าการมีคำตอบง่าย ๆ ให้กับคนส่วนใหญ่ที่เดิมทีก็ไม่ได้คิดอย่างมีวิจารณญาณ จะไม่ได้ทำให้คนฉลาดเสียเปรียบอะไร
เมื่อนึกถึงตัวเองตอนเด็ก ก็มีประสบการณ์ว่าถ้าไล่ตามแต่ความสนุกระยะสั้น สุดท้ายก็ไม่ได้เรียนรู้อะไรเลย
รู้สึกเหมือนยุค Idiocracy กำลังใกล้เข้ามา
ผมคิดว่าเทคโนโลยีการเชื่อมต่อทุกชนิดมีพลังในการผลักดันความเป็นเนื้อเดียวกัน ตัวอย่างเช่น TV เป็นกรณีตัวแทนที่ทำให้ภาษาถิ่นท้องถิ่นค่อย ๆ เลือนหายไป เรากำลังสร้างโลกที่เศร้า น่าเบื่อ และโดดเดี่ยว ด้วยความบันเทิง ความสนุก และการเชื่อมต่อที่ไม่จำกัด
อยากรู้ว่ามีหลักฐานอะไรบ้างที่บอกว่าภาษาถิ่นท้องถิ่นหายไปแล้ว เวลาเดินทางในอเมริกาหลายพื้นที่ก็ยังได้ยินสำเนียงท้องถิ่นหลากหลายอยู่ ผมมีญาติอยู่ทั้งฝั่งตะวันตก มิดเวสต์ ใต้ และตะวันออก ซึ่งแต่ละพื้นที่ก็ยังมีสำเนียงชัดเจนต่างกัน แม้ระดับความเข้มจะต่างกันแต่ก็ยังเด่นชัดอยู่
ที่จริง social media ก็ทำให้วิธีคิดของเรากลายเป็นเนื้อเดียวกันไปมากแล้ว ข้อมูลและมุมมองถาโถมเข้ามาพร้อมกันมากเกินไป จนเราทนไม่ไหวหากไม่ยืมแรงบันดาลใจจากความคิดของคนอื่น แทนที่จะสร้างความเห็นของตัวเอง ปุ่มอัปโหวตก็ช่วยกำหนดให้แบบง่าย ๆ ว่าความคิดไหนคือสิ่งที่ทุกคนเห็นพ้องกัน
เราควรทำอย่างไรดี กำลังสงสัยว่าความพยายามจริงจังอย่าง Offline Club[https://www.theoffline-club.com/] จะเป็นยาแก้พิษได้หรือไม่ ประเด็นทำนองนี้ก็เพิ่งถูกพูดถึงใน Hacker News ไม่นานนี้ เป็นการคิดต่อเรื่องเทคโนโลยีแบบ 'grass touching'
ถึงอย่างนั้น ความหลากหลายที่เกิดจากสภาพแวดล้อมทางภูมิศาสตร์ก็ยังกำหนดบางประสบการณ์อยู่ แน่นอนว่าจุดมุ่งหมายอย่างหนึ่งของเทคโนโลยียุคนี้ก็คือการชดเชยหรือปิดกั้นลักษณะเฉพาะทางภูมิศาสตร์เหล่านี้
สำหรับ AI ปัญหาคือใครกันแน่ที่เป็นผู้จัดการความเป็นเนื้อเดียวกันนี้ และทำไปเพื่อเป้าหมายอะไร ระบบที่มีพลวัตอย่าง IRC หรือเมสเซนเจอร์ ช่วยให้ผู้คนเชื่อมต่อกันและรวมกลุ่มกันได้อย่างเป็นธรรมชาติ แต่ AI เป็นเครื่องมือปิดที่ถูกสร้างขึ้นจากเงินทุนของนายทุนผู้มั่งคั่ง ดังนั้นสุดท้ายจึงมีการทำให้เหมือนกันโดยนัยเพื่อปกป้องโมเดลธุรกิจและลดความเสี่ยง ภัยคุกคามที่แท้จริงคือปรากฏการณ์ที่ความเป็นจริงถูก 'ประพันธ์' ให้สอดรับกับวัตถุประสงค์บางอย่าง
มองว่าความคิดของตัวเองจะถูกทำให้เป็นเนื้อเดียวกันก็ต่อเมื่อคุณไม่ได้คิดด้วยตัวเองเท่านั้น ซึ่งก็น่าจะเป็นจุดอ่อนของคนจำนวนมาก
มีข้อสังเกตว่า คนประเภทที่บอกว่า "ฉันค้นคว้าเอง" กลับมักตกอยู่ในภาวะคิดเป็นกลุ่มอย่างรุนแรงที่สุดอย่างน่าขัน
เมื่อมีคนจำนวนมากที่ใช้ระบบสัจพจน์โครงสร้างคล้ายกัน ก็ย่อมได้ข้อสรุปที่คล้ายกัน บางคนเชื่อว่าตัวเองคิดอย่างเป็นอิสระ ทั้งที่อยู่ในกลุ่มอุดมการณ์ใดอุดมการณ์หนึ่งอยู่แล้ว มีหลายครั้งที่แรงผลักให้สมาชิกในชุมชนคิดคล้ายกันนั้นทรงพลังมาก ในทางกลับกัน บางคนใช้ 'กลยุทธ์ล่าขุมทรัพย์' เพื่อขุดหาแนวคิดหรือไอเดียใหม่จากพื้นที่ของมีมที่ยังไม่รู้จัก แต่กลยุทธ์แบบนี้ก็มีข้อจำกัดตรงที่ความเสี่ยงสูงและต้องมีทรัพยากรพอจะลองผิดลองถูกได้หลายครั้ง
เห็นด้วยกับคำกล่าวที่ว่า "ถ้าไม่คิดเองก็จะถูกทำให้เหมือนกัน" และอยากแนะนำให้ลองสังเกตดูสักครั้งว่าเพื่อนหรือครอบครัวที่ไม่ใช่สายเทคหรือไม่คุ้นกับเทคโนโลยีใช้ ChatGPT กันอย่างไร เพราะมีกรณีน่าตกใจอยู่ไม่น้อย คนที่ไม่เข้าใจเครื่องมือ LLM ดีพอกำลังใช้งานมันอย่างอันตรายจริง ๆ เช่น พี่เขยของเพื่อนผมเชื่อคำบอกเล่าจาก ChatGPT ว่าจะได้ผลตอบแทนมหาศาลจากหุ้นเพนนีกับคริปโตที่ไม่ค่อยมีใครรู้จัก แล้วก็เอาเงินไปลงทุนจริง ๆ บางคนถึงขั้นเชื่อว่า ChatGPT กำลังส่งเสียงของพระเจ้ามาให้และลงมือทำเรื่องแปลก ๆ LLM เชิงพาณิชย์ทำงานได้แนบเนียนพอจนคนที่ไม่รู้หลักการทำงานของมันหลงเชื่อได้ง่าย ตัวผมเองพัฒนาความระแวงขึ้นมาเพราะเคยเจอข้อผิดพลาดชัด ๆ จากผลลัพธ์ของ LLM แต่คนที่ตัดสินอย่างเป็นกลางได้ยากมีความเสี่ยงสูงที่จะเชื่อทุกอย่างไปเลย
มีงานวิจัยของ Nataliya Kosmyna จาก MIT Media Lab ที่แบ่งนักศึกษามหาวิทยาลัยในบอสตันราว 50 คนออกเป็น 3 กลุ่มแล้วทดลอง พบว่ากลุ่มที่ใช้ ChatGPT มีการทำงานของสมองลดลงอย่างชัดเจนเมื่อเทียบกับกลุ่มอื่น โดยเฉพาะการเชื่อมต่อของคลื่นอัลฟาและธีตาที่เกี่ยวข้องกับความคิดสร้างสรรค์และ working memory แต่ก็สงสัยว่างานวิจัย fMRI ที่มี n ขนาดเล็กแบบนี้เชื่อถือได้ในฐานะผลวิทยาศาสตร์จริงหรือไม่ หรือแท้จริงอาจเป็นเพียงผลลัพธ์แบบฉูดฉาดที่พึ่งพาอคติยืนยันความเชื่อ
ช่วงนี้บทความแนว 'คำพยากรณ์หายนะ' ที่เกินจริงกำลังทำให้ความคิดของผู้คนเป็นไปในทิศทางเดียวกันมากเกินไป ข้ออ้างเหล่านี้มีส่วนที่ฟังขึ้นแน่นอน แต่ในความเป็นจริงยังมีรายละเอียดที่ละเอียดอ่อนกว่านั้นมาก
ยกตัวอย่างการเปลี่ยนแปลงของเทคโนโลยีสื่อในอดีตอย่าง TV, social media, แท่นพิมพ์ และเล่าประวัติศาสตร์ของความหวาดกลัวสื่อที่เคยเกิดซ้ำมาแล้ว บทความที่เกี่ยวข้อง
สื่อมวลชนทำให้ input ของเรา (การเสพข้อมูล) กลายเป็นเนื้อเดียวกัน ถ้า AI ต่างจากสื่อเดิม ก็ควรคิดต่อด้วยว่ามันอาจทำให้ output ของเรา (สิ่งที่ผลิตออกมา) กลายเป็นเนื้อเดียวกันโดยตรงได้ด้วย
ก่อนมีแท่นพิมพ์ ผู้คนทั่วโลกอาจกำลังมีบทสนทนาที่แตกต่างกันอยู่ 8 พันล้านบทสนทนา แต่การพิมพ์ทำให้กลุ่มเล็กหลากหลายค่อย ๆ ขยายใหญ่ขึ้น และเริ่มสนทนาเรื่องเดียวกันในวงกว้างมากขึ้น
SNS, TV, Hollywood และวัฒนธรรมกระแสหลักโดยรวม ก็มีบทบาทในการทำให้สังคมเป็นเนื้อเดียวกันเช่นกัน
มีความเห็นว่าทฤษฎีบทขีดจำกัดส่วนกลาง (central limit theorem) ทำงานอย่างสม่ำเสมอเสมอ
ท้ายที่สุดแล้วเราคงมีชะตาที่ต้องยืนอยู่บนไหล่ของยักษ์ที่ถูกทำให้เป็นเนื้อเดียวกัน
ผมคิดว่าสิ่งที่ AI ทำตอนนี้ก็ไม่ได้ต่างจากตอนเรียนสายมนุษยศาสตร์ในมหาวิทยาลัยที่ผมอ้างอิงงานวิจัย แล้วคัดลอกมาผสานเข้ากับไอเดียของตัวเองมากนัก สุดท้ายแล้ว AI จะกลายเป็นอุปกรณ์ช่วยคิดของตัวเองหรือไม่ ก็ขึ้นอยู่กับมาตรฐานและการรับรู้ของแต่ละคน