- งานวิจัยที่วิเคราะห์เชิงทดลองว่า การเขียนเรียงความโดยใช้โมเดลภาษาขนาดใหญ่ (LLM) ส่งผลต่อ การทำงานของสมองและภาระทางการรู้คิด ของมนุษย์อย่างไร
- ผู้ใช้ LLM มี ความรู้สึกเป็นเจ้าของงานเขียนต่ำกว่า และมีความยากลำบากในการอ้างอิงข้อความที่ตนเขียนได้อย่างถูกต้อง อีกทั้งในระยะยาวยังมี ผลการปฏิบัติที่ลดลงอย่างต่อเนื่องในระดับภาษา พฤติกรรม และระบบประสาท
- ผู้เข้าร่วมถูกแบ่งเป็น 3 กลุ่ม ได้แก่ LLM, เสิร์ชเอนจิน และใช้สมองอย่างเดียว (Brain-only) เพื่อทำโจทย์เดียวกัน และบางส่วนมีการสลับเงื่อนไขเพื่อเปรียบเทียบ
- ผล EEG (การวัดคลื่นไฟฟ้าสมอง) พบว่า กลุ่ม Brain-only มีเครือข่ายการเชื่อมโยงของสมองที่แข็งแรงและกว้างขวางที่สุด ขณะที่ผู้ใช้ LLM มีการเชื่อมโยงอ่อนที่สุด
- งานวิจัยชี้ว่า การพึ่งพา AI อาจก่อให้เกิดต้นทุนทางการรู้คิดในกระบวนการเรียนรู้ และตั้งคำถามถึงความจำเป็นในการทบทวนผลกระทบด้านการศึกษาอย่างลึกซึ้ง
ภาพรวมงานวิจัย
- งานวิจัยนี้สำรวจว่า การใช้เครื่องมือช่วยเขียนด้วย AI ระหว่างการเขียนเรียงความส่งผลต่อกิจกรรมของสมองและพฤติกรรมอย่างไร
- ผู้เข้าร่วมถูกแบ่งเป็น 3 กลุ่ม ได้แก่ LLM (เช่น ChatGPT), เสิร์ชเอนจิน และ Brain-only (ไม่ใช้เครื่องมือ)
- แต่ละกลุ่มทำการทดลอง 3 เซสชันภายใต้เงื่อนไขเดียวกัน และในเซสชันที่ 4 มีบางส่วนสลับเงื่อนไข
- ผู้ใช้ LLM เปลี่ยนไปเป็น Brain-only (LLM-to-Brain)
- ผู้ใช้ Brain-only เปลี่ยนไปใช้เงื่อนไข LLM (Brain-to-LLM)
- มีผู้เข้าร่วมทั้งหมด 54 คนในเซสชัน 1~3 และ 18 คนทำครบถึงเซสชัน 4
วิธีการทดลอง
- ใช้ EEG (คลื่นไฟฟ้าสมอง) วัด ภาระทางการรู้คิดและการเชื่อมโยงของสมอง ระหว่างการเขียนเรียงความ
- เรียงความที่เขียนถูกนำไปวิเคราะห์ด้วย การประมวลผลภาษาธรรมชาติ (NLP) ควบคู่กับการให้คะแนนโดย ครูผู้ประเมินและผู้ประเมิน AI
- ผลการวิเคราะห์ NER (การรู้จำชื่อเฉพาะ), รูปแบบ n-gram และ ออนโทโลยีของหัวข้อ พบว่าภายในแต่ละกลุ่มมีความคล้ายคลึงกันสูง
ผลลัพธ์สำคัญ
- การวิเคราะห์ EEG ยืนยันว่ามีความแตกต่างชัดเจนระหว่างกลุ่ม
- กลุ่ม Brain-only แสดง เครือข่ายการเชื่อมโยงของสมองที่แข็งแรงและกว้างขวางที่สุด
- กลุ่มเสิร์ชเอนจินมี ระดับการมีส่วนร่วมปานกลาง
- กลุ่ม LLM มี การเชื่อมโยงอ่อนที่สุด
- พบแนวโน้มว่า ยิ่งใช้เครื่องมือภายนอกมาก กิจกรรมทางการรู้คิดก็ยิ่งลดลง
- ในเซสชัน 4 ผู้ที่เปลี่ยนจาก LLM-to-Brain มี การเชื่อมโยงในย่านอัลฟาและเบตาลดลง ซึ่งหมายถึง ภาวะการทำงานทางการรู้คิดต่ำ
- ในทางกลับกัน ผู้ที่เปลี่ยนจาก Brain-to-LLM มี ความสามารถในการดึงความจำกลับมาดีขึ้น และมี การกระตุ้นในบริเวณท้ายทอย-ข้างขม่อมและพรีฟรอนทัล ซึ่งคล้ายกับผู้ใช้เสิร์ชเอนจิน
การสังเกตเชิงพฤติกรรมและภาษา
- ความรู้สึกเป็นเจ้าของต่อเรียงความ (Self-reported ownership) ต่ำที่สุดในกลุ่ม LLM และสูงที่สุดในกลุ่ม Brain-only
- ผู้ใช้ LLM มี ความยากลำบากในการอ้างอิงข้อความของตนเองได้อย่างถูกต้อง
- ผลการติดตามเป็นเวลา 4 เดือน พบว่า ผู้ใช้ LLM มี ผลการปฏิบัติที่ต่ำอย่างต่อเนื่องในระดับระบบประสาท ภาษา และพฤติกรรม
บทสรุปและนัยสำคัญ
- LLM มอบ ความสะดวกสบายในทันที แต่มี ต้นทุนทางการรู้คิดระยะยาว (cognitive cost)
- งานวิจัยนี้เตือนถึง ผลกระทบเชิงลบของการพึ่งพา AI ต่อการเรียนรู้และความสามารถในการคิด
- เน้นย้ำถึง ความจำเป็นในการสร้างสมดุลและทบทวนการใช้ AI ในมิติด้านการศึกษาและการรู้คิด
- MIT Media Lab ใช้ผลลัพธ์นี้เพื่อชี้ให้เห็นถึง ความจำเป็นในการออกแบบกลไกการเรียนรู้ใหม่ในยุค AI
14 ความคิดเห็น
ในมุมมองของคนที่ทำงานวิจัยเป็นอาชีพ ผมพูดถึงปัญหานี้อยู่บ่อยมาก สิ่งของที่เคยเข้ามาแทนที่ความสามารถของมนุษย์ในอดีตนั้น ส่วนใหญ่แทนที่เป็นหน้าที่เฉพาะอย่าง ไม่ค่อยมีกรณีที่เข้ามาแทนที่ตัวกระบวนการรับรู้คิดเองโดยตรง ความสามารถด้านการรับรู้คิดจะเกิดการเรียนรู้เชิงหน้าที่ผ่านกระบวนการที่ต้องรับภาระ แต่การทำแบบนี้ก็เท่ากับเราพรากโอกาสนั้นไปจากตัวเอง อาจมีคนบอกว่ามันทำให้เราไปโฟกัสกับงานอื่นได้ แต่ถ้าความสามารถด้านการรับรู้คิดนั้นไม่ได้เติบโตขึ้นมาตั้งแต่แรก เราอาจไม่ได้รับโอกาสให้ทำเรื่องอื่นเลยด้วยซ้ำ แน่นอนว่านี่อาจเป็นเพียงปรากฏการณ์ในช่วงเปลี่ยนผ่านก็ได้ แต่เมื่อดูจากรุ่นน้องจูเนียร์ที่ผมเพิ่งสัมภาษณ์ไปเมื่อไม่นานนี้ หรือรุ่นน้องในมหาวิทยาลัย ผมรู้สึกว่าปัญหานี้หนักกว่าที่คิด แม้จะจริงที่ว่าเครื่องมือขึ้นอยู่กับวิธีใช้ แต่ในสถานการณ์ที่แม้แต่สมาร์ตโฟนเครื่องเล็ก ๆ คนจำนวนมากยังควบคุมการใช้งานไม่ได้ จนเกิดพวกก้มมองมือถือระหว่างเดินเต็มไปหมด ก็ยากจะคาดหวังว่าคนส่วนใหญ่จะใช้มันได้อย่างมีวินัยและควบคุมตัวเองได้ดี
ผมเองก็ระวังการพึ่งพา LLM เพราะปัญหานี้เช่นกัน สิ่งส่วนใหญ่ที่มนุษย์สร้างขึ้น แก่นแท้อยู่ที่ 'เจตนา' ทั้งภาพยนตร์ อาหาร และเทคโนโลยี.... ผมรู้สึกว่าการลงมือทำจริงสำคัญแค่ประมาณ 15% เท่านั้น
ถ้า LLM ช่วยประหยัดเวลาได้ เวลาที่ประหยัดได้นั้นก็ควรถูกนำไปใช้เพื่อยกระดับคุณภาพ
> ทุกครั้งที่มีสื่อรูปแบบใหม่เกิดขึ้น ก็มักมีข้อถกเถียงคล้าย ๆ กันเสมอ
> โสเครตีสเคยบอกว่าการเขียนจะทำลายความทรงจำ และในยุคกูเทนเบิร์กก็มีความกังวลว่าการครุ่นคิดใคร่ครวญจะหายไป
ผมคิดว่าความเห็นนี้น่าสนใจดี อ้างอิง: xkcd.com/1601 xkcd.com/1227
ความเห็นจาก Hacker News
ถ้าใช้ AI บ่อยเกินไป จะรู้สึกว่า ความรู้สึกของการจดจ่อกับการแก้ปัญหา ลดลง
ตอนที่ทำอัลกอริทึมจัดวางกราฟแบบซับซ้อนที่อิงกับ Sugiyama framework-based graph layout algorithm นั้น AI ช่วยให้เข้าใจแนวคิดได้เร็ว แต่พอให้มันเขียนโค้ดแทน กลับยิ่งทำให้ความเข้าใจติดขัด
หลังจากนั้นเลยเปลี่ยนจาก Copilot IDE ไปใช้ Copilot 365 app ให้มันอธิบายหลักการ แล้วฉันดีบักเอง จึงได้ความรู้สึกอินกับงานกลับคืนมา
คิดว่าไม่ควรโยนงานให้ AI แต่ควรใช้มันเหมือน สารานุกรมแบบโต้ตอบได้ จะดีกว่ามาก
ตอนนี้เลยโฟกัสกับ code review หรือการออกแบบสถาปัตยกรรมได้มากขึ้น ทำให้ใช้เวลากับสิ่งที่เป็นแก่นของงานจริงๆ
ต่อให้ใช้ AI แบบสารานุกรม ทักษะการค้นหาข้อมูลก็คงลดลงอยู่ดี แต่ trade-off ในแง่การประหยัดเวลาและพลังงานก็คุ้มค่า
ตอนแรกเริ่มจาก “งั้นก็ถาม LLM ไปเลย” แล้วกลายเป็น “ระหว่างที่พักนิดหน่อย LLM ก็ทำแทนให้” ก่อนจะพัฒนาเป็น “LLM ตามไอเดียของฉันทันและช่วยจุดประกายใหม่ๆ ได้”
แต่สุดท้าย เดดไลน์กับงานจริงในชีวิต ก็มาเยือนอยู่ดี
ทุกครั้งที่มีสื่อใหม่เกิดขึ้น ก็มักมีข้อถกเถียงแบบเดียวกันนี้เสมอ
โสเครตีสบอกว่าการเขียนจะทำลายความทรงจำ และในยุคกูเทนแบร์กก็มีคนกังวลว่าการครุ่นคิดลึกซึ้งจะหายไป
งานวิจัยนี้มีกลุ่มตัวอย่างเล็กและช่วงเวลาสั้น ความน่าเชื่อถือจึงต่ำ แต่ LLM อาจ เข้ามาแทนกระบวนการรับรู้ทั้งหมด ได้มากกว่าที่เครื่องคิดเลขหรือ Google เคยทำ จึงต่างกันในเชิงคุณภาพ
มันอาจไม่ใช่ว่าความสามารถทางปัญญาหายไป แต่เป็น การเปลี่ยนรูปแบบ ของมันก็ได้ คงต้องรออีกราว 20 ปีถึงจะรู้ผล
คนที่ไม่รู้หนังสือในอดีตมี ความสามารถในการท่องจำมหาศาล แต่ตอนนี้เราพึ่งเครื่องจักรจนขี้เกียจลง
ทั้งที่อินเทอร์เน็ตแพร่หลายมา 30 ปีแล้ว แต่ผลิตภาพกลับไม่ได้เพิ่มขึ้นมากนัก ซึ่งมี productivity paradox อยู่ด้วย (https://en.wikipedia.org/wiki/Productivity_paradox)
LLM ทำให้ทั้งสามขั้นตอนนี้อ่อนแอลง แต่ถ้าใช้มันเป็น ครูส่วนตัว ที่คอยตั้งโจทย์ให้เรา ก็อาจช่วยให้สมองเติบโตได้
แต่บริษัทต่างๆ คงไม่เลือกไปทางนั้น ดังนั้นเราต้อง ต่อสู้เพื่อทิศทางที่ดีกว่า
เครื่องคิดเลขก็เหมือนกัน เพราะมันทำให้ความสามารถในการคำนวณซับซ้อนอ่อนลง
ถ้าการเปลี่ยนแปลงเป็นด้านบวก ก็ต้องมี วิธีประเมินการเรียนรู้แบบใหม่ และถ้าเป็นด้านลบ ก็ต้องมี นโยบายจำกัดการใช้ LLM
ไม่ว่าทางไหน การออกแบบระบบการศึกษาใหม่ ก็เลี่ยงไม่ได้
ถ้าคนระดับจูเนียร์ไม่ได้เติบโตผ่านงานพื้นฐาน สุดท้ายคนระดับซีเนียร์ก็จะหายไปด้วย
ถ้ามองจากมุมของนักเรียน ผู้ช่วยเรียนด้วย AI นั้น ให้โทษมากกว่าประโยชน์
กระบวนการลองผิดลองถูกและการทบทวนหายไป แถมยังถึงขั้น มอบการคิดเองให้ระบบอัตโนมัติ ทำแทน
เมื่อก่อนแค่บล็อก Instagram ก็พอ แต่ตอนนี้กลายเป็นยุคที่ต้อง บล็อกตัวความคิดเอง
พอดแคสต์ Change, Technically ของนักจิตวิทยา Cat Hicks และนักประสาทวิทยา Ashley Juavinett พูดถึงปัญหาของงานวิจัยนี้ได้ดีมาก
ChatGPT อาจทำให้คนโง่ลงได้ก็จริง แต่พิสูจน์ด้วยงานวิจัยแบบนี้ไม่ได้
สำหรับฉันกลับรู้สึกว่า AI ช่วย บรรเทาอาการ ADHD
มันช่วยจัดระเบียบไอเดียเหมือนสมุดโน้ตแบบโต้ตอบได้ และทำให้ กระบวนการเขียนข้อความยาวด้วย LaTeX สนุกขึ้นมาก
ให้ความรู้สึกเหมือนทำงานได้แบบคนที่ไม่มี ADHD
ตอนเขียนโค้ดเองจะจดจ่อได้ แต่พอต้องรอ AI ตอบกลับก็วอกแวก
ใช้ ChatGPT คุยเรื่องการออกแบบ และใช้ Copilot ช่วยงานโค้ด
กลับทำให้ ความเร็วในการเรียนรู้และความเข้าใจ สูงขึ้น
ไม่เคยไปตรวจ ADHD แต่รู้สึกได้ชัดว่ามี ปัญหาเรื่องสมาธิ
เพื่อนฉันเล่าว่าเพื่อนร่วมงานวัยยี่สิบกว่าของเขาให้ ChatGPT คำนวณค่าอาหารตอนพักเที่ยง
น่าตกใจที่คนรุ่นใหม่ พึ่ง AI แม้แต่กับเลขคณิตง่ายๆ
บางทีถึงขั้นเรียก Google Sheets ว่า Excel ด้วยซ้ำ
มนุษย์เดิมทีก็ไม่เก่งเลขอยู่แล้ว จึงไม่จำเป็นต้องฝืนทำด้วยมือ
การคำนวณง่ายๆ ไม่ใช่การแก้ปัญหา
ตอนนี้ AI กำลังจะอ่านเขียนแทนด้วย มนุษย์จึงอาจโฟกัสกับ การคิดระดับสูงกว่า ได้
เช่นเดียวกับที่พวกดรูอิดเคยวิจารณ์การใช้ตัวอักษร การสูญเสียความทรงจำ เป็นสิ่งที่มีมาเสมอ
ถึงอย่างนั้นตัวอักษรก็แพร่หลายอยู่ดี และเราก็ไม่รู้แน่ว่ามนุษย์ฉลาดขึ้นหรือโง่ลงกันแน่
อย่างไรก็ตาม ถ้าใช้เป็นครูส่วนตัว มันก็อาจช่วยให้สมองเติบโตได้
สุดท้ายแล้ว ทิศทางของ AI คือสิ่งที่เราต้องเป็นคนกำหนด
เพราะไม่ต้องจำเบอร์โทรหรือเส้นทางแล้ว
แต่ถ้า AI ช่วยประหยัดเวลา ก็อาจเอาเวลานั้นไป ลงทุนกับการอ่านแหล่งข้อมูลต้นทาง ได้
สุดท้ายแล้วศาสนาก็เป็น เศรษฐกิจความสนใจยุคแรกสุด เหมือนกัน
น่าขันตรงที่ปัญหาที่เขากังวล LLM กลับกำลังแก้อยู่
การพึ่ง GPS กับการพึ่ง AI เป็นปัญหาคล้ายกัน
บางคนจำเส้นทางไม่ได้ และบางคนก็ทำตามแบบไม่คิด
มันช่วยให้จำโครงสร้างของเมืองได้
กับ LLM ก็คล้ายกัน คือฉันรักษาสมาธิด้วยการ แข่งแก้ปัญหาเอง ระหว่างที่ AI กำลังหาคำตอบ
น่ากังวลที่คนรุ่นใหม่บางคนขับรถไม่ได้เลยถ้าไม่มี GPS
กับ LLM ก็เหมือนกัน ถ้าพึ่งมากเกินไป ก็เท่ากับ เอาต์ซอร์ซการคิดเอง
บางคนจำภูมิประเทศได้เร็ว แต่บางคนต้องใช้เวลามากกว่า
งานวิจัยนี้เป็นการทดลองให้ผู้เข้าร่วมเขียนเรียงความ 20 นาที
ในสภาพแวดล้อมแบบนี้คนก็ย่อม มุ่งแต่ประสิทธิภาพระยะสั้น ทำให้ห่างไกลจากผลกระทบทางการรับรู้ที่แท้จริง
ควรไปดูว่า LLM ส่งผลอย่างไรกับงานที่มีความหมายจริงๆ มากกว่า
สุดท้ายก็เป็นข้อสรุประดับ “คนที่ดูหุ่นยนต์เล่นเทนนิส ใช้กล้ามเนื้อน้อยกว่าคนที่ลงไปเล่นเอง” เท่านั้น
นี่ก็ประมาณกับการมองค้อนแล้วพูดว่า “มันทำให้บ้านสร้างไม่แข็งแรง”
ปัญหาไม่ใช่เครื่องมือ แต่อยู่ที่ว่าใช้อย่างไร
ยกตัวอย่างเช่น:
ถ้าใช้เครื่องคิดเลข ความสามารถในการคิดเลขในใจก็อาจลดลงได้
แต่แทนที่จะเป็นแบบนั้น มันกลับทำให้เราทำคณิตศาสตร์ที่ซับซ้อนขึ้นได้
ถ้าใช้ GPS ความสามารถในการจำเส้นทางก็อาจลดลงได้
แต่เราสามารถวางกลยุทธ์เชิงพื้นที่ในวงกว้างได้มากขึ้น
ChatGPT ก็เหมือนกัน
และมีจุดที่น่าสนใจอยู่อย่างหนึ่ง
ทันทีที่คุณอ่านบทความแบบนี้แล้วเผลอเห็นด้วยแบบไม่ทันคิดว่า “จริงด้วย ใช้ AI แล้วจะโง่ลง”
หนี้ทางการรับรู้ที่เขาพูดถึงก็ได้เกิดขึ้นกับคนนั้นจริง ๆ ไปแล้ว
เครื่องมือเป็นกลางเสมอ
จะทำให้การคิดกลายเป็นหนี้ หรือกลายเป็นทรัพย์สิน ท้ายที่สุดแล้วขึ้นอยู่กับท่าทีของผู้ใช้
คุณคิมแดริ ผมมีเรื่องที่อยากแนะนำสักหน่อย ไม่ใช่อะไรหรอก แต่อย่าใช้ AI GTP? มากเกินไปเลยนะครับ ถ้ามีความสะดวก ความเสี่ยงก็มากขึ้นใช่ไหมล่ะ จะฆ่าวัวก็ต้องมีมีดคมที่เหมาะกับงาน แล้วจะจับไก่จำเป็นต้องใช้มีดไหม? บางทีวิธีที่ง่ายอาจเป็นคำตอบก็ได้
มีทั้ง GitHub, การค้น Google, วิธีง่ายๆ ก็มีนะครับ ไม่ต้องใช้ดาว ไม่ต้องเสียเวลา แล้วทีหลังก็ยังมีวิธีเขียนโค้ดเองแบบดิบๆ ได้อีก
ลองสมมติว่าคุณคิมแดริเป็นแม่ทัพในสนามรบสิครับ การต้องชนะสงครามมันก็เป็นเรื่องแน่นอนอยู่แล้วไม่ใช่หรือ? แล้วกลยุทธ์ที่เหมาะกับสถานการณ์ล่ะ? จะใช้แค่กองกำลังภาคพื้นดินเข้าปราบอย่างเดียว? ไม่ใช่หรอกครับ ความเห็นของผมคือการค้น Google อาจเร็วกว่าได้ แน่นอนว่ามันก็แล้วแต่คน แต่ GPT ก็อาจจะดีกว่าได้เหมือนกัน เพียงแค่อยากเสนอความเห็นว่า AI มันเหมือนมีดสำหรับฆ่าวัวหรือเปล่า
ส่วนต้นผมเห็นด้วย แต่ตัวอย่างในช่วงท้ายดูเหมือนจะไม่ค่อยเหมาะสมนะครับ
อุปกรณ์ออกกำลังกาย = LLM ไม่ใช่ แต่ควรเป็นอุปกรณ์ช่วยออกกำลังกาย = LLM มากกว่า กล่าวคือ เวลาออกกำลังกายถ้าใช้อุปกรณ์ช่วยเพื่อลดภาระที่ร่างกายต้องรับ ก็อาจเพิ่มน้ำหนักที่ยกได้ แต่ผลการออกกำลังกายในการเพิ่มกล้ามเนื้อของร่างกายตัวเองหรือทำให้การไหลเวียนเลือดดีขึ้นนั้นก็จะลดลงครึ่งหนึ่ง
การยกตัวอย่างที่ไม่เหมาะสมไว้ แล้วเขียนว่า "การอุปมาและอุปลักษณ์มีไว้เพื่อให้เข้าใจง่าย" นั้นขัดแย้งกันเองนะครับ/ค่ะ พอเห็นคอมเมนต์ที่คุณเขียนแล้ว ดูเหมือนว่าการคอมเมนต์ต่อไปคงไม่มีความหมายอีกแล้วครับ/ค่ะ
อ๋อ ครับ ถ้าเข้าใจแบบนั้นก็ถูกต้องแล้ว