20 คะแนน โดย GN⁺ 2026-02-02 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • มีเสียงวิจารณ์ว่าการใช้ โมเดลภาษาขนาดใหญ่ (LLM) อาจทำให้ความสามารถทางการรับรู้ของมนุษย์อ่อนแอลง และการอ้างแบบง่าย ๆ ว่า “ยังมีเรื่องให้คิดได้ไม่จำกัด จึงไม่ต้องกังวล” นั้นมองข้ามความซับซ้อนของปัญหาไป
  • เมื่อใช้ LLM ในการเขียนและการสื่อสารส่วนตัว อาจทำลาย ธรรมชาติของภาษาที่ความหมายกับการแสดงออกแยกจากกันไม่ได้ และพรากโอกาสในการค้นหาเสียงของตนเอง
  • กิจกรรมในชีวิตประจำวันอย่างการวางแผนวันหยุด การเตรียมงานปาร์ตี้ หรือการเขียนข้อความส่วนตัว ก็เป็น ประสบการณ์ที่มีคุณค่าในตัวเอง และการทำให้สิ่งเหล่านี้เป็นอัตโนมัติอาจเสี่ยงทำให้ความหมายของชีวิตหดแคบลง
  • แม้แต่งานที่ดูซ้ำซากและน่าเบื่อก็ยังสร้าง ความรู้โดยนัย (tacit knowledge) ได้ ดังนั้นหากมอบหมายให้แชตบอตเพียงเพราะต้องการประสิทธิภาพ ก็อาจก่อให้เกิดความสูญเสียในระยะยาว
  • การกำหนดขอบเขตที่เหมาะสมของการใช้แชตบอตไม่ใช่ปัญหาเรื่องประสิทธิภาพ แต่เป็นเรื่องของ คุณค่าความเป็นมนุษย์และทิศทางของชุมชน

บทนำ: ที่มาของบทความและโจทย์ปัญหา

  • มีคำวิจารณ์ว่าการใช้ LLM อาจทำให้ความสามารถทางการรับรู้อ่อนแอลง และหลักการ “ไม่ใช้ก็สูญเสียไป (use it or lose it)” ก็ฟังดูน่าเชื่อถือทั้งในเชิงสัญชาตญาณและจากประสบการณ์ สำหรับทักษะและความสามารถบางอย่าง
  • บทความ The lump of cognition fallacy ของ Andy Masley ชี้ว่ามุมมองที่ว่าปริมาณการคิดทั้งหมดมีอยู่อย่างคงที่นั้นเป็นความเข้าใจผิด และเพราะความคิดก่อให้เกิดความคิดใหม่ การมอบหมายบางส่วนให้เครื่องจักรจึงไม่ได้แปลว่าการคิดของมนุษย์จะลดลง
  • บทความนี้ใช้ข้อถกเถียงของ Masley เป็นจุดตั้งต้น แต่ต้องการอธิบายว่า การเอาท์ซอร์สการคิดไม่ใช่แค่ปัญหาเรื่องประสิทธิภาพ พร้อมชี้ให้เห็นความซับซ้อนและผลกระทบระยะยาวของมัน

กรณีที่ควรหลีกเลี่ยงการใช้ LLM

  • กรณี “การเอาท์ซอร์สการรับรู้ที่เป็นโทษ” ตามที่ Masley เสนอ มีดังนี้
    • กิจกรรมที่สร้าง ความรู้โดยนัยที่ซับซ้อน ซึ่งจำเป็นต่อการใช้ชีวิตในโลกอนาคต
    • การกระทำที่แสดงออกถึง การดูแลและการอยู่ร่วมอย่างแท้จริงต่อผู้อื่น
    • ประสบการณ์ที่มีคุณค่าในตัวเอง
    • กรณีที่ การปลอมแปลงหรือการให้ผู้อื่นทำแทนเป็นการหลอกลวง
    • สถานการณ์ที่ผลลัพธ์มีความสำคัญมาก และ ยากจะไว้วางใจสิ่งที่เอาท์ซอร์สให้ได้อย่างสมบูรณ์
  • โดยรวมเห็นด้วยกับรายการนี้ แต่ปัญหาคือกิจกรรมที่อยู่ในหมวดเหล่านี้มีมากกว่าที่คิดมาก และตรงนี้เองที่ทำให้เห็นความต่างทางมุมมองพื้นฐานกับ Masley

การสื่อสารและการเขียนส่วนตัว

  • ไม่ใช่แค่สถานการณ์ใกล้ชิดอย่างข้อความในแอปหาคู่เท่านั้น แต่ใน การสื่อสารส่วนตัวโดยรวม วิธีการแสดงออกมีความหมายอย่างเป็นสาระสำคัญ
  • ในการสื่อสารมีความคาดหวังร่วมกันบางอย่างที่ไม่จำเป็นต้องพูดออกมาตรง ๆ และทันทีที่เครื่องเข้ามาขัดเกลาหรือเปลี่ยนวิธีการแสดงออกแทน ความคาดหวังนั้นก็ถูกทำลาย
  • เพราะการเลือกคำและการประกอบประโยคเองก็มีความหมายอย่างมาก เมื่อ LLM เข้ามาแทรกแซง คุณภาพของการสื่อสารโดยตรงจึงเสียหาย
  • ในสื่อนอร์เวย์ มีกรณีการใช้ LLM กับงานเขียนสาธารณะโดยไม่เปิดเผย ซึ่งกลายเป็นประเด็นถกเถียง และสะท้อนว่าจำเป็นต้องทำให้ชัดอีกครั้งว่าเราคาดหวังอะไรจากการสื่อสาร
  • ต่อข้ออ้างที่ว่า LLM ช่วยการแสดงออกของผู้ที่ไม่ใช่เจ้าของภาษาหรือผู้มีความบกพร่องด้านการเรียนรู้ มีข้อโต้แย้งสองประการ
    • ในกรณีส่วนใหญ่ ความหมายกับการแสดงออกแยกจากกันไม่ได้ และตัวคำพูดกับประโยคก็คือความหมายนั้นเอง
    • หากมอบหมายการแสดงออกให้เครื่อง โอกาสในการเติบโตและการเรียนรู้จะลดลง และทำให้สูญเสียโอกาสในการค้นหาเสียงของตนเอง
  • เส้นแบ่งระหว่างการตรวจแก้การสะกดและไวยากรณ์ กับการที่ LLM แทบจะเขียนแทนให้เลยนั้น บางเกินไปอย่างมาก จนยากจะแยกจากกันได้ด้วยอินเทอร์เฟซแชตบอตในปัจจุบัน
  • ในมุมมองแบบปฏิบัตินิยม หลายคนอยากใช้ LLM เพื่อเพิ่มประสิทธิภาพในการทำงาน แต่คุณภาพการสร้างข้อความในภาษาที่ไม่ใช่อังกฤษ เช่น ภาษานอร์เวย์ ยังคงอยู่ในระดับต่ำมาก (อ้างถึงรายงานของสภาภาษานอร์เวย์)
  • LLM ดูเหมือนจะมีประโยชน์ในการเขียนเอกสารเชิงราชการ เช่น การยื่นคำร้องหรือการเคลมประกัน แต่ หากทุกฝ่ายต่างใช้เครื่องสร้างคำเหมือนกันหมด ผลลัพธ์จะเป็นอย่างไรยังไม่แน่ชัด
  • ปรากฏการณ์ที่สังเกตได้จริงคือ ในการสมัครฝึกงาน ข้อเสนอวิจัย และการสมัครงาน จำนวนการสมัครพุ่งสูงขึ้น แต่คุณภาพโดยรวมกลับลดลง
  • เมื่อนักศึกษาใช้แชตบอตตัวเดียวกันในงานกลุ่ม ความหลากหลายของไอเดียก็ลดลงอย่างรวดเร็ว
  • ทักษะการเขียนจะพัฒนาได้ก็ด้วยการลงมือเขียนด้วยตนเองเท่านั้น และความสามารถในการคิดก็เช่นกัน
  • ข้อความเชิงหน้าที่ อย่างโค้ด สูตรอาหาร คู่มือ หรือเอกสารประกอบ ได้รับผลกระทบจากปัญหาเหล่านี้ค่อนข้างน้อย
  • ตรงกันข้าม ข้อความที่ผู้เขียนส่วนตัวเขียนถึงผู้อ่านที่เป็นมนุษย์ มีความคาดหวังด้านบทบาทและความไว้วางใจเฉพาะอยู่ และหากความไว้วางใจนี้ถูกกัดกร่อน ก็อาจกลายเป็นความสูญเสียของมนุษยชาติทั้งหมด

ประสบการณ์ที่มีคุณค่า

  • ทุกครั้งที่เห็นโฆษณาชวนให้โยนทั้งการวางแผนวันหยุด การเตรียมปาร์ตี้ หรือแม้แต่ข้อความที่จะส่งให้ครอบครัวและเพื่อนให้ LLM จัดการ ก็ยิ่งรู้สึก ห่างเหินจากสังคมเทคโนโลยี
  • กิจกรรมมากมายในชีวิตสมัยใหม่อาจให้ความรู้สึกเหมือนเป็นงานจุกจิก แต่ในอีกด้านหนึ่ง ทัศนคติที่ปฏิบัติกับแทบทุกอย่างในชีวิตราวกับเป็นงานจุกจิก นั้นเองที่เป็นปัญหา
  • ความคาดหวังของสังคมสมัยใหม่ที่ว่าควรทำสิ่งที่อยากทำได้ทุกเมื่อ และหลีกเลี่ยงสิ่งที่ไม่อยากทำได้ กลับยิ่งสร้าง ความไม่พึงพอใจอย่างต่อเนื่อง
  • เห็นด้วยกับทฤษฎีที่ว่าระบบอัตโนมัติอาจช่วยให้มีเวลาไปทำสิ่งที่มีความหมายมากกว่า แต่ปัญหาคือเรามาถึงจุดที่แม้แต่ การวางแผนวันหยุดยังถูกมองเป็นงานจุกจิกที่อยากหลีกเลี่ยง แล้ว
  • หากเราอยู่ในยุคที่ AI สามารถทำให้ “แทบทุกอย่าง” เป็นอัตโนมัติได้ ก็หวังว่าความสามารถนั้นจะทำให้เราตระหนักอีกครั้งว่า ในชีวิตมี สิ่งใดที่คุ้มค่ากับการใช้เวลาและความพยายาม

การสร้างความรู้

  • เห็นด้วยกับข้อเสนอที่ว่า “ไม่ควรใช้แชตบอตในกระบวนการสร้างความรู้โดยนัยที่ซับซ้อน ซึ่งจำเป็นต่อการใช้ชีวิตในโลกอนาคต” และหมวดนี้ในความเป็นจริงครอบคลุม ชีวิตประจำวันส่วนใหญ่พอสมควร
  • หลังสมาร์ตโฟนแพร่หลาย มีแนวคิดแพร่กระจายว่า “ถ้าจำเป็นค่อยหาในอินเทอร์เน็ตก็ได้ ไม่ต้องท่องจำ” แต่ การได้มาซึ่งความรู้และการจดจำเองก็เป็นกระบวนการหลักของการเรียนรู้
  • จากประสบการณ์เรียนแจ๊สเปียโน การจะอิมโพรไวส์ได้ดี ไม่ใช่แค่ฝึกอิมโพรไวส์อย่างเดียว แต่ต้อง ฝึกเพลงและวลีดนตรีที่มีอยู่ซ้ำ ๆ จนซึมเข้าไปในร่างกาย จึงจะสร้างสัญชาตญาณได้ว่าเสียงแบบไหนคือเสียงที่ดี
  • ในแง่นี้ วิธีที่มนุษย์เรียนรู้อาจดูคล้ายกับโมเดลแมชชีนเลิร์นนิง แต่ก็ไม่ได้หมายความว่าเราควร ปฏิบัติต่อมนุษย์ราวกับเป็นสิ่งนั้นจริง ๆ
  • เรากำลัง ประเมินความรู้ที่สะสมจากงานซ้ำซากน่าเบื่อต่ำเกินไปอย่างมาก และหากมอบหมายสิ่งเหล่านี้ให้แชตบอตเพราะแรงกดดันด้านประสิทธิภาพ ก็เสี่ยงจะสูญเสียความรู้และความรู้สึกสำคัญบางอย่างไปในระยะยาว

ข้อโต้แย้งต่อแนวคิด “จิตใจที่ขยายออกไป”

  • Masley เสนอว่าการรับรู้ไม่ได้จำกัดอยู่แค่ในสมอง แต่เกิดขึ้นในสภาพแวดล้อมทางกายภาพด้วย ดังนั้นไม่ว่าจะเกิดในนิวรอนของสมองหรือในวงจรของโทรศัพท์ ก็ไม่มีความแตกต่างอย่างเป็นสาระสำคัญ
  • ข้อความแบบนี้เป็น ข้ออ้างที่ห่างไกลจากความเป็นจริง เพราะกระบวนการที่เกิดขึ้นในสมองกับการประมวลผลที่ทำในคอมพิวเตอร์ไม่อาจถือว่าเป็นสิ่งเดียวกันได้
  • มุมมองที่ลดทอนมนุษย์ให้เหลือเพียงอุปกรณ์ประมวลผลข้อมูล และมองว่าการย้ายกระบวนการรับรู้บางอย่างออกไปยังอุปกรณ์ภายนอกไม่มีผลอะไรเลยนั้น เป็น ลัทธิลดทอนสุดโต่ง
  • การจำวันเกิดเพื่อนด้วยตนเอง กับการให้แชตบอตส่งข้อความอวยพรอัตโนมัติ เป็นคนละการกระทำโดยสิ้นเชิง โดยแบบแรกมี กระบวนการนึกถึงอีกฝ่ายอย่างมีสติและกระชับความสัมพันธ์ รวมอยู่ด้วย
  • ข้ออ้างที่เปรียบเทียบ “การทำโทรศัพท์หาย” กับ “การสูญเสียสมองบางส่วน” นั้นเป็นความผิดพลาดที่เอาสถานการณ์ซึ่งต่างกันโดยสิ้นเชิง ทั้งในด้านโอกาสเกิดและความร้ายแรงของผลลัพธ์ มาเหมารวมเป็นสิ่งเดียวกัน
  • ข้ออ้างที่ว่าสภาพแวดล้อมทางกายภาพถูกออกแบบมาเพื่อลดการคิดให้เหลือน้อยที่สุดก็น่าเชื่อถือน้อยเช่นกัน เพราะเมื่อสภาพแวดล้อมเปลี่ยนไป เราอาจต้องใช้เวลาปรับตัวชั่วคราว แต่ไม่นานก็ คุ้นเคยและกลับมาคิดตามวิธีใหม่ได้

สิ่งที่เราคิดนั้นสำคัญ

  • สำหรับสิ่งที่เรียกว่า “ความเข้าใจผิดเรื่องก้อนของการรับรู้” เห็นด้วยว่าปริมาณการคิดที่มนุษย์ใช้ได้มีขีดจำกัดอยู่ จึงไม่จำเป็นต้องกังวลว่าจะหมดไปเพียงเพราะย้ายบางส่วนออกไป
  • แต่ มุมมองที่ว่า “คิดอะไรก็ได้ ขอแค่ยังคิดอยู่ก็พอ” ก็เป็นความเข้าใจผิดอีกแบบหนึ่งเช่นกัน
  • มักคิดกันง่าย ๆ ว่าหากให้คอมพิวเตอร์จัดการงานง่าย ๆ น่าเบื่อ เราจะได้ไปโฟกัสกับสิ่งที่ซับซ้อนและน่าสนใจกว่า แต่ งานทางจิตบางอย่างแม้เครื่องจะทำได้ มนุษย์ก็ยังต้องทำเองจึงจะมีความหมาย
  • ตัวอย่างเช่น หากมอบหมายงานธุรการของโครงการให้แชตบอต เราอาจมีเวลาไปทำวิจัยมากขึ้น แต่ในราคาเดียวกันก็อาจสูญเสีย ความเป็นเจ้าของโครงการและฐานสำหรับการตัดสินใจระดับสูง ไป
  • ประเด็นไม่ใช่ว่าห้ามทำให้งานทุกอย่างเป็นอัตโนมัติ แต่เราควรตระหนักว่า การทำให้เป็นอัตโนมัติย่อมมีทั้งสิ่งที่ได้มาและสิ่งที่สูญเสียไปเสมอ
  • หากเทียบกับ “ความเข้าใจผิดเรื่องก้อนของแรงงาน” การให้เครื่องทำงานใช้แรงกายแทนย่อมสร้างงานรูปแบบใหม่ขึ้นมาได้ แต่ก็ ไม่ได้รับประกันว่างานนั้นจะเป็นงานที่มีประโยชน์ เติมเต็มชีวิต หรือมีความหมายต่อทั้งปัจเจกและสังคม
  • การคิดก็เช่นกัน แม้แต่กระบวนการคิดที่น่าเบื่อและจำเจก็ยังส่งผลต่อมนุษย์ และเมื่อเราตัดงานรับรู้บางอย่างออกไป ผลกระทบนั้นย่อมคงอยู่เสมอ ไม่ว่าจะเป็นด้านบวกหรือด้านลบ

บทสรุป

  • การตัดสินว่าแชตบอตเหมาะกับการใช้งานในด้านใดในระยะยาว เป็น ภารกิจสำคัญที่หลีกเลี่ยงไม่ได้
  • ลักษณะของการสื่อสารส่วนตัวอาจเปลี่ยนไปอย่างถึงราก ระบบการศึกษาอาจถูกบังคับให้ปรับตัวครั้งใหญ่ และเราจะต้องทบทวนอย่างระมัดระวังยิ่งขึ้นว่า ประสบการณ์แบบใดที่สำคัญอย่างแท้จริงในชีวิต
  • เหตุผลที่เทคโนโลยีนี้น่าสนใจอย่างแท้จริง ก็คือมันตั้งคำถามตรง ๆ ไม่ใช่แค่เรื่องประสิทธิภาพ แต่รวมถึง ความเป็นมนุษย์และคุณค่า
  • ทางเลือกว่าจะใช้แชตบอตอย่างไร ไม่ใช่เพียงปัญหาเรื่องผลิตภาพหรือผลลัพธ์ทางการรับรู้ แต่โยงไปถึงคำถามว่า เราต้องการชีวิตแบบไหนและสังคมแบบไหน
  • ดังนั้นจึงมี เหตุผลที่ชัดเจน ว่าทำไมกิจกรรมบางอย่างของมนุษย์จึงควรถูกปกป้องจากระบบอัตโนมัติแบบกลไก
  • นอกเหนือจากผลการวิจัยและการถกเถียงเรื่องประสิทธิภาพแล้ว เรายังต้องพิจารณาร่วมกันด้วยว่า ชุมชนของเราจะตั้งอยู่บนคุณค่าแบบใด

1 ความคิดเห็น

 
GN⁺ 2026-02-02
ความเห็นจาก Hacker News
  • วลี “Lump of cognition fallacy” เป็นแนวคิดที่ต่อยอดมาจาก “Lump of Labor Fallacy(ความเข้าใจผิดเรื่องปริมาณงานคงที่)” อันเป็นแนวคิดคลาสสิกทางเศรษฐศาสตร์
    มันหมายถึง ความเข้าใจผิด ที่เชื่อว่าปริมาณงานในระบบเศรษฐกิจมีอยู่คงที่
    ในความเป็นจริง ความก้าวหน้าทางเทคโนโลยีหรือระบบอัตโนมัติช่วยเพิ่มผลิตภาพ ลดต้นทุน และท้ายที่สุดก็สร้างความต้องการแรงงานมากขึ้น
    ข้ออ้างว่า “AI จะทำให้งานหายไป” ก็อาจมองได้ว่าเป็นอีกรูปแบบหนึ่งของความเข้าใจผิดนี้

  • บทความนี้น่าประทับใจมาก แต่ผมก็คิดว่าคำว่า “เอาความคิดไปจ้างคนนอกทำ” อาจเป็นกรอบที่คลาดเคลื่อนไปหน่อย
    ปัญหาที่ผมเจอจริง ๆ ไม่ใช่การใช้ AI แต่เป็นการ ทำสิ่งที่ผิดให้เป็นอัตโนมัติ
    งานที่มีแก่นอยู่ที่การคิด การไตร่ตรอง และการตัดสินใจ ควรออกแบบให้ AI เป็นผู้ร่วมงาน ส่วนเรื่องอย่างการลงมือทำหรือการจำ ควรทำให้เป็นอัตโนมัติอย่างเต็มที่
    สุดท้ายแล้วปัญหาไม่ใช่การ ‘เอาความคิดไปจ้างคนนอกทำ’ แต่คือการข้าม ลูปการรับรู้ ที่สำคัญ
    ผมสรุปเรื่องที่เกี่ยวข้องไว้ ที่นี่

  • ตั้งแต่ Gmail ใส่ LLM เข้ามา ผมก็รู้สึกไม่ค่อยสบายใจ
    ผมเชื่อว่าทุกคำและโครงสร้างประโยคสะท้อน ตัวตน ของคนนั้น
    เพราะงั้นผมจึงคิดว่าการสื่อสารโดยตรงผ่าน LLM ทำลายความเชื่อมโยงแบบมนุษย์

    • แต่ก็มีกรณีที่เพื่อนคนหนึ่งซ่อมความสัมพันธ์กับ หัวหน้าที่น่ารำคาญ ได้ด้วย ChatGPT
      ถ้าความเชื่อมโยงแบบมนุษย์ตั้งอยู่บนพื้นฐานของความปรารถนาดี ผมก็เห็นด้วย แต่ถ้าไม่ใช่ LLM อาจช่วยได้มากกว่า
    • ถ้าใครสักคนพยายามวิเคราะห์คำพูดของผมมากเกินไป ผมกลับรู้สึกโล่งใจที่ LLM ของ Gmail ทำหน้าที่เป็น ชั้นกันกระแทก ให้
    • มันชวนให้นึกถึง มีม NPC
  • ผมชอบมุมมองเรื่อง “Reversibility
    การให้ AI ช่วยแค่ขั้นตอนหนึ่ง เช่น ตรวจไวยากรณ์หรือสรุปความ แตกต่างจากการให้มันทำทั้งกระบวนการแทนเรา
    ถ้าหน้าที่ของผมเหลือแค่กดอนุมัติ ผมก็จะไม่สามารถสร้างโมเดลภายในได้ และ วิจารณญาณ ก็จะอ่อนลง
    นี่ไม่ใช่ปัญหาของตัวโมเดลอย่างเดียว แต่เป็น ปัญหาเรื่อง UI/การออกแบบ ด้วย
    เครื่องมือที่แสดงความแตกต่างโดยอิงจากร่างต้นฉบับยังทำให้ผู้ใช้อยู่ในลูป แต่เครื่องมือที่เริ่มจากหน้ากระดาษเปล่าจะฝึกให้คน ‘ยอมรับ’ มากกว่า

  • สิ่งที่ผมกังวลคือ หลังจากผู้คนพึ่งพาเทคโนโลยีแล้ว ข้อมูลฝึกหรืออัลกอริทึมอาจเอนเอียงไปตามวาระบางอย่าง

    • ปรากฏการณ์แบบนี้เกิดซ้ำมาแล้วใน สื่อสิ่งพิมพ์และการกระจายเสียง
      สุดท้ายปัญหาคือแหล่งข้อมูลอยู่ภายใต้การควบคุมของคนอื่น
      เพราะงั้นแต่ละคนควร เป็นเจ้าของ LLM และฮาร์ดแวร์ของตัวเอง ได้
    • แต่ก่อนผมกังวลว่า OpenAI จะผูกขาด แต่ตอนนี้มีคู่แข่งหลากหลายอย่าง Mistral จึงทำให้ ความเสี่ยงเรื่องการผูกขาดโมเดล ลดลง
    • ก็มีกรณีที่เอนเอียงอย่างชัดเจนอยู่แล้ว เช่น Grok
    • และมีความเป็นไปได้สูงว่าวันหนึ่งแชตบอตจะตอบแบบ แฝงโฆษณา โดยแนะนำสินค้าบางตัว
    • ที่จริงโครงสร้างแบบนี้ก็เกิดซ้ำมาแล้วในสังคมทุนนิยม
  • พอเห็นทวีตของ Karpathy ก็ทำให้ผมกลับมาคิดถึง ความสำคัญของความล้มเหลว อีกครั้ง
    เวลา AI พลาด คนมักโยนความผิดให้ AI แล้วสูญเสียโอกาสในการเรียนรู้
    ผมรู้สึกว่าบทความนี้ก็พูดถึงบริบทคล้าย ๆ กัน

  • ผมเองก็เคยให้ AI รับผิดชอบบางส่วนของโปรเจกต์ แล้วภายหลังถึงได้รู้ว่า ตัวผมเองกลับไม่เข้าใจโปรเจกต์ของตัวเองดีพอ

    • แต่ก็มีคนพูดแบบกึ่งล้อเล่นว่า “นั่นแหละคือทิศทางที่ถูกต้อง” และเราควรปล่อยให้ LLM จัดการทุกอย่าง
      ถ้าติดขัดก็เอา LLM อีกตัวมาเป็นดีบักเกอร์ ถ้ายังติดก็เรียก LLM อีกตัวมาอีก — เป็นเหมือน โครงสร้างหอคอยเต่าซ้อนกันไม่รู้จบ (/s)
  • ถ้าเปรียบกับสมองมนุษย์ AI ก็ดูเหมือนจะกลายเป็น นีโอคอร์เทกซ์(neocortex) ใหม่ ของเรา
    เช่นเดียวกับที่ระบบลิมบิกไม่ได้ ‘จ้างคนนอก’ ให้คิดแทนนีโอคอร์เทกซ์ AI ก็คงไม่มาแทนที่ความคิดของมนุษย์ แต่จะเป็นอีกชั้นหนึ่งที่คอยให้คำแนะนำ
    และเช่นเดียวกับที่นีโอคอร์เทกซ์ขยายความเป็นสังคมของมนุษย์ AI ก็จะทำให้เราสามารถ สื่อสารกับผู้คนนับล้าน ได้
    เพียงแต่ความสัมพันธ์นั้นจะมีรูปร่างแตกต่างจาก ‘บทสนทนาแบบส่วนตัว’ ในปัจจุบันอย่างสิ้นเชิง

  • รายการ “สิ่งที่ไม่ควรใช้ AI ทำ” ฟังดู ไร้เดียงสา ไปหน่อย
    เหมือนกับ บทความของ The Atlantic ที่เล่าว่านักศึกษาภาพยนตร์ดูหนังไม่จบ ผู้คนไม่ได้ทำตัวอย่างมีความรับผิดชอบแม้จะรู้ถึงความเสี่ยง

    • ผมคิดว่านักศึกษาเกินครึ่งอาจยังไม่เข้าใจ ความเสี่ยงระยะยาว ของโซเชียลมีเดียหรือ AI ด้วยซ้ำ
    • มีคนหนึ่งบอกว่า “บทเรียนจากเรื่องเล่านักศึกษาภาพยนตร์ก็คือ ผู้คนชอบ ไอเดีย ของการ ‘เรียนภาพยนตร์’ แต่ไม่ได้ชอบการเรียนจริง ๆ”
    • อีกคนเสริมว่า “ถ้าต้องเจอหนัง 100 เรื่องพร้อมเรียงความและข้อสอบกองรวมกัน ใครก็เบื่อ”
    • ยังมีความเห็นว่า “การเชื่อว่าผู้คนจะใช้ AI อย่างรับผิดชอบนี่แหละคือ เรื่องที่น่ากังวลที่สุด
    • และยังมีอุปมาว่า “เหมือนกับที่เราเลิกขี่ม้าแล้วหันไปใช้รถยนต์ เรากำลังสูญเสียบางอย่างไป”
  • กรอบ “Lump of cognition” ไม่ได้เป็นเรื่องของ ปริมาณความคิด แต่เป็นเรื่องของ เราหยุดคิดเรื่องอะไรไปบ้าง
    วิจารณญาณและสัญชาตญาณเติบโตขึ้นจากงานที่ซ้ำซากและน่าเบื่อ และการเอางานเหล่านั้นไปจ้างคนนอกทำก็ต้องแลกมาด้วยบางอย่าง
    ต้นทุนในการผลิตคำพูดที่ต่ำลง ไม่ได้แปลว่า ความลึกของความคิด จะเพิ่มขึ้น

    • ผมรู้สึกว่าเวลาที่ต้องลำบากแก้ปัญหายาก ๆ ด้วยตัวเองนั่นแหละคือ แก่นแท้ของการเรียนรู้
    • ความจริงที่ว่าคำพูดราคาถูกดู “ดีพอ” สำหรับผู้คนจำนวนมาก เป็น ข้อสังเกตที่ชวนหดหู่
    • ผมคิดว่าเวิร์กโฟลว์ที่ดีคือใช้ LLM แค่ระดับ แก้คำผิดและไวยากรณ์ เท่านั้น