- มีเสียงวิจารณ์ว่าการใช้ โมเดลภาษาขนาดใหญ่ (LLM) อาจทำให้ความสามารถทางการรับรู้ของมนุษย์อ่อนแอลง และการอ้างแบบง่าย ๆ ว่า “ยังมีเรื่องให้คิดได้ไม่จำกัด จึงไม่ต้องกังวล” นั้นมองข้ามความซับซ้อนของปัญหาไป
- เมื่อใช้ LLM ในการเขียนและการสื่อสารส่วนตัว อาจทำลาย ธรรมชาติของภาษาที่ความหมายกับการแสดงออกแยกจากกันไม่ได้ และพรากโอกาสในการค้นหาเสียงของตนเอง
- กิจกรรมในชีวิตประจำวันอย่างการวางแผนวันหยุด การเตรียมงานปาร์ตี้ หรือการเขียนข้อความส่วนตัว ก็เป็น ประสบการณ์ที่มีคุณค่าในตัวเอง และการทำให้สิ่งเหล่านี้เป็นอัตโนมัติอาจเสี่ยงทำให้ความหมายของชีวิตหดแคบลง
- แม้แต่งานที่ดูซ้ำซากและน่าเบื่อก็ยังสร้าง ความรู้โดยนัย (tacit knowledge) ได้ ดังนั้นหากมอบหมายให้แชตบอตเพียงเพราะต้องการประสิทธิภาพ ก็อาจก่อให้เกิดความสูญเสียในระยะยาว
- การกำหนดขอบเขตที่เหมาะสมของการใช้แชตบอตไม่ใช่ปัญหาเรื่องประสิทธิภาพ แต่เป็นเรื่องของ คุณค่าความเป็นมนุษย์และทิศทางของชุมชน
บทนำ: ที่มาของบทความและโจทย์ปัญหา
- มีคำวิจารณ์ว่าการใช้ LLM อาจทำให้ความสามารถทางการรับรู้อ่อนแอลง และหลักการ “ไม่ใช้ก็สูญเสียไป (use it or lose it)” ก็ฟังดูน่าเชื่อถือทั้งในเชิงสัญชาตญาณและจากประสบการณ์ สำหรับทักษะและความสามารถบางอย่าง
- บทความ The lump of cognition fallacy ของ Andy Masley ชี้ว่ามุมมองที่ว่าปริมาณการคิดทั้งหมดมีอยู่อย่างคงที่นั้นเป็นความเข้าใจผิด และเพราะความคิดก่อให้เกิดความคิดใหม่ การมอบหมายบางส่วนให้เครื่องจักรจึงไม่ได้แปลว่าการคิดของมนุษย์จะลดลง
- บทความนี้ใช้ข้อถกเถียงของ Masley เป็นจุดตั้งต้น แต่ต้องการอธิบายว่า การเอาท์ซอร์สการคิดไม่ใช่แค่ปัญหาเรื่องประสิทธิภาพ พร้อมชี้ให้เห็นความซับซ้อนและผลกระทบระยะยาวของมัน
กรณีที่ควรหลีกเลี่ยงการใช้ LLM
- กรณี “การเอาท์ซอร์สการรับรู้ที่เป็นโทษ” ตามที่ Masley เสนอ มีดังนี้
- กิจกรรมที่สร้าง ความรู้โดยนัยที่ซับซ้อน ซึ่งจำเป็นต่อการใช้ชีวิตในโลกอนาคต
- การกระทำที่แสดงออกถึง การดูแลและการอยู่ร่วมอย่างแท้จริงต่อผู้อื่น
- ประสบการณ์ที่มีคุณค่าในตัวเอง
- กรณีที่ การปลอมแปลงหรือการให้ผู้อื่นทำแทนเป็นการหลอกลวง
- สถานการณ์ที่ผลลัพธ์มีความสำคัญมาก และ ยากจะไว้วางใจสิ่งที่เอาท์ซอร์สให้ได้อย่างสมบูรณ์
- โดยรวมเห็นด้วยกับรายการนี้ แต่ปัญหาคือกิจกรรมที่อยู่ในหมวดเหล่านี้มีมากกว่าที่คิดมาก และตรงนี้เองที่ทำให้เห็นความต่างทางมุมมองพื้นฐานกับ Masley
การสื่อสารและการเขียนส่วนตัว
- ไม่ใช่แค่สถานการณ์ใกล้ชิดอย่างข้อความในแอปหาคู่เท่านั้น แต่ใน การสื่อสารส่วนตัวโดยรวม วิธีการแสดงออกมีความหมายอย่างเป็นสาระสำคัญ
- ในการสื่อสารมีความคาดหวังร่วมกันบางอย่างที่ไม่จำเป็นต้องพูดออกมาตรง ๆ และทันทีที่เครื่องเข้ามาขัดเกลาหรือเปลี่ยนวิธีการแสดงออกแทน ความคาดหวังนั้นก็ถูกทำลาย
- เพราะการเลือกคำและการประกอบประโยคเองก็มีความหมายอย่างมาก เมื่อ LLM เข้ามาแทรกแซง คุณภาพของการสื่อสารโดยตรงจึงเสียหาย
- ในสื่อนอร์เวย์ มีกรณีการใช้ LLM กับงานเขียนสาธารณะโดยไม่เปิดเผย ซึ่งกลายเป็นประเด็นถกเถียง และสะท้อนว่าจำเป็นต้องทำให้ชัดอีกครั้งว่าเราคาดหวังอะไรจากการสื่อสาร
- ต่อข้ออ้างที่ว่า LLM ช่วยการแสดงออกของผู้ที่ไม่ใช่เจ้าของภาษาหรือผู้มีความบกพร่องด้านการเรียนรู้ มีข้อโต้แย้งสองประการ
- ในกรณีส่วนใหญ่ ความหมายกับการแสดงออกแยกจากกันไม่ได้ และตัวคำพูดกับประโยคก็คือความหมายนั้นเอง
- หากมอบหมายการแสดงออกให้เครื่อง โอกาสในการเติบโตและการเรียนรู้จะลดลง และทำให้สูญเสียโอกาสในการค้นหาเสียงของตนเอง
- เส้นแบ่งระหว่างการตรวจแก้การสะกดและไวยากรณ์ กับการที่ LLM แทบจะเขียนแทนให้เลยนั้น บางเกินไปอย่างมาก จนยากจะแยกจากกันได้ด้วยอินเทอร์เฟซแชตบอตในปัจจุบัน
- ในมุมมองแบบปฏิบัตินิยม หลายคนอยากใช้ LLM เพื่อเพิ่มประสิทธิภาพในการทำงาน แต่คุณภาพการสร้างข้อความในภาษาที่ไม่ใช่อังกฤษ เช่น ภาษานอร์เวย์ ยังคงอยู่ในระดับต่ำมาก (อ้างถึงรายงานของสภาภาษานอร์เวย์)
- LLM ดูเหมือนจะมีประโยชน์ในการเขียนเอกสารเชิงราชการ เช่น การยื่นคำร้องหรือการเคลมประกัน แต่ หากทุกฝ่ายต่างใช้เครื่องสร้างคำเหมือนกันหมด ผลลัพธ์จะเป็นอย่างไรยังไม่แน่ชัด
- ปรากฏการณ์ที่สังเกตได้จริงคือ ในการสมัครฝึกงาน ข้อเสนอวิจัย และการสมัครงาน จำนวนการสมัครพุ่งสูงขึ้น แต่คุณภาพโดยรวมกลับลดลง
- เมื่อนักศึกษาใช้แชตบอตตัวเดียวกันในงานกลุ่ม ความหลากหลายของไอเดียก็ลดลงอย่างรวดเร็ว
- ทักษะการเขียนจะพัฒนาได้ก็ด้วยการลงมือเขียนด้วยตนเองเท่านั้น และความสามารถในการคิดก็เช่นกัน
- ข้อความเชิงหน้าที่ อย่างโค้ด สูตรอาหาร คู่มือ หรือเอกสารประกอบ ได้รับผลกระทบจากปัญหาเหล่านี้ค่อนข้างน้อย
- ตรงกันข้าม ข้อความที่ผู้เขียนส่วนตัวเขียนถึงผู้อ่านที่เป็นมนุษย์ มีความคาดหวังด้านบทบาทและความไว้วางใจเฉพาะอยู่ และหากความไว้วางใจนี้ถูกกัดกร่อน ก็อาจกลายเป็นความสูญเสียของมนุษยชาติทั้งหมด
ประสบการณ์ที่มีคุณค่า
- ทุกครั้งที่เห็นโฆษณาชวนให้โยนทั้งการวางแผนวันหยุด การเตรียมปาร์ตี้ หรือแม้แต่ข้อความที่จะส่งให้ครอบครัวและเพื่อนให้ LLM จัดการ ก็ยิ่งรู้สึก ห่างเหินจากสังคมเทคโนโลยี
- กิจกรรมมากมายในชีวิตสมัยใหม่อาจให้ความรู้สึกเหมือนเป็นงานจุกจิก แต่ในอีกด้านหนึ่ง ทัศนคติที่ปฏิบัติกับแทบทุกอย่างในชีวิตราวกับเป็นงานจุกจิก นั้นเองที่เป็นปัญหา
- ความคาดหวังของสังคมสมัยใหม่ที่ว่าควรทำสิ่งที่อยากทำได้ทุกเมื่อ และหลีกเลี่ยงสิ่งที่ไม่อยากทำได้ กลับยิ่งสร้าง ความไม่พึงพอใจอย่างต่อเนื่อง
- เห็นด้วยกับทฤษฎีที่ว่าระบบอัตโนมัติอาจช่วยให้มีเวลาไปทำสิ่งที่มีความหมายมากกว่า แต่ปัญหาคือเรามาถึงจุดที่แม้แต่ การวางแผนวันหยุดยังถูกมองเป็นงานจุกจิกที่อยากหลีกเลี่ยง แล้ว
- หากเราอยู่ในยุคที่ AI สามารถทำให้ “แทบทุกอย่าง” เป็นอัตโนมัติได้ ก็หวังว่าความสามารถนั้นจะทำให้เราตระหนักอีกครั้งว่า ในชีวิตมี สิ่งใดที่คุ้มค่ากับการใช้เวลาและความพยายาม
การสร้างความรู้
- เห็นด้วยกับข้อเสนอที่ว่า “ไม่ควรใช้แชตบอตในกระบวนการสร้างความรู้โดยนัยที่ซับซ้อน ซึ่งจำเป็นต่อการใช้ชีวิตในโลกอนาคต” และหมวดนี้ในความเป็นจริงครอบคลุม ชีวิตประจำวันส่วนใหญ่พอสมควร
- หลังสมาร์ตโฟนแพร่หลาย มีแนวคิดแพร่กระจายว่า “ถ้าจำเป็นค่อยหาในอินเทอร์เน็ตก็ได้ ไม่ต้องท่องจำ” แต่ การได้มาซึ่งความรู้และการจดจำเองก็เป็นกระบวนการหลักของการเรียนรู้
- จากประสบการณ์เรียนแจ๊สเปียโน การจะอิมโพรไวส์ได้ดี ไม่ใช่แค่ฝึกอิมโพรไวส์อย่างเดียว แต่ต้อง ฝึกเพลงและวลีดนตรีที่มีอยู่ซ้ำ ๆ จนซึมเข้าไปในร่างกาย จึงจะสร้างสัญชาตญาณได้ว่าเสียงแบบไหนคือเสียงที่ดี
- ในแง่นี้ วิธีที่มนุษย์เรียนรู้อาจดูคล้ายกับโมเดลแมชชีนเลิร์นนิง แต่ก็ไม่ได้หมายความว่าเราควร ปฏิบัติต่อมนุษย์ราวกับเป็นสิ่งนั้นจริง ๆ
- เรากำลัง ประเมินความรู้ที่สะสมจากงานซ้ำซากน่าเบื่อต่ำเกินไปอย่างมาก และหากมอบหมายสิ่งเหล่านี้ให้แชตบอตเพราะแรงกดดันด้านประสิทธิภาพ ก็เสี่ยงจะสูญเสียความรู้และความรู้สึกสำคัญบางอย่างไปในระยะยาว
ข้อโต้แย้งต่อแนวคิด “จิตใจที่ขยายออกไป”
- Masley เสนอว่าการรับรู้ไม่ได้จำกัดอยู่แค่ในสมอง แต่เกิดขึ้นในสภาพแวดล้อมทางกายภาพด้วย ดังนั้นไม่ว่าจะเกิดในนิวรอนของสมองหรือในวงจรของโทรศัพท์ ก็ไม่มีความแตกต่างอย่างเป็นสาระสำคัญ
- ข้อความแบบนี้เป็น ข้ออ้างที่ห่างไกลจากความเป็นจริง เพราะกระบวนการที่เกิดขึ้นในสมองกับการประมวลผลที่ทำในคอมพิวเตอร์ไม่อาจถือว่าเป็นสิ่งเดียวกันได้
- มุมมองที่ลดทอนมนุษย์ให้เหลือเพียงอุปกรณ์ประมวลผลข้อมูล และมองว่าการย้ายกระบวนการรับรู้บางอย่างออกไปยังอุปกรณ์ภายนอกไม่มีผลอะไรเลยนั้น เป็น ลัทธิลดทอนสุดโต่ง
- การจำวันเกิดเพื่อนด้วยตนเอง กับการให้แชตบอตส่งข้อความอวยพรอัตโนมัติ เป็นคนละการกระทำโดยสิ้นเชิง โดยแบบแรกมี กระบวนการนึกถึงอีกฝ่ายอย่างมีสติและกระชับความสัมพันธ์ รวมอยู่ด้วย
- ข้ออ้างที่เปรียบเทียบ “การทำโทรศัพท์หาย” กับ “การสูญเสียสมองบางส่วน” นั้นเป็นความผิดพลาดที่เอาสถานการณ์ซึ่งต่างกันโดยสิ้นเชิง ทั้งในด้านโอกาสเกิดและความร้ายแรงของผลลัพธ์ มาเหมารวมเป็นสิ่งเดียวกัน
- ข้ออ้างที่ว่าสภาพแวดล้อมทางกายภาพถูกออกแบบมาเพื่อลดการคิดให้เหลือน้อยที่สุดก็น่าเชื่อถือน้อยเช่นกัน เพราะเมื่อสภาพแวดล้อมเปลี่ยนไป เราอาจต้องใช้เวลาปรับตัวชั่วคราว แต่ไม่นานก็ คุ้นเคยและกลับมาคิดตามวิธีใหม่ได้
สิ่งที่เราคิดนั้นสำคัญ
- สำหรับสิ่งที่เรียกว่า “ความเข้าใจผิดเรื่องก้อนของการรับรู้” เห็นด้วยว่าปริมาณการคิดที่มนุษย์ใช้ได้มีขีดจำกัดอยู่ จึงไม่จำเป็นต้องกังวลว่าจะหมดไปเพียงเพราะย้ายบางส่วนออกไป
- แต่ มุมมองที่ว่า “คิดอะไรก็ได้ ขอแค่ยังคิดอยู่ก็พอ” ก็เป็นความเข้าใจผิดอีกแบบหนึ่งเช่นกัน
- มักคิดกันง่าย ๆ ว่าหากให้คอมพิวเตอร์จัดการงานง่าย ๆ น่าเบื่อ เราจะได้ไปโฟกัสกับสิ่งที่ซับซ้อนและน่าสนใจกว่า แต่ งานทางจิตบางอย่างแม้เครื่องจะทำได้ มนุษย์ก็ยังต้องทำเองจึงจะมีความหมาย
- ตัวอย่างเช่น หากมอบหมายงานธุรการของโครงการให้แชตบอต เราอาจมีเวลาไปทำวิจัยมากขึ้น แต่ในราคาเดียวกันก็อาจสูญเสีย ความเป็นเจ้าของโครงการและฐานสำหรับการตัดสินใจระดับสูง ไป
- ประเด็นไม่ใช่ว่าห้ามทำให้งานทุกอย่างเป็นอัตโนมัติ แต่เราควรตระหนักว่า การทำให้เป็นอัตโนมัติย่อมมีทั้งสิ่งที่ได้มาและสิ่งที่สูญเสียไปเสมอ
- หากเทียบกับ “ความเข้าใจผิดเรื่องก้อนของแรงงาน” การให้เครื่องทำงานใช้แรงกายแทนย่อมสร้างงานรูปแบบใหม่ขึ้นมาได้ แต่ก็ ไม่ได้รับประกันว่างานนั้นจะเป็นงานที่มีประโยชน์ เติมเต็มชีวิต หรือมีความหมายต่อทั้งปัจเจกและสังคม
- การคิดก็เช่นกัน แม้แต่กระบวนการคิดที่น่าเบื่อและจำเจก็ยังส่งผลต่อมนุษย์ และเมื่อเราตัดงานรับรู้บางอย่างออกไป ผลกระทบนั้นย่อมคงอยู่เสมอ ไม่ว่าจะเป็นด้านบวกหรือด้านลบ
บทสรุป
- การตัดสินว่าแชตบอตเหมาะกับการใช้งานในด้านใดในระยะยาว เป็น ภารกิจสำคัญที่หลีกเลี่ยงไม่ได้
- ลักษณะของการสื่อสารส่วนตัวอาจเปลี่ยนไปอย่างถึงราก ระบบการศึกษาอาจถูกบังคับให้ปรับตัวครั้งใหญ่ และเราจะต้องทบทวนอย่างระมัดระวังยิ่งขึ้นว่า ประสบการณ์แบบใดที่สำคัญอย่างแท้จริงในชีวิต
- เหตุผลที่เทคโนโลยีนี้น่าสนใจอย่างแท้จริง ก็คือมันตั้งคำถามตรง ๆ ไม่ใช่แค่เรื่องประสิทธิภาพ แต่รวมถึง ความเป็นมนุษย์และคุณค่า
- ทางเลือกว่าจะใช้แชตบอตอย่างไร ไม่ใช่เพียงปัญหาเรื่องผลิตภาพหรือผลลัพธ์ทางการรับรู้ แต่โยงไปถึงคำถามว่า เราต้องการชีวิตแบบไหนและสังคมแบบไหน
- ดังนั้นจึงมี เหตุผลที่ชัดเจน ว่าทำไมกิจกรรมบางอย่างของมนุษย์จึงควรถูกปกป้องจากระบบอัตโนมัติแบบกลไก
- นอกเหนือจากผลการวิจัยและการถกเถียงเรื่องประสิทธิภาพแล้ว เรายังต้องพิจารณาร่วมกันด้วยว่า ชุมชนของเราจะตั้งอยู่บนคุณค่าแบบใด
1 ความคิดเห็น
ความเห็นจาก Hacker News
วลี “Lump of cognition fallacy” เป็นแนวคิดที่ต่อยอดมาจาก “Lump of Labor Fallacy(ความเข้าใจผิดเรื่องปริมาณงานคงที่)” อันเป็นแนวคิดคลาสสิกทางเศรษฐศาสตร์
มันหมายถึง ความเข้าใจผิด ที่เชื่อว่าปริมาณงานในระบบเศรษฐกิจมีอยู่คงที่
ในความเป็นจริง ความก้าวหน้าทางเทคโนโลยีหรือระบบอัตโนมัติช่วยเพิ่มผลิตภาพ ลดต้นทุน และท้ายที่สุดก็สร้างความต้องการแรงงานมากขึ้น
ข้ออ้างว่า “AI จะทำให้งานหายไป” ก็อาจมองได้ว่าเป็นอีกรูปแบบหนึ่งของความเข้าใจผิดนี้
บทความนี้น่าประทับใจมาก แต่ผมก็คิดว่าคำว่า “เอาความคิดไปจ้างคนนอกทำ” อาจเป็นกรอบที่คลาดเคลื่อนไปหน่อย
ปัญหาที่ผมเจอจริง ๆ ไม่ใช่การใช้ AI แต่เป็นการ ทำสิ่งที่ผิดให้เป็นอัตโนมัติ
งานที่มีแก่นอยู่ที่การคิด การไตร่ตรอง และการตัดสินใจ ควรออกแบบให้ AI เป็นผู้ร่วมงาน ส่วนเรื่องอย่างการลงมือทำหรือการจำ ควรทำให้เป็นอัตโนมัติอย่างเต็มที่
สุดท้ายแล้วปัญหาไม่ใช่การ ‘เอาความคิดไปจ้างคนนอกทำ’ แต่คือการข้าม ลูปการรับรู้ ที่สำคัญ
ผมสรุปเรื่องที่เกี่ยวข้องไว้ ที่นี่
ตั้งแต่ Gmail ใส่ LLM เข้ามา ผมก็รู้สึกไม่ค่อยสบายใจ
ผมเชื่อว่าทุกคำและโครงสร้างประโยคสะท้อน ตัวตน ของคนนั้น
เพราะงั้นผมจึงคิดว่าการสื่อสารโดยตรงผ่าน LLM ทำลายความเชื่อมโยงแบบมนุษย์
ถ้าความเชื่อมโยงแบบมนุษย์ตั้งอยู่บนพื้นฐานของความปรารถนาดี ผมก็เห็นด้วย แต่ถ้าไม่ใช่ LLM อาจช่วยได้มากกว่า
ผมชอบมุมมองเรื่อง “Reversibility”
การให้ AI ช่วยแค่ขั้นตอนหนึ่ง เช่น ตรวจไวยากรณ์หรือสรุปความ แตกต่างจากการให้มันทำทั้งกระบวนการแทนเรา
ถ้าหน้าที่ของผมเหลือแค่กดอนุมัติ ผมก็จะไม่สามารถสร้างโมเดลภายในได้ และ วิจารณญาณ ก็จะอ่อนลง
นี่ไม่ใช่ปัญหาของตัวโมเดลอย่างเดียว แต่เป็น ปัญหาเรื่อง UI/การออกแบบ ด้วย
เครื่องมือที่แสดงความแตกต่างโดยอิงจากร่างต้นฉบับยังทำให้ผู้ใช้อยู่ในลูป แต่เครื่องมือที่เริ่มจากหน้ากระดาษเปล่าจะฝึกให้คน ‘ยอมรับ’ มากกว่า
สิ่งที่ผมกังวลคือ หลังจากผู้คนพึ่งพาเทคโนโลยีแล้ว ข้อมูลฝึกหรืออัลกอริทึมอาจเอนเอียงไปตามวาระบางอย่าง
สุดท้ายปัญหาคือแหล่งข้อมูลอยู่ภายใต้การควบคุมของคนอื่น
เพราะงั้นแต่ละคนควร เป็นเจ้าของ LLM และฮาร์ดแวร์ของตัวเอง ได้
พอเห็นทวีตของ Karpathy ก็ทำให้ผมกลับมาคิดถึง ความสำคัญของความล้มเหลว อีกครั้ง
เวลา AI พลาด คนมักโยนความผิดให้ AI แล้วสูญเสียโอกาสในการเรียนรู้
ผมรู้สึกว่าบทความนี้ก็พูดถึงบริบทคล้าย ๆ กัน
ผมเองก็เคยให้ AI รับผิดชอบบางส่วนของโปรเจกต์ แล้วภายหลังถึงได้รู้ว่า ตัวผมเองกลับไม่เข้าใจโปรเจกต์ของตัวเองดีพอ
ถ้าติดขัดก็เอา LLM อีกตัวมาเป็นดีบักเกอร์ ถ้ายังติดก็เรียก LLM อีกตัวมาอีก — เป็นเหมือน โครงสร้างหอคอยเต่าซ้อนกันไม่รู้จบ (/s)
ถ้าเปรียบกับสมองมนุษย์ AI ก็ดูเหมือนจะกลายเป็น นีโอคอร์เทกซ์(neocortex) ใหม่ ของเรา
เช่นเดียวกับที่ระบบลิมบิกไม่ได้ ‘จ้างคนนอก’ ให้คิดแทนนีโอคอร์เทกซ์ AI ก็คงไม่มาแทนที่ความคิดของมนุษย์ แต่จะเป็นอีกชั้นหนึ่งที่คอยให้คำแนะนำ
และเช่นเดียวกับที่นีโอคอร์เทกซ์ขยายความเป็นสังคมของมนุษย์ AI ก็จะทำให้เราสามารถ สื่อสารกับผู้คนนับล้าน ได้
เพียงแต่ความสัมพันธ์นั้นจะมีรูปร่างแตกต่างจาก ‘บทสนทนาแบบส่วนตัว’ ในปัจจุบันอย่างสิ้นเชิง
รายการ “สิ่งที่ไม่ควรใช้ AI ทำ” ฟังดู ไร้เดียงสา ไปหน่อย
เหมือนกับ บทความของ The Atlantic ที่เล่าว่านักศึกษาภาพยนตร์ดูหนังไม่จบ ผู้คนไม่ได้ทำตัวอย่างมีความรับผิดชอบแม้จะรู้ถึงความเสี่ยง
กรอบ “Lump of cognition” ไม่ได้เป็นเรื่องของ ปริมาณความคิด แต่เป็นเรื่องของ เราหยุดคิดเรื่องอะไรไปบ้าง
วิจารณญาณและสัญชาตญาณเติบโตขึ้นจากงานที่ซ้ำซากและน่าเบื่อ และการเอางานเหล่านั้นไปจ้างคนนอกทำก็ต้องแลกมาด้วยบางอย่าง
ต้นทุนในการผลิตคำพูดที่ต่ำลง ไม่ได้แปลว่า ความลึกของความคิด จะเพิ่มขึ้น