อุตสาหกรรม AI กำลังค้นพบว่าคนทั่วไปเกลียดพวกเขา
(newrepublic.com)- กระแสต่อต้าน AI และดาต้าเซ็นเตอร์รุนแรงขึ้นจนถึงขั้นเกิด ความรุนแรงที่มีแรงจูงใจทางการเมือง โดยมีทั้งเหตุขว้างระเบิดเพลิงใส่บ้าน CEO ของบริษัท AI และเหตุยิงบ้านสมาชิกสภาเมืองที่สนับสนุนดาต้าเซ็นเตอร์
- ช่องว่างระหว่าง ความมองโลกในแง่ดีของผู้เชี่ยวชาญกับการรับรู้ของสาธารณะ กว้างขึ้นมาก โดยสัดส่วนคนทั่วไปที่มองบวกต่อผลระยะยาวของ AI ต่อการจ้างงานและเศรษฐกิจต่ำกว่ามาก
- ภาพอนาคตสุดขั้ว และความต้องการเงินลงทุนมหาศาล ผนวกกับภาวะงานไม่มั่นคง ค่าครองชีพที่สูงขึ้น และความกังวลเรื่องค่าไฟ ทำให้ AI ดูเหมือนเป็นสิ่งที่ถูกยัดเยียดให้กับสาธารณะที่ไม่ต้องการมัน
- คำมั่นเรื่องผลิตภาพ ยังไม่มีหลักฐานยืนยันชัดเจน หลายบริษัทรู้สึกไม่ได้ว่าผลิตภาพดีขึ้นหลังนำ AI มาใช้ และโปรแกรมนำร่องจำนวนมากก็ยังไม่สร้างรายได้
- การ กู้คืนความไว้วางใจ ทำให้การกระทำที่ตรวจสอบได้ ความโปร่งใสเรื่องประสิทธิภาพจริง การยอมรับกฎระเบียบและความรับผิดชอบ และการมีส่วนร่วมของชุมชนในกระบวนการขยายดาต้าเซ็นเตอร์ สำคัญกว่าการออกไวต์เปเปอร์หรือประชาสัมพันธ์
สัญญาณของการต่อต้านและความรุนแรงที่เพิ่มขึ้น
- บ้านของ Sam Altman CEO ของ OpenAI ถูก ขว้างระเบิดเพลิง และผู้ต้องสงสัยได้ทิ้งแถลงการณ์เตือนภัยคุกคามเชิงอัตถิภาวนิยมจาก AI ไว้
- ผู้ต้องสงสัยถูกจับกุมในวันเดียวกัน และมีรายงานใน SF Standard
- ในแถลงการณ์มีข้อความว่าควรฆ่า CEO บริษัท AI และมีการเรียกตัวเองใน Instagram ว่า “butlerian jihadist”
- ที่ Indianapolis บ้านของ Ron Gibson สมาชิกสภาเมืองจากพรรคเดโมแครตในพื้นที่ ถูก ยิง 13 นัด และมีข้อความว่า “No Data Centers” ทิ้งไว้หน้าประตู
- ตอนเกิดเหตุมีลูกชายวัย 8 ขวบอยู่ในบ้าน แต่ไม่ได้รับบาดเจ็บ
- Gibson สนับสนุนโครงการดาต้าเซ็นเตอร์ที่อาจเข้ามาในเขตของตน และมีการสรุปเรื่องนี้ไว้ใน PBS NewsHour
- ทั้งสองเหตุการณ์ถูกอธิบายว่าเป็น ความรุนแรงที่มีแรงจูงใจทางการเมือง และบนโซเชียลมีเดียยังมีปฏิกิริยาคล้ายยินดีกับเรื่องนี้ด้วย
- ตัวอย่างที่เกี่ยวข้องเชื่อมไปยัง โพสต์บน X
ช่องว่างด้านการรับรู้ระหว่างสาธารณะกับอุตสาหกรรม
- รายงาน Artificial Intelligence Index 2026 ของ Stanford แสดงให้เห็นช่องว่างขนาดใหญ่ระหว่าง ความมองโลกในแง่ดีของผู้เชี่ยวชาญ กับการรับรู้ของสาธารณะ
- ต่อผลกระทบระยะยาวต่อการจ้างงาน ผู้เชี่ยวชาญ 73 เปอร์เซ็นต์มองบวก และต่อผลกระทบทางเศรษฐกิจ 69 เปอร์เซ็นต์มองบวก
- แต่คนทั่วไปมองบวกต่อสองประเด็นนี้เพียง 23 เปอร์เซ็นต์ และ 21 เปอร์เซ็นต์ตามลำดับ และชาวอเมริกันเกือบสองในสามมองว่า AI จะลดจำนวนงานลงในอีก 20 ปีข้างหน้า
- ผลสำรวจเดือนมีนาคม 2026 ของ Gallup พบว่า ความสงสัยต่อ AI ในกลุ่ม Gen Z รุนแรงขึ้น
- สัดส่วนที่บอกว่ารู้สึกตื่นเต้นกับ AI ลดจาก 36 เปอร์เซ็นต์เหลือ 22 เปอร์เซ็นต์
- สัดส่วนที่บอกว่ารู้สึกโกรธกับ AI เพิ่มจาก 22 เปอร์เซ็นต์เป็น 31 เปอร์เซ็นต์
- กระแสนี้เชื่อมโยงกับแรงต้านที่มองว่า AI ไม่ใช่เทคโนโลยีธรรมดา แต่เป็น โครงการการเมืองของชนชั้นนำ
- Jasmine Sun สรุป ว่านี่คือโลกทัศน์ที่มองว่าเหล่ามหาเศรษฐีผู้ห่างไกลความจริงกำลังยัดเยียดสิ่งนี้ให้กับประชาชนที่ไม่ต้องการมัน
ข้อความจากอุตสาหกรรมและต้นทุนจริงที่เร่งแรงต้าน
- CEO รายใหญ่ในอุตสาหกรรม AI เน้นย้ำ ภาพอนาคตสุดขั้ว สลับกันมาเป็นเวลานาน
- ด้านหนึ่ง พวกเขาชูภัยคุกคามว่า AI อาจทำให้มนุษยชาติสูญสิ้นด้วย อาวุธชีวภาพระดับเหนือมนุษย์
- อีกด้านหนึ่ง ก็ส่งสารว่า AI อาจ แทนที่งานทั้งก้อน หรือสุดท้ายอาจสร้าง เศรษฐกิจที่ผลักคนเข้าสู่ gig economy
- ข้อความเหล่านี้ปะทะกับ สภาพความเป็นอยู่ที่ไม่มั่นคง ซึ่งคนทั่วไปกำลังเผชิญอยู่แล้ว
- โดยเฉพาะตลาดหางานที่ถูกนำเสนอว่า เปราะบางอย่างมาก รวมถึงสำหรับบัณฑิตจบใหม่
- ผลประโยชน์ทางเศรษฐกิจไปรวมอยู่ที่ คนรวยที่สุด 0.1 เปอร์เซ็นต์ ขณะที่ราคาอาหาร ที่อยู่อาศัย และน้ำมัน ยังคงสูงขึ้น
- ในสถานการณ์เช่นนี้ อุตสาหกรรมกลับเรียกร้องทั้ง การลงทุนมหาศาล และการขยายดาต้าเซ็นเตอร์ขนาดใหญ่พร้อมกัน
- รายงานของ Stanford กล่าวถึงกระแสที่อุตสาหกรรมเรียกร้องเงินลงทุนต่อเนื่องระดับหลายแสนล้านดอลลาร์
- การขยายดาต้าเซ็นเตอร์กำลังกระทบต่อค่าไฟในท้องถิ่นด้วย ซึ่ง Brookings กล่าวถึงประเด็นนี้
- ใน Virginia ซึ่งเป็นศูนย์กลางบูมดาต้าเซ็นเตอร์ของสหรัฐ มีการคาดการณ์ใน Georgetown Environmental Law Review ว่าค่าไฟครัวเรือนอาจเพิ่มขึ้นสูงสุด 25 เปอร์เซ็นต์ภายในปี 2030
ช่องว่างระหว่างคำมั่นเรื่องผลิตภาพกับผลลัพธ์จริง
- ต้นทุนเหล่านี้จะพอยอมรับได้ก็ต่อเมื่อ AI แสดง ประโยชน์สาธารณะอย่างเป็นรูปธรรม หรือการปรับปรุงงานอย่างชัดเจน แต่หลักฐานในตอนนี้ยังอ่อนมาก
- ตามงานวิจัย NBER เดือนกุมภาพันธ์ 2026 บริษัท 80 เปอร์เซ็นต์ ที่เริ่มนำ AI มาใช้อย่างจริงจังรายงานว่าไม่มีผลต่อผลิตภาพของบริษัท
- ตัวเลขนี้ถูกอ้างผ่านบทสรุปของ Tom's Hardware
- งานศึกษาของ MIT ในปี 2025 ระบุว่า 95 เปอร์เซ็นต์ของโปรแกรมนำร่อง AI ในองค์กรไม่สร้างรายได้เลย
- ข้อมูลดังกล่าวอยู่ใน State of AI in Business 2025 Report
- แม้แต่ในด้านอย่างการเขียนโค้ดและงานเทคนิค ซึ่งเป็นพื้นที่ที่คาดหวังต่อ AI สูง ความ สามารถในการตรวจสอบยืนยัน ของตัวเลขผลิตภาพก็ยังสั่นคลอน
- วิศวกรแมชชีนเลิร์นนิง Han-Chung Lee ชี้ใน โพสต์บน GitHub ว่า แม้จะมีตัวเลขภายในที่ดูเป็นบวก ก็อาจเป็นตัวเลขที่ถูกสร้างขึ้นเพื่อให้บรรลุเป้าหมายการยอมรับการใช้งาน และยากต่อการตรวจสอบจากภายนอกอย่างมีประสิทธิภาพ
- อย่างไรก็ดี เมื่อพิจารณาว่า ChatGPT เพิ่งเป็นกรณีสาธิตสู่สาธารณะครั้งแรกในเดือนพฤศจิกายน 2022 การที่เทคโนโลยีใหม่จะผ่าน ช่วงเริ่มต้นที่ขรุขระ ก็เป็นเรื่องธรรมชาติ
เงื่อนไขที่จำเป็นต่อการฟื้นความไว้วางใจและข้อจำกัดในปัจจุบัน
- ช่องว่าง ระหว่างประสบการณ์เทคโนโลยีที่สาธารณะรับรู้ได้จริงกับวิธีที่อุตสาหกรรมพูดถึงตัวเอง ได้เริ่มนำไปสู่ผลลัพธ์ที่มองเห็นได้แล้ว
- กระแสที่ว่าดาต้าเซ็นเตอร์เกือบครึ่งหนึ่งที่วางแผนไว้ในสหรัฐสำหรับปี 2026 ถูกยกเลิกหรือเลื่อน ถูกนำเสนอไว้ใน TechRadar
- มีแม้กระทั่งผลสำรวจที่ระบุว่าอุตสาหกรรม AI ไม่น่าชอบยิ่งกว่า ICE หรือ Donald Trump
- Big Tech เองก็เริ่มตระหนักถึงปัญหาที่อาจเกิดกับคนทั่วไป และเริ่มเสนอ มาตรการบรรเทา บางอย่าง
- OpenAI ออก Industrial Policy White Paper ในเดือนเมษายน โดยเสนอแนวทางอย่างการตั้ง Public Wealth Fund การปรับระบบประกันสังคม และการวัดผลกระทบของ AI ต่อแรงงานแบบเรียลไทม์
- Microsoft ให้คำมั่นใน Community-First AI Infrastructure Initiative เมื่อเดือนมกราคม ว่าจะช่วยอุดหนุนค่าสาธารณูปโภคและลดการใช้น้ำให้น้อยที่สุดในพื้นที่ที่สร้างดาต้าเซ็นเตอร์
- แต่ระหว่างคำสัญญาในข่าวประชาสัมพันธ์กับ ความสามารถในการลงมือทำจริง ก็ยังมีช่องว่างอยู่อีก
- Community-First Initiative ของ Microsoft ไม่มีระบบติดตามความรับผิดอย่างเป็นอิสระอยู่ในนั้น
- ไวต์เปเปอร์ฉบับใหม่ของ OpenAI ดูเหมือนจะขยับไปทางนโยบายเทคโนโลยีเชิงก้าวหน้า แต่ Greg Brockman ได้ส่งเงินหลายล้านดอลลาร์ให้ SuperPAC ที่ขัดขวางกฎระเบียบ AI ระดับรัฐ และมีรายงานใน Fortune
- OpenAI ยังสนับสนุน Senate Bill 3444 ของ Illinois ด้วย โดยร่างกฎหมายนี้ถูกอธิบายว่าเป็นไปในทิศทางคุ้มครองบริษัทจากความเสียหายวงกว้างที่เกิดจากโมเดล AI
- ในบทความเดียวกันระบุว่า Anthropic คัดค้านร่างกฎหมายนี้
- เมื่อประกอบกับ บทความของ New Yorker โดย Ronan Farrow ที่ว่าด้วย Sam Altman ก็ยิ่งทำให้เห็น รูปแบบซ้ำๆ ของการประกาศจุดยืนสนับสนุนต่อสาธารณะ แล้วค่อยเปลี่ยนทิศอย่างรวดเร็วเมื่อเป็นประโยชน์ต่อบริษัท
- หากจะฟื้นความไว้วางใจ อีกไวต์เปเปอร์หนึ่งย่อมสำคัญน้อยกว่า การลงมือทำอย่างต่อเนื่องและตรวจสอบได้
- จำเป็นต้องมีความโปร่งใสจริงเกี่ยวกับสิ่งที่ผลิตภัณฑ์ทำได้จริง
- ต้องยอมรับกฎระเบียบและความรับผิดชอบที่มีความหมาย แม้จะมีต้นทุนทางการเงิน
- การขยายดาต้าเซ็นเตอร์ต้องมีการมีส่วนร่วมเชิงประชาธิปไตยอย่างแท้จริงจากชุมชนท้องถิ่น
- มิฉะนั้น กระแส AI ประชานิยมที่เพิ่มขึ้นและความเป็นไปได้ของความรุนแรงที่ตามมาก็อาจเพิ่มขึ้นไปพร้อมกัน
1 ความคิดเห็น
ความเห็นจาก Hacker News
ผมคิดว่าอย่างน้อย คำวิจารณ์ AI ควรถูกแยกคุยเป็นสามเรื่อง เพราะวิธีแก้ไม่เหมือนกัน
เรื่องแรกคือ การสูญเสียงาน ซึ่งค่อนข้างตรงไปตรงมา ต้องแบ่งผลผลิตจาก AI ให้ทั้งสังคม และยิ่งควรทำเพราะ AI เรียนรู้จากผลงานของสังคมเอง วิธีที่ง่ายที่สุดน่าจะเป็นการเก็บภาษีการใช้ AI แล้วนำไปทำ UBI ถ้าคนตกงานแต่ยังมีรายได้อยู่ ความไม่พอใจก็น่าจะลดลงมาก
เรื่องที่สองคือ ต้นทุนด้านสิ่งแวดล้อม อันนี้ยากกว่า หัวใจคือการเพิ่มประสิทธิภาพและขยายพลังงานสะอาด โดยภาษีและกฎกำกับด้านประสิทธิภาพอาจเป็นจุดเริ่มต้น เทคโนโลยีพลังงานยั่งยืนมีอยู่แล้วแต่ราคาแพง และถ้า AI จะใช้ไฟมหาศาลต่อไป เรื่องนี้ไม่ควรประนีประนอม
เรื่องสุดท้ายคือจุดที่ยากจริง ๆ คือเราควรมอบ งานสร้างสรรค์ ให้ AI มากแค่ไหน และควรปฏิบัติต่อผลงานที่ AI สร้างอย่างไร ซึ่งยังไม่มีคำตอบ
อีกประเด็นที่เชื่อมกันคือ AI สามารถแกล้งเป็นมนุษย์เพื่อทำ การฉ้อโกงและการหลอกลวง ในวงกว้างได้ ระบบรับมือทุกวันนี้ตั้งอยู่บนสมมติฐานว่าการโกงจำนวนมากต้องใช้เวลาและแรงมาก แต่ตอนนี้สมมติฐานนั้นกำลังพังลง
ผมคิดว่า ศูนย์ข้อมูล AI ควรต้องเดินด้วยการผลิตพลังงานยั่งยืนใช้เองทั้งหมด เราปรับปรุงประสิทธิภาพการใช้ไฟและน้ำกันมาหลายสิบปี ไม่เห็นมีเหตุผลให้ปล่อยให้บริษัทโลภไม่กี่เจ้ามาดูดใช้ทั้งหมด
อาจฟังเหมือนพูดเล่น แต่ผมอยากให้ AI ล้างจานกับพับผ้าแทนผม แล้วผมไปเขียนหนังสือและทำเพลง ผมไม่ต้องการให้มันเป็นอีกแบบ
ผมไม่คิดว่าการเก็บภาษีบริษัท AI อย่างเดียวจะหาเงินได้ถึงขนาดนั้น ฝั่งที่พูดเรื่องรายได้พื้นฐานต้องจริงจังกับตัวเลขมากกว่านี้ มันยังดูไม่ใช่ทางออกที่เป็นจริง
ถ้าพวกเขาแทนที่แรงงานได้ถึง 50% ด้วย AI จริง อิทธิพลของพวกเขาจะเกินจินตนาการ
เทคโนโลยียังไปไม่ถึง แต่ตัวอย่างหนึ่งของการผลิตจำนวนมากแบบ AI ที่พอนึกออกคือ การทำหนังจากนิยายแบบอัตโนมัติ การเปลี่ยนแปลงแบบนี้อาจทำให้คนมีพลังมากขึ้น หรืออาจทำให้คุณภาพของศิลปะลดลงหรือดีขึ้นก็ได้ มันอาจทำให้สังคมแตกแยก หรือกลับทำให้คนมารวมกันมากขึ้นก็ได้
[1]: https://en.wikipedia.org/wiki/Art_Deco#Late_Art_Deco
พวก CEO AI ตะโกนมาหลายปีแล้วว่า AI น่ากลัว, มันจะเอางานของคุณไป
“Mythos อันตรายเกินกว่าจะเปิดเผยได้”
“ถ้าคุณใช้ ChatGPT ดึงวิธีทำไบโอเทอร์เรอร์ออกมาได้ เราจะให้เงินรางวัล”
“AI แบบเอเจนต์จะลบหมวดหมู่งานไปเลย”
ข้อความพวกนี้ดูเหมือนจะไม่ได้ส่งถึงคนทั่วไป แต่ส่งถึง รัฐบาลและลูกค้าองค์กรรายใหญ่ ที่มีเงิน มีต้นทุนให้ตัด และต้องการปกป้องหรือขยายพรมแดน
คนจะไม่ชอบ AI ก็ไม่ใช่เรื่องน่าแปลก เพราะแทบไม่เคยมีการขายมันในฐานะสินค้าสำหรับผู้คนตั้งแต่แรก
คนนอกวงการ AI มองว่านี่เป็นเรื่องเดาง่ายมาก ผู้นำอุตสาหกรรมพูดถึง การลบงานนับล้านตำแหน่ง การปรับโครงสร้างงานอื่นครั้งใหญ่ ไปจนถึง การทำระบบอาวุธสังหารให้เป็นอัตโนมัติ แต่ก็ยังบอกว่าจะพัฒนาต่อ
แม้แต่ความไม่มั่นคงทางเศรษฐกิจล่าสุดกับการปลดพนักงานจำนวนมาก ผู้บริหารที่ลงมือปลดยังโยนให้ AI เป็นเหตุ และบริษัท AI รายใหญ่ก็เอาทรัพย์สินทางปัญญาไปฝึกโดยแทบไม่เกรงใจ ก่อนจะยัด AI ให้ทุกคน
คนทั่วไปจะเกลียด AI ก็ไม่แปลก และฝั่งอุตสาหกรรมเองก็แทบไม่ได้พยายามทำให้ตัวเองดูน่าชอบเลย
ท้ายที่สุด CEO ของบริษัทพวกนี้ดูเหมือนอยากขยายบริษัทตัวเองอย่างเดียว ไม่ว่าสังคมจะต้องแบกรับต้นทุนแค่ไหน
ในตลาดที่ทุกคนใช้น้ำมันงูขวดเดียวกัน มันดูไม่ใช่ความแตกต่าง แต่เหมือนเป็นหนทางสู่ ค่าเฉลี่ยในราคาสูง มากกว่า
ตั้งแต่พวก booster บน X, คนแนวผู้จัดการระดับกลาง, AI influencer บน LinkedIn ไปจนถึงคนทำวิดีโอปลอมบน Facebook มันเหมือนดึงดูดคนประเภทเดียวกันทั้งหมด
ผมก็ไม่แน่ใจว่าจริงไหม วันศุกร์ได้ฟังพรีเซนต์ที่ทำงานซึ่งเชียร์ AI เขาบอกว่าพอไปสำรวจคนที่เข้าร่วม AI conference แล้ว 93% รู้สึกคาดหวังเชิงบวกกับ AI
เขาพูดเรื่องนี้ด้วยสีหน้าจริงจังแบบ “คนเราก็ชอบลูกหมากันอยู่แล้วไง”
ดู ขาดการตระหนักรู้ในตนเอง อย่างรุนแรงมาก
แทบไม่มีใครอยากถูกติดภาพลักษณ์แบบนั้น และยิ่งทำให้เกิด บรรยากาศของความหลีกเลี่ยงไม่ได้ ว่าเทคโนโลยีนี้จะถาโถมเข้ามาไม่ว่าคุณจะอยากหรือไม่ก็ตาม
แล้วในสภาพตลาดแบบตอนนี้ จะมีสักกี่คนที่กล้าพูดกับหัวหน้าหรือในที่สาธารณะสบาย ๆ ว่า “AI ดูเป็นเรื่องเพ้อเจ้อพอตัวเลยนะ”
ถ้าต่อให้ตัวเลขผลิตภาพภายในองค์กรเองยังถูกสร้างขึ้นมาให้สอดคล้องกับ เป้าหมายการนำมาใช้ จนตรวจสอบจากภายนอกได้ยาก เรื่องนี้ก็แทบไม่ต่างจากสิ่งที่ BI แบบ MBA จำนวนมากทำอยู่แล้ว
จากประสบการณ์ของผม BI มักเหมือน บ้านไพ่ และหลายครั้งใกล้เคียงกับการแต่งเรื่องให้ดูสวยงามเหมือนตอนเขียนเรซูเม่มากกว่า
ท้ายที่สุด หน่วยพื้นฐานของบริษัทอเมริกันหลายแห่งก็ดูเหมือนจะเป็นความสามารถในการสร้างเรื่องเล่าทางการเมืองที่ฟังขึ้น
ในยุคที่คนรู้สึกไม่มั่นคงเรื่องงานอยู่แล้ว การพูดว่า “เราจะลบงานของคุณและทำให้คุณไร้ประโยชน์” แล้วหวังว่าจะได้รับความนิยมจากสาธารณะ มันไม่มีเหตุผลเลย
ยิ่งถ้าไม่เสนอ เส้นทางทางเลือกในการสะสมความมั่งคั่ง ไม่แก้ปัญหาเศรษฐกิจอย่างค่าที่อยู่อาศัยหรือค่ารักษาพยาบาล แถมยังทำให้ความเป็นปึกแผ่นทางสังคมและราคาพลังงานแย่ลงอีก ก็ยิ่งไปกันใหญ่
ถ้าอุตสาหกรรมยังเพิกเฉยต่อแรงต้านจากสาธารณะต่อผลกระทบทางสังคมของ AI อย่างเริงร่า ผมคิดว่าอาจเจอแรงสะท้อนกลับที่หนักยิ่งกว่า กระแสต่อต้านพลังงานนิวเคลียร์หลังเชอร์โนบิล เสียอีก
ถ้าดูแบบสำรวจเดียวกับที่บทความนี้อ้างถึง จะเห็นว่าในกลุ่มคนที่ถูกสำรวจนั้น แทบไม่มีอะไรที่คนชอบโดยรวมอยู่แล้ว AI ไม่เป็นที่นิยมก็จริง แต่ก็เป็นส่วนหนึ่งของ บรรยากาศเกลียดทุกสิ่งแบบรอบทิศทาง ที่กว้างกว่านั้นด้วย
นักการเมืองยอมทุ่มเงินให้สงครามและการทำลายล้าง แต่ตระหนี่กับโครงการสังคม และการเติบโตของอินเทอร์เน็ตก็ทั้งทำให้ตั้งคำถามกับเรื่องเล่าเดิมได้ง่ายขึ้นและยากขึ้นพร้อมกัน
ท่ามกลางความสับสนและความกังวลแบบนี้ การอยากโทษใครสักคนก็ไม่ใช่เรื่องแปลก
อย่างน้อยบทความแบบนี้ควรยอมรับมากกว่านี้ว่า การนำไปใช้ในหมู่โปรแกรมเมอร์ในวงกว้าง ได้เกิดขึ้นแล้ว มันไม่ใช่แค่ระดับช่วยเขียนอีเมลเป็นครั้งคราว แต่ส่งผลต่อการพัฒนาซอฟต์แวร์อย่างมีนัยสำคัญไปแล้ว
ถ้ายังพรรณนาเหมือนมันเป็น เครื่องมือเล็กน้อย ที่มีเพียงบางคนกำลังลองใช้ ก็เท่ากับมองข้ามความจริง
โดยเฉพาะ อัตราการนำไปใช้ อาจเป็นตัวชี้วัดที่ไม่มีความหมาย เพราะมันอาจไม่ได้ช่วยอะไรจริง หรือถึงช่วยก็อาจทำให้คนที่ต้องใช้รู้สึกทุกข์ทรมาน และก็ยังถูกบังคับให้ใช้ anyway
แถมยังมี expertise debt ที่กำลังก่อตัวขึ้นโดยเราไม่รู้เลยว่าจะให้ผลระยะยาวแบบไหน
ขณะเดียวกัน วงการ AI ก็ทำงานอย่างแข็งขันเพื่อลบงานของพวกเขาเอง
สำหรับคนจำนวนมาก AI ก็เป็นแค่ การสร้างภาพ กับ การสร้างข้อความ และถ้ามองเฉพาะการใช้งานพวกนั้น ก็เข้าใจได้ว่าทำไมพวกเขาถึงรู้สึกว่ามันไม่คุ้มทั้งเวลา เงิน และพลังงาน
แต่ก็มีด้านที่คนมองไม่ค่อยเห็น เช่น ในการแพทย์ AI ช่วยได้จริงในบางจุด เช่น การค้นคว้ายาใหม่ งานวิจัยมะเร็งและการตรวจพบตั้งแต่ระยะต้น รวมถึงการวิเคราะห์ CT และ MRI ซึ่งการใช้งานแบบนี้สำคัญกว่ามากแต่กลับถูกพูดถึงน้อย
ถ้ามอง AI เป็นสิ่งเดียวแบบเหมารวม ก็อาจเสี่ยงโยนส่วนที่ดีทิ้งไปด้วย
การพูดว่าการใช้งานทางการแพทย์สำคัญกว่าก็ออกจะเฉไปหน่อย การช่วยรักษาคนย่อมสำคัญกว่าการทำลายชีวิตคนอยู่แล้ว แต่นั่นก็ไม่ได้ทำให้โทษอย่างอื่นของ AI หายไป
การมีทัศนะเชิงลบต่อ AI ไม่ได้แปลว่าอยากลบส่วนบวกของมันไปด้วย
AI ถูกขายอย่างเปิดเผยโดยคนในวงการว่าเป็น เครื่องมือแทนที่งานของคุณ ถ้าอย่างนั้นก็อาจแปลได้ว่าพวกเขาทำการตลาดได้แย่มาก หรือไม่ก็ผลประโยชน์ในอุตสาหกรรมอื่นมันเล็กน้อยเกินไปหรือสร้างมูลค่าให้ผู้ถือหุ้นไม่ได้
ถ้า AI สร้างความก้าวหน้าที่มีความหมายจริงในสาขาเหล่านั้น ค่อยพูดกันอย่างจริงจังตอนนั้นก็ได้ อย่างน้อยเท่าที่ผมรู้ ผู้ท้าชิงนวัตกรรมทางการแพทย์ที่ใหญ่ที่สุดของศตวรรษที่ 21 อย่าง mRNA หรือ GLP-1 ก็ไม่ใช่กรณีที่ LLM มีบทบาทหลัก
จนกว่าจะมีผลงานจริงออกมา ข้ออ้างนี้ก็ใกล้เคียงแฟนฟิก และถ้าจะพูดให้โหดกว่านั้นหน่อย ในเมื่ออาชีพกำลังถูกแย่ง ความน่าเชื่อถือของข้อมูลกำลังพัง และทุกที่เต็มไปด้วย slop การมีอายุยืนขึ้นเฉย ๆ จะมีความหมายอะไร นี่ไม่ใช่จินตนาการถึงอนาคต แต่เป็นความเสียหายที่เกิดขึ้นแล้ว
เรื่องเล่ารายได้ระดับหลายล้านล้านดอลลาร์ก็มาจากตรงนี้เอง
จากคนที่ผมคุยด้วยซึ่งอยู่นอกวงการเทค คนทั่วไปจำนวนมากไม่ชอบ AI และพูดตรง ๆ ผมว่ามันเป็น การตัดสินที่สมเหตุสมผล
ส่วนตัวผมรู้สึกว่าค่าสมาชิก Gemini Ultra คุ้ม และก็สนุกกับการได้ลอง API แรง ๆ ที่ AntiGravity รวมถึงการใช้ตระกูล Claude, Gemini App และ NotebookLM ในเชิงความสนุกและความท้าทายทางปัญญา
แต่ถ้าถามว่าผมจะปกป้องความชอบธรรมของต้นทุนทางสังคมอย่างค่าใช้จ่ายศูนย์ข้อมูล หรือความเป็นไปได้ที่รัฐบาลสหรัฐจะ อุ้มบริษัทยักษ์ AI ไหม ผมทำไม่ได้
กลับกัน ดูเหมือนจีนกำลังแซงเราไป กลยุทธ์ที่ชนะน่าจะเป็นการทำ AI ที่ถูกกว่า และ GLM-5.1 กับ Deepseek v4 ก็น่าทึ่งมากเมื่อเทียบประสิทธิภาพกับต้นทุนการอนุมานที่ต่ำกว่ามาก