3 คะแนน โดย GN⁺ 3 일 전 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • กระแสต่อต้าน AI และดาต้าเซ็นเตอร์รุนแรงขึ้นจนถึงขั้นเกิด ความรุนแรงที่มีแรงจูงใจทางการเมือง โดยมีทั้งเหตุขว้างระเบิดเพลิงใส่บ้าน CEO ของบริษัท AI และเหตุยิงบ้านสมาชิกสภาเมืองที่สนับสนุนดาต้าเซ็นเตอร์
  • ช่องว่างระหว่าง ความมองโลกในแง่ดีของผู้เชี่ยวชาญกับการรับรู้ของสาธารณะ กว้างขึ้นมาก โดยสัดส่วนคนทั่วไปที่มองบวกต่อผลระยะยาวของ AI ต่อการจ้างงานและเศรษฐกิจต่ำกว่ามาก
  • ภาพอนาคตสุดขั้ว และความต้องการเงินลงทุนมหาศาล ผนวกกับภาวะงานไม่มั่นคง ค่าครองชีพที่สูงขึ้น และความกังวลเรื่องค่าไฟ ทำให้ AI ดูเหมือนเป็นสิ่งที่ถูกยัดเยียดให้กับสาธารณะที่ไม่ต้องการมัน
  • คำมั่นเรื่องผลิตภาพ ยังไม่มีหลักฐานยืนยันชัดเจน หลายบริษัทรู้สึกไม่ได้ว่าผลิตภาพดีขึ้นหลังนำ AI มาใช้ และโปรแกรมนำร่องจำนวนมากก็ยังไม่สร้างรายได้
  • การ กู้คืนความไว้วางใจ ทำให้การกระทำที่ตรวจสอบได้ ความโปร่งใสเรื่องประสิทธิภาพจริง การยอมรับกฎระเบียบและความรับผิดชอบ และการมีส่วนร่วมของชุมชนในกระบวนการขยายดาต้าเซ็นเตอร์ สำคัญกว่าการออกไวต์เปเปอร์หรือประชาสัมพันธ์

สัญญาณของการต่อต้านและความรุนแรงที่เพิ่มขึ้น

  • บ้านของ Sam Altman CEO ของ OpenAI ถูก ขว้างระเบิดเพลิง และผู้ต้องสงสัยได้ทิ้งแถลงการณ์เตือนภัยคุกคามเชิงอัตถิภาวนิยมจาก AI ไว้
    • ผู้ต้องสงสัยถูกจับกุมในวันเดียวกัน และมีรายงานใน SF Standard
    • ในแถลงการณ์มีข้อความว่าควรฆ่า CEO บริษัท AI และมีการเรียกตัวเองใน Instagram ว่า “butlerian jihadist”
  • ที่ Indianapolis บ้านของ Ron Gibson สมาชิกสภาเมืองจากพรรคเดโมแครตในพื้นที่ ถูก ยิง 13 นัด และมีข้อความว่า “No Data Centers” ทิ้งไว้หน้าประตู
    • ตอนเกิดเหตุมีลูกชายวัย 8 ขวบอยู่ในบ้าน แต่ไม่ได้รับบาดเจ็บ
    • Gibson สนับสนุนโครงการดาต้าเซ็นเตอร์ที่อาจเข้ามาในเขตของตน และมีการสรุปเรื่องนี้ไว้ใน PBS NewsHour
  • ทั้งสองเหตุการณ์ถูกอธิบายว่าเป็น ความรุนแรงที่มีแรงจูงใจทางการเมือง และบนโซเชียลมีเดียยังมีปฏิกิริยาคล้ายยินดีกับเรื่องนี้ด้วย
    • ตัวอย่างที่เกี่ยวข้องเชื่อมไปยัง โพสต์บน X

ช่องว่างด้านการรับรู้ระหว่างสาธารณะกับอุตสาหกรรม

  • รายงาน Artificial Intelligence Index 2026 ของ Stanford แสดงให้เห็นช่องว่างขนาดใหญ่ระหว่าง ความมองโลกในแง่ดีของผู้เชี่ยวชาญ กับการรับรู้ของสาธารณะ
    • ต่อผลกระทบระยะยาวต่อการจ้างงาน ผู้เชี่ยวชาญ 73 เปอร์เซ็นต์มองบวก และต่อผลกระทบทางเศรษฐกิจ 69 เปอร์เซ็นต์มองบวก
    • แต่คนทั่วไปมองบวกต่อสองประเด็นนี้เพียง 23 เปอร์เซ็นต์ และ 21 เปอร์เซ็นต์ตามลำดับ และชาวอเมริกันเกือบสองในสามมองว่า AI จะลดจำนวนงานลงในอีก 20 ปีข้างหน้า
  • ผลสำรวจเดือนมีนาคม 2026 ของ Gallup พบว่า ความสงสัยต่อ AI ในกลุ่ม Gen Z รุนแรงขึ้น
    • สัดส่วนที่บอกว่ารู้สึกตื่นเต้นกับ AI ลดจาก 36 เปอร์เซ็นต์เหลือ 22 เปอร์เซ็นต์
    • สัดส่วนที่บอกว่ารู้สึกโกรธกับ AI เพิ่มจาก 22 เปอร์เซ็นต์เป็น 31 เปอร์เซ็นต์
  • กระแสนี้เชื่อมโยงกับแรงต้านที่มองว่า AI ไม่ใช่เทคโนโลยีธรรมดา แต่เป็น โครงการการเมืองของชนชั้นนำ
    • Jasmine Sun สรุป ว่านี่คือโลกทัศน์ที่มองว่าเหล่ามหาเศรษฐีผู้ห่างไกลความจริงกำลังยัดเยียดสิ่งนี้ให้กับประชาชนที่ไม่ต้องการมัน

ข้อความจากอุตสาหกรรมและต้นทุนจริงที่เร่งแรงต้าน

  • CEO รายใหญ่ในอุตสาหกรรม AI เน้นย้ำ ภาพอนาคตสุดขั้ว สลับกันมาเป็นเวลานาน
  • ข้อความเหล่านี้ปะทะกับ สภาพความเป็นอยู่ที่ไม่มั่นคง ซึ่งคนทั่วไปกำลังเผชิญอยู่แล้ว
  • ในสถานการณ์เช่นนี้ อุตสาหกรรมกลับเรียกร้องทั้ง การลงทุนมหาศาล และการขยายดาต้าเซ็นเตอร์ขนาดใหญ่พร้อมกัน
    • รายงานของ Stanford กล่าวถึงกระแสที่อุตสาหกรรมเรียกร้องเงินลงทุนต่อเนื่องระดับหลายแสนล้านดอลลาร์
    • การขยายดาต้าเซ็นเตอร์กำลังกระทบต่อค่าไฟในท้องถิ่นด้วย ซึ่ง Brookings กล่าวถึงประเด็นนี้
    • ใน Virginia ซึ่งเป็นศูนย์กลางบูมดาต้าเซ็นเตอร์ของสหรัฐ มีการคาดการณ์ใน Georgetown Environmental Law Review ว่าค่าไฟครัวเรือนอาจเพิ่มขึ้นสูงสุด 25 เปอร์เซ็นต์ภายในปี 2030

ช่องว่างระหว่างคำมั่นเรื่องผลิตภาพกับผลลัพธ์จริง

  • ต้นทุนเหล่านี้จะพอยอมรับได้ก็ต่อเมื่อ AI แสดง ประโยชน์สาธารณะอย่างเป็นรูปธรรม หรือการปรับปรุงงานอย่างชัดเจน แต่หลักฐานในตอนนี้ยังอ่อนมาก
  • ตามงานวิจัย NBER เดือนกุมภาพันธ์ 2026 บริษัท 80 เปอร์เซ็นต์ ที่เริ่มนำ AI มาใช้อย่างจริงจังรายงานว่าไม่มีผลต่อผลิตภาพของบริษัท
    • ตัวเลขนี้ถูกอ้างผ่านบทสรุปของ Tom's Hardware
  • งานศึกษาของ MIT ในปี 2025 ระบุว่า 95 เปอร์เซ็นต์ของโปรแกรมนำร่อง AI ในองค์กรไม่สร้างรายได้เลย
  • แม้แต่ในด้านอย่างการเขียนโค้ดและงานเทคนิค ซึ่งเป็นพื้นที่ที่คาดหวังต่อ AI สูง ความ สามารถในการตรวจสอบยืนยัน ของตัวเลขผลิตภาพก็ยังสั่นคลอน
    • วิศวกรแมชชีนเลิร์นนิง Han-Chung Lee ชี้ใน โพสต์บน GitHub ว่า แม้จะมีตัวเลขภายในที่ดูเป็นบวก ก็อาจเป็นตัวเลขที่ถูกสร้างขึ้นเพื่อให้บรรลุเป้าหมายการยอมรับการใช้งาน และยากต่อการตรวจสอบจากภายนอกอย่างมีประสิทธิภาพ
  • อย่างไรก็ดี เมื่อพิจารณาว่า ChatGPT เพิ่งเป็นกรณีสาธิตสู่สาธารณะครั้งแรกในเดือนพฤศจิกายน 2022 การที่เทคโนโลยีใหม่จะผ่าน ช่วงเริ่มต้นที่ขรุขระ ก็เป็นเรื่องธรรมชาติ

เงื่อนไขที่จำเป็นต่อการฟื้นความไว้วางใจและข้อจำกัดในปัจจุบัน

  • ช่องว่าง ระหว่างประสบการณ์เทคโนโลยีที่สาธารณะรับรู้ได้จริงกับวิธีที่อุตสาหกรรมพูดถึงตัวเอง ได้เริ่มนำไปสู่ผลลัพธ์ที่มองเห็นได้แล้ว
    • กระแสที่ว่าดาต้าเซ็นเตอร์เกือบครึ่งหนึ่งที่วางแผนไว้ในสหรัฐสำหรับปี 2026 ถูกยกเลิกหรือเลื่อน ถูกนำเสนอไว้ใน TechRadar
    • มีแม้กระทั่งผลสำรวจที่ระบุว่าอุตสาหกรรม AI ไม่น่าชอบยิ่งกว่า ICE หรือ Donald Trump
  • Big Tech เองก็เริ่มตระหนักถึงปัญหาที่อาจเกิดกับคนทั่วไป และเริ่มเสนอ มาตรการบรรเทา บางอย่าง
    • OpenAI ออก Industrial Policy White Paper ในเดือนเมษายน โดยเสนอแนวทางอย่างการตั้ง Public Wealth Fund การปรับระบบประกันสังคม และการวัดผลกระทบของ AI ต่อแรงงานแบบเรียลไทม์
    • Microsoft ให้คำมั่นใน Community-First AI Infrastructure Initiative เมื่อเดือนมกราคม ว่าจะช่วยอุดหนุนค่าสาธารณูปโภคและลดการใช้น้ำให้น้อยที่สุดในพื้นที่ที่สร้างดาต้าเซ็นเตอร์
  • แต่ระหว่างคำสัญญาในข่าวประชาสัมพันธ์กับ ความสามารถในการลงมือทำจริง ก็ยังมีช่องว่างอยู่อีก
    • Community-First Initiative ของ Microsoft ไม่มีระบบติดตามความรับผิดอย่างเป็นอิสระอยู่ในนั้น
    • ไวต์เปเปอร์ฉบับใหม่ของ OpenAI ดูเหมือนจะขยับไปทางนโยบายเทคโนโลยีเชิงก้าวหน้า แต่ Greg Brockman ได้ส่งเงินหลายล้านดอลลาร์ให้ SuperPAC ที่ขัดขวางกฎระเบียบ AI ระดับรัฐ และมีรายงานใน Fortune
    • OpenAI ยังสนับสนุน Senate Bill 3444 ของ Illinois ด้วย โดยร่างกฎหมายนี้ถูกอธิบายว่าเป็นไปในทิศทางคุ้มครองบริษัทจากความเสียหายวงกว้างที่เกิดจากโมเดล AI
    • ในบทความเดียวกันระบุว่า Anthropic คัดค้านร่างกฎหมายนี้
  • เมื่อประกอบกับ บทความของ New Yorker โดย Ronan Farrow ที่ว่าด้วย Sam Altman ก็ยิ่งทำให้เห็น รูปแบบซ้ำๆ ของการประกาศจุดยืนสนับสนุนต่อสาธารณะ แล้วค่อยเปลี่ยนทิศอย่างรวดเร็วเมื่อเป็นประโยชน์ต่อบริษัท
  • หากจะฟื้นความไว้วางใจ อีกไวต์เปเปอร์หนึ่งย่อมสำคัญน้อยกว่า การลงมือทำอย่างต่อเนื่องและตรวจสอบได้
    • จำเป็นต้องมีความโปร่งใสจริงเกี่ยวกับสิ่งที่ผลิตภัณฑ์ทำได้จริง
    • ต้องยอมรับกฎระเบียบและความรับผิดชอบที่มีความหมาย แม้จะมีต้นทุนทางการเงิน
    • การขยายดาต้าเซ็นเตอร์ต้องมีการมีส่วนร่วมเชิงประชาธิปไตยอย่างแท้จริงจากชุมชนท้องถิ่น
    • มิฉะนั้น กระแส AI ประชานิยมที่เพิ่มขึ้นและความเป็นไปได้ของความรุนแรงที่ตามมาก็อาจเพิ่มขึ้นไปพร้อมกัน

1 ความคิดเห็น

 
GN⁺ 3 일 전
ความเห็นจาก Hacker News
  • ผมคิดว่าอย่างน้อย คำวิจารณ์ AI ควรถูกแยกคุยเป็นสามเรื่อง เพราะวิธีแก้ไม่เหมือนกัน
    เรื่องแรกคือ การสูญเสียงาน ซึ่งค่อนข้างตรงไปตรงมา ต้องแบ่งผลผลิตจาก AI ให้ทั้งสังคม และยิ่งควรทำเพราะ AI เรียนรู้จากผลงานของสังคมเอง วิธีที่ง่ายที่สุดน่าจะเป็นการเก็บภาษีการใช้ AI แล้วนำไปทำ UBI ถ้าคนตกงานแต่ยังมีรายได้อยู่ ความไม่พอใจก็น่าจะลดลงมาก
    เรื่องที่สองคือ ต้นทุนด้านสิ่งแวดล้อม อันนี้ยากกว่า หัวใจคือการเพิ่มประสิทธิภาพและขยายพลังงานสะอาด โดยภาษีและกฎกำกับด้านประสิทธิภาพอาจเป็นจุดเริ่มต้น เทคโนโลยีพลังงานยั่งยืนมีอยู่แล้วแต่ราคาแพง และถ้า AI จะใช้ไฟมหาศาลต่อไป เรื่องนี้ไม่ควรประนีประนอม
    เรื่องสุดท้ายคือจุดที่ยากจริง ๆ คือเราควรมอบ งานสร้างสรรค์ ให้ AI มากแค่ไหน และควรปฏิบัติต่อผลงานที่ AI สร้างอย่างไร ซึ่งยังไม่มีคำตอบ
    อีกประเด็นที่เชื่อมกันคือ AI สามารถแกล้งเป็นมนุษย์เพื่อทำ การฉ้อโกงและการหลอกลวง ในวงกว้างได้ ระบบรับมือทุกวันนี้ตั้งอยู่บนสมมติฐานว่าการโกงจำนวนมากต้องใช้เวลาและแรงมาก แต่ตอนนี้สมมติฐานนั้นกำลังพังลง

    • ตรรกะแบบนี้เคยมีตอนยุค ระบบอัตโนมัติด้วยหุ่นยนต์ เหมือนกัน แต่สุดท้ายก็ไม่เกิดขึ้นจริง ไม่ได้มีการเก็บภาษี และผลประโยชน์จากผลิตภาพก็ไม่ได้ถูกแบ่งปัน แถมบางอย่างอย่าง self-checkout ยังกลายเป็นการผลักงานของบริษัทไปให้ลูกค้าทำแทน
      ผมคิดว่า ศูนย์ข้อมูล AI ควรต้องเดินด้วยการผลิตพลังงานยั่งยืนใช้เองทั้งหมด เราปรับปรุงประสิทธิภาพการใช้ไฟและน้ำกันมาหลายสิบปี ไม่เห็นมีเหตุผลให้ปล่อยให้บริษัทโลภไม่กี่เจ้ามาดูดใช้ทั้งหมด
      อาจฟังเหมือนพูดเล่น แต่ผมอยากให้ AI ล้างจานกับพับผ้าแทนผม แล้วผมไปเขียนหนังสือและทำเพลง ผมไม่ต้องการให้มันเป็นอีกแบบ
    • ถ้าคุณเสียงานที่เงินเดือน 60,000 ดอลลาร์ ต่อปีไป มันยากที่จะเชื่อว่าเงินรายได้พื้นฐานที่มาจาก AI จะชดเชยความเสียหายนั้นได้ แค่ UBI ปีละ 12,000 ดอลลาร์ ที่พูดกันในสหรัฐก็ต้องใช้งบเพิ่มอีก 3 ล้านล้านดอลลาร์แล้ว
      ผมไม่คิดว่าการเก็บภาษีบริษัท AI อย่างเดียวจะหาเงินได้ถึงขนาดนั้น ฝั่งที่พูดเรื่องรายได้พื้นฐานต้องจริงจังกับตัวเลขมากกว่านี้ มันยังดูไม่ใช่ทางออกที่เป็นจริง
    • ทั้ง Altman และในระดับหนึ่ง Musk ด้วย หน้าตาของวงการ AI ชวนให้ไม่ชอบมาก คนพวกนี้พูดต่อสาธารณะมานานเรื่องการว่างงานครั้งใหญ่ กระทั่งการสูญพันธุ์ของมนุษยชาติ ดังนั้นไม่ว่าความเสี่ยงจริงจะเป็นอย่างไร ตัวบริษัทเองก็เลี่ยงไม่ได้ที่จะถูกเกลียด
    • เรื่องที่สี่ที่ควรพิจารณาคือการควบคุม อิทธิพลทางการเมือง ถ้าปล่อยให้ CEO บริษัท AI ใช้พลังเงินมหาศาลไปกำหนดกฎระเบียบ การเลือกตั้ง สวัสดิการสังคม หรือแม้แต่นโยบายต่างประเทศ มันอาจเท่ากับทำลายประชาธิปไตยไปเลย
      ถ้าพวกเขาแทนที่แรงงานได้ถึง 50% ด้วย AI จริง อิทธิพลของพวกเขาจะเกินจินตนาการ
    • ในยุค Art Deco ก็เคยมีข้อถกเถียงคล้ายกันเรื่องผลของการผลิตจำนวนมากต่อศิลปะ ว่างานที่สร้างด้วยวิธีอุตสาหกรรมแบบใหม่จะมีคุณภาพเทียบเท่างานคราฟต์ทำมือได้หรือไม่ และทุกวันนี้คนก็คงยังตัดสินไม่เหมือนกัน
      เทคโนโลยียังไปไม่ถึง แต่ตัวอย่างหนึ่งของการผลิตจำนวนมากแบบ AI ที่พอนึกออกคือ การทำหนังจากนิยายแบบอัตโนมัติ การเปลี่ยนแปลงแบบนี้อาจทำให้คนมีพลังมากขึ้น หรืออาจทำให้คุณภาพของศิลปะลดลงหรือดีขึ้นก็ได้ มันอาจทำให้สังคมแตกแยก หรือกลับทำให้คนมารวมกันมากขึ้นก็ได้
      [1]: https://en.wikipedia.org/wiki/Art_Deco#Late_Art_Deco
  • พวก CEO AI ตะโกนมาหลายปีแล้วว่า AI น่ากลัว, มันจะเอางานของคุณไป
    “Mythos อันตรายเกินกว่าจะเปิดเผยได้”
    “ถ้าคุณใช้ ChatGPT ดึงวิธีทำไบโอเทอร์เรอร์ออกมาได้ เราจะให้เงินรางวัล”
    “AI แบบเอเจนต์จะลบหมวดหมู่งานไปเลย”
    ข้อความพวกนี้ดูเหมือนจะไม่ได้ส่งถึงคนทั่วไป แต่ส่งถึง รัฐบาลและลูกค้าองค์กรรายใหญ่ ที่มีเงิน มีต้นทุนให้ตัด และต้องการปกป้องหรือขยายพรมแดน
    คนจะไม่ชอบ AI ก็ไม่ใช่เรื่องน่าแปลก เพราะแทบไม่เคยมีการขายมันในฐานะสินค้าสำหรับผู้คนตั้งแต่แรก

  • คนนอกวงการ AI มองว่านี่เป็นเรื่องเดาง่ายมาก ผู้นำอุตสาหกรรมพูดถึง การลบงานนับล้านตำแหน่ง การปรับโครงสร้างงานอื่นครั้งใหญ่ ไปจนถึง การทำระบบอาวุธสังหารให้เป็นอัตโนมัติ แต่ก็ยังบอกว่าจะพัฒนาต่อ
    แม้แต่ความไม่มั่นคงทางเศรษฐกิจล่าสุดกับการปลดพนักงานจำนวนมาก ผู้บริหารที่ลงมือปลดยังโยนให้ AI เป็นเหตุ และบริษัท AI รายใหญ่ก็เอาทรัพย์สินทางปัญญาไปฝึกโดยแทบไม่เกรงใจ ก่อนจะยัด AI ให้ทุกคน
    คนทั่วไปจะเกลียด AI ก็ไม่แปลก และฝั่งอุตสาหกรรมเองก็แทบไม่ได้พยายามทำให้ตัวเองดูน่าชอบเลย

    • ผมชอบมุมมองของ Roy Sutherland ตอนนี้บริษัท AI กำลังเล็งไปที่ การลดต้นทุน มากกว่า การสร้างคุณค่า และทิศทางนั้นทั้งถอยหลังและทำลายสิ่งรอบข้าง
      ท้ายที่สุด CEO ของบริษัทพวกนี้ดูเหมือนอยากขยายบริษัทตัวเองอย่างเดียว ไม่ว่าสังคมจะต้องแบกรับต้นทุนแค่ไหน
    • CEO สายเทคบางคนดูตื่นเต้นจนเหมือนเผลอเผยตัวตนจริงออกมา เป็นแนว “ไม่ชอบแล้วจะทำอะไรได้” แล้วถ้ารู้ตัวว่าเร็วเกินไปก็คงถอยกลับทันที
    • การเพิ่มผลิตภาพ ตามที่สัญญาไว้ก็ไม่ค่อยเกิดจริง และต้นทุนต่ำแบบที่อ้างก็ไม่ค่อยเป็นจริงเช่นกัน คนที่ตื่นเต้นที่สุดหลายครั้งไม่ใช่คนทำงานหน้างาน แต่เป็นพวก ผู้จัดการระดับกลาง
      ในตลาดที่ทุกคนใช้น้ำมันงูขวดเดียวกัน มันดูไม่ใช่ความแตกต่าง แต่เหมือนเป็นหนทางสู่ ค่าเฉลี่ยในราคาสูง มากกว่า
    • ที่น่าแปลกยิ่งกว่าคือคนในวงการกลับประหลาดใจที่คนทั่วไปเกลียดพวกเขา ช่วงหลายปีมานี้มีแต่ การตลาดด้วยความกลัว กับการพูดเกินจริง และแทบไม่ได้ทำให้ชีวิตคนธรรมดาดีขึ้นอย่างชัดเจนด้วยซ้ำ ไม่รู้ว่าคาดหวังอะไรอยู่
    • นิสัยของพวก AI booster เองก็ทำให้คนยิ่งไม่ชอบ เพราะแต่ละคนดูเหมือนพวกนักต้มตุ๋นที่หยิ่งผยอง
      ตั้งแต่พวก booster บน X, คนแนวผู้จัดการระดับกลาง, AI influencer บน LinkedIn ไปจนถึงคนทำวิดีโอปลอมบน Facebook มันเหมือนดึงดูดคนประเภทเดียวกันทั้งหมด
  • ผมก็ไม่แน่ใจว่าจริงไหม วันศุกร์ได้ฟังพรีเซนต์ที่ทำงานซึ่งเชียร์ AI เขาบอกว่าพอไปสำรวจคนที่เข้าร่วม AI conference แล้ว 93% รู้สึกคาดหวังเชิงบวกกับ AI
    เขาพูดเรื่องนี้ด้วยสีหน้าจริงจังแบบ “คนเราก็ชอบลูกหมากันอยู่แล้วไง”
    ดู ขาดการตระหนักรู้ในตนเอง อย่างรุนแรงมาก

    • ในบริษัทที่ปรึกษาหรือองค์กรใหญ่ ๆ มันมีบรรยากาศที่คุณต้องแสดงตัวว่าสนใจ AI ก็แค่ วัฒนธรรมองค์กร เป็นแบบนั้น
    • แค่คิดว่าคนที่ตอบว่าไม่ในแบบสำรวจนั้นจะตกอยู่ในสถานะแบบไหนก็พอแล้ว การบอกหัวหน้าว่า “AI ดูเป็นโทษต่อสังคม ผมเลยไม่อยากใช้” ก็แทบไม่ต่างจากการประกาศว่าคุณไม่สนใจการเพิ่มผลิตภาพหรือการเพิ่มกำไรบริษัท
      แทบไม่มีใครอยากถูกติดภาพลักษณ์แบบนั้น และยิ่งทำให้เกิด บรรยากาศของความหลีกเลี่ยงไม่ได้ ว่าเทคโนโลยีนี้จะถาโถมเข้ามาไม่ว่าคุณจะอยากหรือไม่ก็ตาม
    • ถ้าไปถามเกมเมอร์ว่ามอง AI ยังไง ก็คงแทบทั้งหมดจะตอบในแง่ลบ ดูแค่ RAMageddon ก็พอ
    • มันดูคล้ายกับการไปทำแบบสอบถามใน งานประกวดสุนัข ว่าคนชอบสุนัขไหม
      แล้วในสภาพตลาดแบบตอนนี้ จะมีสักกี่คนที่กล้าพูดกับหัวหน้าหรือในที่สาธารณะสบาย ๆ ว่า “AI ดูเป็นเรื่องเพ้อเจ้อพอตัวเลยนะ”
    • นี่ก็ดูเป็นแค่ อคติจากกลุ่มตัวอย่างที่ไม่เป็นตัวแทน เท่านั้น
  • ถ้าต่อให้ตัวเลขผลิตภาพภายในองค์กรเองยังถูกสร้างขึ้นมาให้สอดคล้องกับ เป้าหมายการนำมาใช้ จนตรวจสอบจากภายนอกได้ยาก เรื่องนี้ก็แทบไม่ต่างจากสิ่งที่ BI แบบ MBA จำนวนมากทำอยู่แล้ว
    จากประสบการณ์ของผม BI มักเหมือน บ้านไพ่ และหลายครั้งใกล้เคียงกับการแต่งเรื่องให้ดูสวยงามเหมือนตอนเขียนเรซูเม่มากกว่า
    ท้ายที่สุด หน่วยพื้นฐานของบริษัทอเมริกันหลายแห่งก็ดูเหมือนจะเป็นความสามารถในการสร้างเรื่องเล่าทางการเมืองที่ฟังขึ้น

  • ในยุคที่คนรู้สึกไม่มั่นคงเรื่องงานอยู่แล้ว การพูดว่า “เราจะลบงานของคุณและทำให้คุณไร้ประโยชน์” แล้วหวังว่าจะได้รับความนิยมจากสาธารณะ มันไม่มีเหตุผลเลย
    ยิ่งถ้าไม่เสนอ เส้นทางทางเลือกในการสะสมความมั่งคั่ง ไม่แก้ปัญหาเศรษฐกิจอย่างค่าที่อยู่อาศัยหรือค่ารักษาพยาบาล แถมยังทำให้ความเป็นปึกแผ่นทางสังคมและราคาพลังงานแย่ลงอีก ก็ยิ่งไปกันใหญ่
    ถ้าอุตสาหกรรมยังเพิกเฉยต่อแรงต้านจากสาธารณะต่อผลกระทบทางสังคมของ AI อย่างเริงร่า ผมคิดว่าอาจเจอแรงสะท้อนกลับที่หนักยิ่งกว่า กระแสต่อต้านพลังงานนิวเคลียร์หลังเชอร์โนบิล เสียอีก

  • ถ้าดูแบบสำรวจเดียวกับที่บทความนี้อ้างถึง จะเห็นว่าในกลุ่มคนที่ถูกสำรวจนั้น แทบไม่มีอะไรที่คนชอบโดยรวมอยู่แล้ว AI ไม่เป็นที่นิยมก็จริง แต่ก็เป็นส่วนหนึ่งของ บรรยากาศเกลียดทุกสิ่งแบบรอบทิศทาง ที่กว้างกว่านั้นด้วย

    • ผมคิดว่า ความเกลียดรอบด้าน นี้ก็เป็นแค่ภาพสะท้อนของความไม่พอใจและความกลัวต่อสภาพโลกตอนนี้ ค่าจ้างหยุดนิ่งแต่ค่าครองชีพสูงขึ้น ข่าวเรื่องตลาดหุ้นดีมีเต็มไปหมดแต่คนส่วนใหญ่ไม่รู้สึกถึงผลประโยชน์นั้น
      นักการเมืองยอมทุ่มเงินให้สงครามและการทำลายล้าง แต่ตระหนี่กับโครงการสังคม และการเติบโตของอินเทอร์เน็ตก็ทั้งทำให้ตั้งคำถามกับเรื่องเล่าเดิมได้ง่ายขึ้นและยากขึ้นพร้อมกัน
      ท่ามกลางความสับสนและความกังวลแบบนี้ การอยากโทษใครสักคนก็ไม่ใช่เรื่องแปลก
  • อย่างน้อยบทความแบบนี้ควรยอมรับมากกว่านี้ว่า การนำไปใช้ในหมู่โปรแกรมเมอร์ในวงกว้าง ได้เกิดขึ้นแล้ว มันไม่ใช่แค่ระดับช่วยเขียนอีเมลเป็นครั้งคราว แต่ส่งผลต่อการพัฒนาซอฟต์แวร์อย่างมีนัยสำคัญไปแล้ว
    ถ้ายังพรรณนาเหมือนมันเป็น เครื่องมือเล็กน้อย ที่มีเพียงบางคนกำลังลองใช้ ก็เท่ากับมองข้ามความจริง

    • ผลกระทบในงานซอฟต์แวร์นั้น วัดได้ยากมาก มีทั้งขึ้นและลง และมีตัวแปรมากเกินไป
      โดยเฉพาะ อัตราการนำไปใช้ อาจเป็นตัวชี้วัดที่ไม่มีความหมาย เพราะมันอาจไม่ได้ช่วยอะไรจริง หรือถึงช่วยก็อาจทำให้คนที่ต้องใช้รู้สึกทุกข์ทรมาน และก็ยังถูกบังคับให้ใช้ anyway
      แถมยังมี expertise debt ที่กำลังก่อตัวขึ้นโดยเราไม่รู้เลยว่าจะให้ผลระยะยาวแบบไหน
    • นักพัฒนาหลายคนยอมรับเครื่องมือนี้ไม่ใช่เพราะอยากใช้ แต่เพราะ ต้องรับเงินเดือนกลับบ้าน
      ขณะเดียวกัน วงการ AI ก็ทำงานอย่างแข็งขันเพื่อลบงานของพวกเขาเอง
  • สำหรับคนจำนวนมาก AI ก็เป็นแค่ การสร้างภาพ กับ การสร้างข้อความ และถ้ามองเฉพาะการใช้งานพวกนั้น ก็เข้าใจได้ว่าทำไมพวกเขาถึงรู้สึกว่ามันไม่คุ้มทั้งเวลา เงิน และพลังงาน
    แต่ก็มีด้านที่คนมองไม่ค่อยเห็น เช่น ในการแพทย์ AI ช่วยได้จริงในบางจุด เช่น การค้นคว้ายาใหม่ งานวิจัยมะเร็งและการตรวจพบตั้งแต่ระยะต้น รวมถึงการวิเคราะห์ CT และ MRI ซึ่งการใช้งานแบบนี้สำคัญกว่ามากแต่กลับถูกพูดถึงน้อย
    ถ้ามอง AI เป็นสิ่งเดียวแบบเหมารวม ก็อาจเสี่ยงโยนส่วนที่ดีทิ้งไปด้วย

    • คนก็รู้เรื่องการใช้งานทางการแพทย์พวกนั้นอยู่แล้ว เพียงแต่มี การใช้งานเชิงลบที่มากล้นกว่าอย่างท่วมท้น จึงไม่แปลกที่ผู้คนจะโฟกัสกับสิ่งนั้น
      การพูดว่าการใช้งานทางการแพทย์สำคัญกว่าก็ออกจะเฉไปหน่อย การช่วยรักษาคนย่อมสำคัญกว่าการทำลายชีวิตคนอยู่แล้ว แต่นั่นก็ไม่ได้ทำให้โทษอย่างอื่นของ AI หายไป
      การมีทัศนะเชิงลบต่อ AI ไม่ได้แปลว่าอยากลบส่วนบวกของมันไปด้วย
    • มันเป็นเรื่องของมุมมอง เวลาขายมีดในฐานะ เครื่องมือหั่นหัวหอม กับขายมันในฐานะ อาวุธไว้ฆ่าเพื่อนบ้าน มันต่างกันสิ้นเชิง
      AI ถูกขายอย่างเปิดเผยโดยคนในวงการว่าเป็น เครื่องมือแทนที่งานของคุณ ถ้าอย่างนั้นก็อาจแปลได้ว่าพวกเขาทำการตลาดได้แย่มาก หรือไม่ก็ผลประโยชน์ในอุตสาหกรรมอื่นมันเล็กน้อยเกินไปหรือสร้างมูลค่าให้ผู้ถือหุ้นไม่ได้
    • หลายครั้งมันฟังดูเหมือนข้ออ้างแบบ “นึกถึงเด็ก ๆ สิ
      ถ้า AI สร้างความก้าวหน้าที่มีความหมายจริงในสาขาเหล่านั้น ค่อยพูดกันอย่างจริงจังตอนนั้นก็ได้ อย่างน้อยเท่าที่ผมรู้ ผู้ท้าชิงนวัตกรรมทางการแพทย์ที่ใหญ่ที่สุดของศตวรรษที่ 21 อย่าง mRNA หรือ GLP-1 ก็ไม่ใช่กรณีที่ LLM มีบทบาทหลัก
      จนกว่าจะมีผลงานจริงออกมา ข้ออ้างนี้ก็ใกล้เคียงแฟนฟิก และถ้าจะพูดให้โหดกว่านั้นหน่อย ในเมื่ออาชีพกำลังถูกแย่ง ความน่าเชื่อถือของข้อมูลกำลังพัง และทุกที่เต็มไปด้วย slop การมีอายุยืนขึ้นเฉย ๆ จะมีความหมายอะไร นี่ไม่ใช่จินตนาการถึงอนาคต แต่เป็นความเสียหายที่เกิดขึ้นแล้ว
    • ตอนนี้ AI ไม่ได้ถูกขายในฐานะ เครื่องมือที่ช่วยให้คุณหรือทีมงานของคุณทำงานได้ดีขึ้น แต่ถูกขายในฐานะ เครื่องมือสำหรับแทนที่ลูกน้องและเพิ่มกำไรรายไตรมาส
      เรื่องเล่ารายได้ระดับหลายล้านล้านดอลลาร์ก็มาจากตรงนี้เอง
  • จากคนที่ผมคุยด้วยซึ่งอยู่นอกวงการเทค คนทั่วไปจำนวนมากไม่ชอบ AI และพูดตรง ๆ ผมว่ามันเป็น การตัดสินที่สมเหตุสมผล
    ส่วนตัวผมรู้สึกว่าค่าสมาชิก Gemini Ultra คุ้ม และก็สนุกกับการได้ลอง API แรง ๆ ที่ AntiGravity รวมถึงการใช้ตระกูล Claude, Gemini App และ NotebookLM ในเชิงความสนุกและความท้าทายทางปัญญา
    แต่ถ้าถามว่าผมจะปกป้องความชอบธรรมของต้นทุนทางสังคมอย่างค่าใช้จ่ายศูนย์ข้อมูล หรือความเป็นไปได้ที่รัฐบาลสหรัฐจะ อุ้มบริษัทยักษ์ AI ไหม ผมทำไม่ได้
    กลับกัน ดูเหมือนจีนกำลังแซงเราไป กลยุทธ์ที่ชนะน่าจะเป็นการทำ AI ที่ถูกกว่า และ GLM-5.1 กับ Deepseek v4 ก็น่าทึ่งมากเมื่อเทียบประสิทธิภาพกับต้นทุนการอนุมานที่ต่ำกว่ามาก