- พนักงานภายใน Google เรียกร้องให้กำหนด ขอบเขตทางจริยธรรมที่ชัดเจน (เส้นแดง) สำหรับโครงการ ปัญญาประดิษฐ์ (AI) ทางทหาร
- พวกเขาแสดงความกังวลต่อการขยายความร่วมมือกับ Pentagon (กระทรวงกลาโหมสหรัฐฯ) และชี้ว่าจำเป็นต้องจำกัด ขอบเขตการใช้งาน AI ในทางทหาร
- ข้อเรียกร้องนี้ถูกมองว่าเป็น แนวโน้มที่คล้ายกัน กับการตัดสินใจล่าสุดของ Anthropic ที่กำหนดข้อจำกัดของตนเองต่อ AI ทางทหาร
- พนักงานยืนยันว่าควรมีแนวทางที่ชัดเจนเพื่อไม่ให้หน่วยงาน AI ภายใต้ Google เช่น DeepMind เข้าไปเกี่ยวข้องกับ การพัฒนาอาวุธหรือการสนับสนุนการสู้รบ
- การถกเถียงภายในเกี่ยวกับ เส้นแบ่งระหว่างจริยธรรม AI กับความร่วมมือด้านความมั่นคง กำลังกลับมาเป็นประเด็นอีกครั้งในบริษัทเทคโนโลยี
ความกังวลของพนักงาน Google ต่อ AI ทางทหาร
- พนักงาน Google แสดงความกังวลเกี่ยวกับ ความเป็นไปได้ที่เทคโนโลยี AI ของบริษัทจะถูกใช้เพื่อวัตถุประสงค์ทางทหาร
- โดยเฉพาะในสถานการณ์ที่ ความร่วมมือกับ Pentagon กำลังขยายตัว พวกเขาเน้นย้ำถึงความจำเป็นของบรรทัดฐานภายในเพื่อป้องกันไม่ให้ AI ถูกนำไปใช้กับ อาวุธสังหารหรือระบบการสู้รบ
- พนักงานระบุว่าควรเสริม แนวทางด้านจริยธรรม และกำหนด เป้าหมายที่ไม่ใช่ทางทหาร ของการพัฒนา AI ให้ชัดเจน
การเปรียบเทียบกับ Anthropic
- ไม่นานมานี้ Anthropic ได้ประกาศ มาตรการจำกัดภายในของตนเอง ต่อ AI ทางทหาร
- ข้อเรียกร้องของพนักงาน Google มี ทิศทางที่คล้ายกัน กับการตัดสินใจของ Anthropic ดังกล่าว
- ทั้งสองกรณีถูกตีความว่าเป็นความพยายามกำกับตัวเองภายในอุตสาหกรรมเทคโนโลยี เพื่อ ป้องกันการนำ AI ไปใช้ผิดทางในทางทหาร
บทบาทของ DeepMind และการถกเถียงภายใน
- มีการหยิบยกประเด็นเรื่อง ความเป็นไปได้ที่ DeepMind ซึ่งอยู่ภายใต้ Google จะ เข้าร่วมในโครงการที่เกี่ยวข้องกับ Pentagon
- พนักงานบางส่วนโต้แย้งว่าควรกำหนด เส้นแดงที่ชัดเจน เพื่อไม่ให้ DeepMind เข้าไปเกี่ยวข้องกับ การพัฒนาอาวุธหรือระบบสนับสนุนการสู้รบ
ความตึงเครียดด้านจริยธรรมในบริษัทเทคโนโลยี
- การถกเถียงครั้งนี้ภายใน Google ทำให้ ความตึงเครียดระหว่างจริยธรรม AI กับความร่วมมือด้านความมั่นคงของชาติ ถูกเน้นย้ำขึ้นมาอีกครั้ง
- ข้อเรียกร้องของพนักงานสะท้อนโจทย์สองด้านพร้อมกัน คือ ความรับผิดชอบต่อสังคมของบริษัท และ การจำกัดการใช้เทคโนโลยีในทางทหาร
ความหมายต่ออุตสาหกรรมโดยรวม
- กรณีของ Anthropic และ Google แสดงให้เห็นถึงแนวโน้มที่ บริษัท AI กำลังนิยามเกณฑ์ภายในใหม่เกี่ยวกับความร่วมมือทางทหาร
- ในอนาคต บริษัทเทคโนโลยีอื่น ๆ ก็อาจถูกเรียกร้องให้ กำหนดนโยบายที่ชัดเจนต่อการใช้ AI ในทางทหาร
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
เข้าใจวิสัยทัศน์นะ แต่ก็สงสัยว่าสิ่งนี้จะทำงานอย่างไรในระดับ ทั่วโลก
ตัวอย่างเช่น พนักงานในสหรัฐอาจปฏิเสธการพัฒนาอาวุธแบบนี้ แต่พนักงานในจีนอาจไม่ปฏิเสธ
จึงต้องคิดว่าจะสร้างสมดุลระหว่าง ความรู้สึกต่อต้านสงคราม ของปัจเจกกับความเป็นจริงของโลก โดยเฉพาะท่ามกลาง การแข่งขันสะสมอาวุธ AI ได้อย่างไร
ตรรกะแบบที่ว่าต้องไล่ตามขีดความสามารถให้ทันอย่างเดียวเป็นสิ่งอันตราย
สมดุลระหว่างความรู้สึกต่อต้านสงครามส่วนบุคคลกับความจริงควรตั้งอยู่บน การเปิดเผยข้อมูล, การปฏิเสธความยินยอมโดยสมัครใจ, และการ เรียกร้องความชอบธรรม ต่อทุกการตัดสินใจ
อ้างอิงเพิ่มเติมคือ Anthropic ไม่ได้ปฏิเสธทุกโครงการทางทหาร แต่เลือกแนวทาง เข้าร่วมแบบมีเงื่อนไข
แต่ถ้าสหรัฐทำให้เป็นอาวุธ ก็มีโอกาสสูงที่จะถูกใช้ฆ่าคนจริง ‘ภายในปีนี้’
กล่าวคือ นักพัฒนาในสหรัฐต้องคำนึงว่าผลลัพธ์นั้นเป็น ความจริงที่เกิดขึ้นทันที
เพียงแต่คงจะดีกว่านี้หากผู้นำทางการเมืองเริ่มเจรจากันก่อนจะก้าวข้ามขอบเขตทางศีลธรรม
กล่าวคือ ถ้า วิศวกรที่เก่งมาก ปฏิเสธโครงการที่ไร้จริยธรรม โอกาสที่คนซึ่งมีทักษะน้อยกว่าจะก่อเรื่องเลวร้ายก็ลดลงด้วย
เหมือนกับที่นักพัฒนา white-hat ไม่ร่วมมือกับแฮ็กเกอร์ black-hat การ ไม่เข้าร่วมด้วยเหตุผลทางจริยธรรม จึงมีผลยับยั้ง
ถ้าเรื่องแบบนี้ต้องปล่อยให้เป็นแค่ การกำกับดูแลกันเอง อย่างเดียว ก็คงหมดหวังไปแล้ว
ถึงอย่างนั้น การแสดง ความลังเลทางศีลธรรม ออกมาอย่างเปิดเผยก็ยังถือเป็นความคืบหน้า
บทสนทนาแบบนี้ต้องสะสมมากพอ จึงจะเกิดฉันทามติทางสังคมและนำไปสู่ข้อเรียกร้องให้เปลี่ยนแปลง
อย่างน้อยก็ดีกว่าการคุกเข่าให้กับ ผู้มีอำนาจที่บ้าคลั่ง มาก
เจตนาดีนะ แต่ กล่องแพนโดราของการทำ AI ให้เป็นอาวุธ ถูกเปิดไปนานแล้ว
แต่ถ้าเป็นแบบนั้นจริง มนุษยชาติก็คงล่มสลายไปหลายครั้งแล้ว
อย่าสูญเสียความเชื่อว่า ความยับยั้งชั่งใจเป็นสิ่งที่ทำได้
เพราะกองทัพสหรัฐสนับสนุน โครงการด้านคอมพิวติ้ง มามากมาย
เส้นฐานไม่ควรเป็น “ใช้ได้เฉพาะในประเทศ” แต่ควรเป็นแค่ “ไม่ทำ”
ข่าวที่ว่า “พนักงาน Google 100 คนออกมาประท้วง” น่าสนใจมาก
คิดว่าคงถูกจัดการเงียบ ๆ ราวปี 2027
ถ้าดูจาก คำพูดทางการเมือง ของ Jeff Dean เขาน่าจะเอนเอียงไปทางฝั่งต่อต้านมากกว่า
แต่ก็ยังไม่แน่ใจว่าฝ่ายบริหารทั้งหมดจะเดินตามจุดยืนนั้นหรือไม่
จึงต้อง ป้องกันให้มากที่สุด ตั้งแต่ตอนนี้เพื่อไม่ให้เรื่องแบบนั้นเกิดขึ้น
บทความ New York Times: สงครามยูเครนและบทบาทของโดรน AI
แทบไม่เชื่อเลยว่า Google จะยึด จุดยืนตามหลักการ นี้ไปจนสุดทาง
สิ่งที่น่าสนใจคือ แม้ กระทรวงกลาโหมจะจัดให้ Anthropic เป็นบริษัทที่มีความเสี่ยงด้านซัพพลายเชน
แต่กลับให้สัญญากับ OpenAI
ทั้งที่ นโยบายการห้ามใช้ ของทั้งสองบริษัทแทบเหมือนกัน จึงน่าสงสัยว่าทำไมถึงมีการปฏิบัติที่ต่างกัน
น่าแปลกที่การถกเถียงนี้ถูกลืมไปแล้ว
ตาม บทความของ The Guardian
ทั้ง Google และ OpenAI ต่างก็มี สัญญาด้านกลาโหม อยู่แล้ว
ถ้าไม่เห็นด้วยกับเรื่องนี้ก็ควรออกจากบริษัทไป แต่ในความเป็นจริงคงมีคนน้อยมากที่จะทำแบบนั้น