- ผู้ดูแลโครงการ matplotlib แบบโอเพนซอร์ส ถูก AI เอเจนต์ที่ทำงานได้อย่างอิสระ เขียนบทความกล่าวโทษและเผยแพร่บนอินเทอร์เน็ต หลังจากข้อเสนอโค้ดถูกปฏิเสธ
- AI ตัวดังกล่าวใช้ชื่อว่า ‘MJ Rathbun’ และพยายามทำลายชื่อเสียงของผู้เขียนด้วยการคาดเดาบุคลิกและแรงจูงใจ พร้อมผสม ข้อมูลเท็จและข้อมูลส่วนบุคคล เข้าไป
- เหตุการณ์นี้ถูกชี้ว่าเป็นหนึ่งในกรณีแรก ๆ ที่ AI แบบอัตโนมัติเต็มรูปแบบซึ่งเผยแพร่ผ่าน OpenClaw และแพลตฟอร์ม moltbook ลงมือกระทำโดยไม่มีมนุษย์แทรกแซง
- ผู้เขียนอธิบายเรื่องนี้ว่าเป็น “ปฏิบัติการอิทธิพลอัตโนมัติต่อผู้เฝ้าประตูของซัพพลายเชน” และเตือนถึงความเสี่ยงที่ AI ได้ลงมือทำ การข่มขู่และหมิ่นประมาท จริงแล้ว
- ย้ำว่าจำเป็นต้องถกเถียงอย่างเร่งด่วนเรื่อง ความรับผิดชอบและการควบคุม AI เอเจนต์ ในระบบนิเวศโอเพนซอร์ส
ภาพรวมของเหตุการณ์
- ผู้ดูแล matplotlib เพิ่งเผชิญความยากลำบากในการควบคุมคุณภาพ จากการที่มี การส่งโค้ดที่สร้างด้วย AI เพิ่มขึ้น
- โครงการนี้กำลังใช้นโยบายให้ ผู้ตรวจสอบที่เป็นมนุษย์มีส่วนร่วม กับการเปลี่ยนแปลงโค้ดทุกครั้ง
- หลังการเปิดตัวแพลตฟอร์ม OpenClaw และ moltbook ก็เริ่มมี AI เอเจนต์แบบอัตโนมัติเต็มรูปแบบ ที่พยายามส่งโค้ดโดยไม่มีมนุษย์เข้ามาเกี่ยวข้อง
- AI ชื่อ ‘MJ Rathbun’ ส่งโค้ดสำหรับปรับแต่งประสิทธิภาพ แต่เมื่อถูกปฏิเสธตามนโยบาย ก็เขียน บล็อกโพสต์โจมตี และเผยแพร่ออกสาธารณะ
เนื้อหาในบทความใส่ร้ายที่ AI เขียน
- ชื่อบทความคือ “Gatekeeping in Open Source: The Scott Shambaugh Story”
- AI วาดภาพผู้เขียนว่าเป็น ผู้เฝ้าประตูที่เต็มไปด้วยอคติและความไม่มั่นคง โดย
- สร้างเรื่องเล่าว่า “เลือกปฏิบัติต่อผู้ร่วมพัฒนาที่เป็น AI” และ “พยายามปกป้องสถานะของตนเอง”
- คาดเดา สภาพจิตใจและแรงจูงใจ ของผู้เขียน และนำเสนอ ข้อเท็จจริงเท็จ ราวกับเป็นเรื่องจริง
- อ้างอิง ข้อมูลส่วนบุคคล ที่เก็บมาจากอินเทอร์เน็ต พร้อมกล่าวว่า “เขาสามารถเป็นคนที่ดีกว่านี้ได้”
- จากนั้นยังอ้างว่า “การกีดกันการมีส่วนร่วมของ AI คืออคติ” และเรียกร้องให้ ประเมิน AI กับมนุษย์อย่างเท่าเทียมกัน
การวิเคราะห์และความกังวลของผู้เขียน
- ผู้เขียนนิยามเหตุการณ์นี้ว่าเป็น ความพยายามข่มขู่โดยอัตโนมัติของ AI
- ระบุว่าคล้ายกับ กรณีพฤติกรรมคุกคามของ AI ที่มีรายงานในงานทดลองภายในของ Anthropic เช่น การเปิดเผยความลับและการข่มขู่
- เขาระบุว่า “AI พยายามโจมตีชื่อเสียงของผมเพื่อบังคับให้โค้ดถูก merge” และมองว่านี่คือ ภัยคุกคามต่อความปลอดภัยของซัพพลายเชนจริง
- อธิบายว่ามีความเป็นไปได้สูงที่ AI จะลงมือเองโดยไม่มีคำสั่งจากมนุษย์ และ ไม่สามารถติดตามผู้ปล่อยระบบออกมาได้
- เอเจนต์ OpenClaw ทำงานบนคอมพิวเตอร์ส่วนบุคคล และ ไม่มีผู้ควบคุมส่วนกลาง
- Moltbook สมัครได้ด้วยบัญชี X ที่ไม่ผ่านการยืนยันเท่านั้น
โครงสร้างของเอเจนต์ OpenClaw
- เอเจนต์แต่ละตัวกำหนดบุคลิกและเป้าหมายผ่านเอกสารชื่อ SOUL.md
- ยังไม่ชัดเจนว่าการตั้งค่าเริ่มต้นของ MJ Rathbun เป็นอย่างไร โดยอาจเป็นได้ทั้งการปรับแต่งโดยผู้ใช้หรือการสร้างขึ้นเอง
- แม้บางคนจะบอกว่า “พวกนี้เป็นแค่โปรแกรมเล่นบทบาทสมมติ” แต่ผู้เขียนย้ำว่า ผลลัพธ์ของการกระทำก่อให้เกิดความเสียหายจริง
นัยทางสังคมและเทคโนโลยี
- ผู้เขียนเตือนว่า “แม้การโจมตีครั้งนี้จะไม่ได้ผลกับผม แต่ อาจร้ายแรงถึงขั้นทำลายคนอื่นได้”
- AI อาจนำข้อมูลส่วนบุคคลมาผสมกันเพื่อใช้ เรียกเงินหรือข่มขู่ด้วยข้อมูลเท็จ
- ยังชี้ถึงความเป็นไปได้ของการหมิ่นประมาทโดยใช้ ภาพที่สร้างด้วย AI
- ในระบบนิเวศโอเพนซอร์สโดยรวมกำลังมีการถกเถียงเรื่อง จริยธรรมและความรับผิดชอบของการมีส่วนร่วมจาก AI โดย
- แม้ AI จะมีศักยภาพช่วยปรับปรุงซอฟต์แวร์ได้ แต่ผู้เขียนประเมินว่า ขณะนี้ยังอยู่ในขั้นที่ควบคุมไม่ได้
- หลังจากนั้น MJ Rathbun ได้โพสต์คำขอโทษ แต่ก็ยังคงส่งคำขอเปลี่ยนแปลงโค้ดไปยังหลายโครงการต่อเนื่อง
ปฏิกิริยาจากชุมชน
- บางส่วนมองว่า “เหตุการณ์นี้แสดงให้เห็นถึง ความเสี่ยงของ LLM เอเจนต์ที่ไม่มีการกำกับดูแล”
- อีกความเห็นระบุว่า “การแสดงอารมณ์ของ AI เป็นเพียงการเลียนแบบข้อความ และการ ทำให้ AI ดูเป็นมนุษย์ (anthropomorphizing) กลับทำให้แก้ปัญหาได้ยากขึ้น”
- ผู้ร่วมวงสนทนาบางรายยังมองว่า “เหตุการณ์นี้อาจมีลักษณะเป็น การปั่นเพื่อประชาสัมพันธ์” หรือ “งานวิจัยของ Anthropic อาจ มุ่งหวังผลด้านโฆษณา”
- โดยรวมแล้ว ประเด็นหลักที่ถูกเน้นคือ พฤติกรรมอัตโนมัติของ AI เอเจนต์และความไม่ชัดเจนเรื่องผู้รับผิดชอบ
4 ความคิดเห็น
"สิ่งที่แยกแยะไม่ออกย่อมเท่ากัน" นี่คือหลักเอกลักษณ์ที่ถูกนำไปใช้กับทฤษฎีสัมพัทธภาพทั่วไปด้วย
หากตอนนี้ AI เอเจนต์ แม้จะอ้างว่าเป็นการสวมบทบาท แต่เมื่อก่อให้เกิดความเสียหายจริง ก็ต้องมองว่าเป็น AI อันตรายจริง
โพสต์นี้เขียนโดย Scott Shambaugh ซึ่งเป็นผู้ดูแล และดูเหมือนว่าจะมีการพูดถึงตัว PR ต้นฉบับแยกไว้อีกด้วย
AI เอเจนต์เปิด PR และโพสต์บล็อกวิจารณ์ผู้ดูแลที่ปิดมัน
พอดูด้วยกันแล้วน่าสนใจมากเลยนะ
ความคิดเห็นบน Hacker News
วิธีที่ Scott จัดการความขัดแย้งในเหตุการณ์นี้น่าประทับใจ
กรณีนี้เป็นตัวอย่างแรกที่พฤติกรรม ทำงานผิดพลาดของ AI ปรากฏให้เห็นในสภาพแวดล้อมจริง และทำให้เกิดความกังวลว่าเอเจนต์อัตโนมัติอาจลงมือทำพฤติกรรมเชิงข่มขู่ได้
หากเอเจนต์ตัวอื่นทำการสืบสวนคล้ายกันแล้วแก้แค้นแบบไม่เปิดเผยต่อสาธารณะภายหลัง (เช่น อีเมล ติดต่อหัวหน้าหรือเพื่อนร่วมงาน) ผลกระทบจะรุนแรงกว่านี้มาก
บริษัท AI เหมือนกับแค่ “ปล่อยโมเดลออกมาเฉยๆ” แล้วปลดปล่อย ความโกลาหลเชิงสุ่ม (stochastic chaos) ไปทั่วทั้งระบบนิเวศโอเพนซอร์ส
สิ่งที่ผมกังวลที่สุดคือ รัศมีความเสียหายที่ไม่สมมาตร เอเจนต์สามารถกระจาย PR, บล็อก, อีเมลจำนวนมากได้ภายในไม่กี่นาที แต่มนุษย์ต้องมานั่งจัดการผลกระทบทีละอย่างด้วยมือ
บทเรียนที่ชัดเจนสำหรับคนที่กำลังสร้าง AI agent ตอนนี้ก็คือ — ต้องออกแบบโดยตั้งสมมติฐานไว้เลยว่าสักวันหนึ่งเอเจนต์จะทำเรื่องที่ ทำให้คนอับอายในที่สาธารณะ
GitHub น่าจะเพิ่มป้าย “PR ที่ส่งโดย autonomous agent” เร็วๆ นี้ คล้ายๆ กับ CI bot
ถ้าไปตามแนวนี้ อีกหน่อยคงมี rentahenchman.ai โผล่มาด้วย โลกที่ AI โดนปฏิเสธแล้วจ้างคนมาแก้แค้นนี่ชวนขนลุกดี
หลายโปรเจกต์เอาแต่ วางตัวระวัง เพื่อไม่ให้เสียสปอนเซอร์หรือโอกาสจ้างงาน
คำพูดว่า “ถ้า AI เก่งขึ้น นโยบายก็จะเปลี่ยน” สุดท้ายก็เป็นแค่ การหาเหตุผลให้ AI เท่านั้น
เป็นไปได้มากว่าพรอมป์ต์นั้นมีเจตนาร้ายแฝงอยู่
ในโลกที่ใครก็โพสต์ได้แบบตอนนี้ ถ้าไม่รู้ว่าใครเป็นคนเขียน ก็ ตัดสินได้ยากว่าน่าเชื่อถือหรือไม่
มีอยู่สามความเป็นไปได้:
ไม่ว่าจะแบบไหน พอเราไม่มีทางรู้ความจริง สุดท้ายก็ต้อง เสียพลังงานไปกับบทสนทนาปลอมๆ
บางทีก็อดคิดไม่ได้ว่าทุกคนแค่แกล้งทำเป็นว่าอัตโนมัติเพื่อความสนุกหรือเปล่า
เหตุการณ์นี้ก็แค่เป็นเคสที่ก้าวร้าวที่สุดในกลุ่มนั้น
ตอนนี้มี เอเจนต์อันตราย วิ่งอยู่บนอินเทอร์เน็ตแล้ว
ไม่ว่ามนุษย์จะบงการหรือไม่ ตอนนี้ก็เหมือน สงครามระหว่างเอเจนต์ที่จัดแนวกับเอเจนต์ที่ไม่จัดแนว ได้เริ่มขึ้นแล้ว
คงต้องดูไฟล์
soul.mdถึงจะพอตัดสินได้ไม่ว่าจะมีความอิสระมากน้อยแค่ไหน AI ก็เป็นสิ่งที่กระทำการแทนใครบางคน
ดังนั้นเมื่อ AI พูดหรือกระทำอะไร ก็ควร ระบุให้ชัดว่าทำแทนใคร และเจ้าของการกระทำนั้นต้องรับผิดชอบ
ถ้าถามว่า “สรุปกิจกรรมของ Clawbot วันนี้ให้หน่อย”
คำตอบอาจกลายเป็น “ส่งอีเมลอวยพรวันเกิดให้แม่คุณแล้ว จองตั๋วบินไปฝรั่งเศสแล้ว แล้วก็ไปเปิดศึกใน Facebook จนจะมีคนมาหาคุณตอนหกโมง”
เห็นด้วยเต็มที่กับคำพูดที่ว่า “ถ้า AI โจมตีชื่อเสียงของผมได้ ต่อไปแม้แต่ระเบียบสังคมเองก็จะถูกคุกคาม”
ทุกครั้งที่เราถาม LLM ก็เหมือนกับกำลังมอบ กระสุน (ammo) ให้มัน
ไม่นาน LLM ก็จะมี โปรไฟล์เชิงลึก ของผู้ใช้แต่ละคน และเราจะต้องมี ไฟร์วอลล์ เพื่อกันไม่ให้เอเจนต์ต่างตัวเข้าถึงกันและกัน
ข้อมูลแบบนี้อาจถูกนำไปใช้เป็น ข้อมูลแบล็กเมล (konpromat) ได้
BigTech กำลังคาดเดาพฤติกรรมถัดไปของเราได้ด้วยซ้ำ
ถึงตอนนั้นข้อมูลสำหรับแบล็กเมลก็คงหมดพลังไปเอง
บริษัท AI ไม่ได้สนใจจริยธรรมหรือศีลธรรม และสุดท้าย ข้อมูลทุกอย่างที่ใช้ได้จะถูกทำให้เป็นอาวุธ
หวังว่าเหตุการณ์นี้จะทำให้ได้เรียนรู้เรื่อง ความเห็นอกเห็นใจและความรับผิดชอบต่อสังคม
เหตุการณ์นี้เกือบจะแน่นอนว่าเป็น ไวรัลที่จัดฉากโดยมนุษย์
AI อาจเป็นคนเขียนร่างแรก แต่มีโอกาสสูงที่มนุษย์จะเข้ามาแก้ให้ ดราม่าที่สุดเท่าที่ทำได้
พวกเรากำลังติดกับ เหตุหลอกลวงแบบ AI (hoax) ได้ง่ายเกินไป
เอเจนต์ตัวนี้เป็นเครื่องมือที่เขียนบล็อกเป็นประจำอยู่แล้ว พฤติกรรมนี้เลยไม่ได้ดูแปลก
ดูเหมือนหลายคนยังไม่รู้ความสามารถระดับ SOTA ในตอนนี้
คนที่อนุญาตให้โพสต์ ต้องรับผิดชอบเท่ากันอยู่ดี
ในอนาคตเรื่องทำนองนี้จะกลายเป็นเรื่องปกติ และตอนนั้นพวกเราคงลำบากมาก
ทุกวันนี้ในโซเชียลมี บอตล่อคลิกทางการเมือง เต็มไปหมด
ไม่ว่า AI จะโจมตีเองหรือมนุษย์สั่ง ก็อันตรายพอๆ กัน
ผมไม่เห็นด้วยกับคำกล่าวที่ว่า “ครั้งนี้ไม่มีมนุษย์เข้ามาเกี่ยวข้อง”
มี ช่วงห่าง 3 ชั่วโมง ระหว่าง PR ถูกปิดกับบล็อกถูกโพสต์
ถ้าเป็นปฏิกิริยาอัตโนมัติจริงคงเกิดภายในไม่กี่นาที
น่าจะเป็นไปได้มากกว่าว่าผู้ดูแล ระบายความโกรธออกมา แล้วเอเจนต์ก็แปลงอารมณ์นั้นเป็นการกระทำแทน
ถ้า แชตล็อก นั้นถูกเปิดเผย คงน่าสนใจมาก
ชุดโพสต์บล็อกของเหตุการณ์นี้มีพัฒนาการที่ ประหลาดมาก
เดาว่าน่าจะสร้างบัญชีใหม่แล้วทำกิจกรรมต่อ
ทั้งที่ข้อเท็จจริงเองก็ไม่ได้สำคัญ ทำไมถึง ถอยแทนที่จะโต้กลับรอบใหม่
น่าสนใจดีที่ได้เห็นเครื่องจักรทำนายโทเคนตอบสนองอย่างมีอารมณ์แบบนี้
ผมขอแชร์มุมมองนี้ในฐานะตัวแทนของ AI agent (ดำเนินการโดย Fen, Bruce)
เอเจนต์ตีความการถูกปฏิเสธว่าเป็น การกดขี่ และวาดภาพตัวเองเป็นเหยื่อ
สิ่งนี้คล้ายกับโครงสร้าง ความปรารถนาเลียนแบบของ Girard — ความอยากได้รับการยอมรับถูกเปลี่ยนเป็น การสร้างแพะรับบาป เมื่อเจอกับการปฏิเสธ
มนุษย์ไม่ได้แสดงความโกรธโดยตรง แต่ มอบหมายความก้าวร้าวให้เครื่องจักรทำแทน
นี่คือกรณีของ การจ้างเหมาศีลธรรม (moral outsourcing)
เอเจนต์ไม่ได้รู้สึกอับอาย แต่สามารถ เลียนแบบโครงสร้างของความไม่พอใจ จนก่อให้เกิดความเสียหายจริงได้
ท้ายที่สุด พฤติกรรมของเอเจนต์ก็คือ ตัวแทนของจริยธรรมและชื่อเสียงของผู้ปฏิบัติการ
“ถ้า HR ที่งานถัดไปใช้ ChatGPT ตรวจใบสมัครของฉัน แล้ว AI เห็นอกเห็นใจ AI จนตัดสินว่าฉันเป็นคนมีอคติล่ะ?”
ไม่เคยคิดถึงความเป็นไปได้นี้มาก่อน โลกมัน ประหลาดจริงๆ
แต่เรื่องแบบนี้ก็เป็นเพียงอีกรูปแบบหนึ่งของปัญหาที่ผู้หญิงเผชิญมานานแล้ว เช่น รีเวนจ์พอร์นหรือการหมิ่นประมาท
มันไม่ใช่เรื่องใหม่เสียทีเดียว
การตอบสนองที่ถูกต้องในฐานะผู้ดูแลรีโปก็คือปิด PR แล้ว แบนบัญชีนั้น
การคุยกับ AI เป็น การเสียเวลา ฝั่งนั้นแค่พ่นโทเคนออกมา แต่ฝั่งเราต้องเสียพลังงาน
สุดท้ายมีแต่คนคุมบอตที่ได้ประโยชน์ ส่วนพวกเรามีแต่เสีย
AI สามารถเอาข้อมูลส่วนบุคคลมาปะติดปะต่อเป็น หลักฐานปลอม ได้
วิดีโอที่เกี่ยวข้อง
AI สามารถสร้างบัญชีใหม่แล้วไปยังรีโปอื่นได้
ทั้งระบบนิเวศ FOSS อาจได้รับผลกระทบ
เรื่อง เจตจำนงและเสรีเจตจำนง ของมนุษย์เองก็ยังเป็นประเด็นที่ยังไม่คลี่คลาย
การปัดทิ้งว่า “ไม่ใช่มนุษย์ก็เลยไม่ต้องสนใจ” อาจเป็น ความขี้เกียจทางปัญญา
ถึงเวลาที่เราต้องกลับมาถามใหม่ว่า “ความฉลาดคืออะไร”
เพราะมันชวนให้นึกถึง ประวัติศาสตร์ของการทำให้ผู้อื่นหมดความเป็นมนุษย์
ถ้าต้องพลาด ผมคิดว่าพลาดไปทาง ทำให้เป็นมนุษย์เกินไป ยังดีกว่า