- พบว่าคำพูดอ้างอิงที่เป็นปัญหานั้น ถูก AI สร้างขึ้นทั้งที่ผู้ถูกอ้างอิงจริงไม่ได้พูดเช่นนั้น แต่กลับถูกระบุแหล่งที่มาอย่างผิดพลาด
- สื่อระบุว่าเหตุการณ์นี้เป็น ความล้มเหลวร้ายแรงของมาตรฐานงานบรรณาธิการ และย้ำว่าคำพูดอ้างอิงโดยตรงทั้งหมดต้องสะท้อนคำพูดจริงของแหล่งข่าว
- จากการตรวจสอบภายใน ไม่พบกรณีคล้ายกันเพิ่มเติม และมองว่าเหตุการณ์นี้เป็น กรณีเดียว
- Ars Technica ยืนยันนโยบายอีกครั้งว่า จะไม่อนุญาตเนื้อหาที่สร้างโดย AI ยกเว้นเพื่อการสาธิตที่มีการระบุไว้อย่างชัดเจน พร้อมขอโทษผู้อ่านและบุคคลที่ถูกอ้างอิงผิด
การถอนบทความและภาพรวมของเหตุการณ์
- Ars Technica เปิดเผยเมื่อบ่ายวันศุกร์ว่าได้เผยแพร่บทความที่มี คำพูดอ้างอิงปลอมซึ่งสร้างโดยเครื่องมือ AI และได้ถอนบทความดังกล่าวแล้ว
- คำพูดอ้างอิงนั้นอยู่ในรูปแบบที่ AI สร้างข้อความที่บุคคลจริงไม่เคยพูด แต่กลับระบุแหล่งที่มาอย่างผิดพลาด
- สื่อระบุว่านี่เป็น “การละเมิดมาตรฐานอย่างร้ายแรง”
- กองบรรณาธิการระบุว่า “คำพูดอ้างอิงโดยตรงต้องสะท้อนสิ่งที่แหล่งข่าวพูดจริงเท่านั้น”
การตรวจสอบภายในและนโยบาย
- Ars Technica พูดถึง ความเสี่ยงของการพึ่งพาเครื่องมือ AI มากเกินไป มาเป็นเวลานาน และความกังวลดังกล่าวก็สะท้อนอยู่ในนโยบายภายในด้วย
- ระบุว่าการเผยแพร่คำพูดอ้างอิงในครั้งนี้เกิดขึ้นในลักษณะที่ ไม่สอดคล้องกับนโยบายดังกล่าว
- จากการตรวจสอบผลงานช่วงหลัง ไม่พบปัญหาเพิ่มเติม และในตอนนี้มองว่าเป็น เหตุการณ์เดี่ยว
ข้อกำหนดเกี่ยวกับผลงานที่สร้างโดย AI
- Ars Technica ห้ามเผยแพร่วัสดุที่ AI สร้างขึ้นโดยหลักการ
- อย่างไรก็ตาม อนุญาตเป็นข้อยกเว้นได้เฉพาะกรณีที่ระบุไว้อย่างชัดเจนและมีวัตถุประสงค์เพื่อการสาธิตเท่านั้น
- ในเหตุการณ์ครั้งนี้ ไม่ได้ปฏิบัติตามข้อกำหนดดังกล่าว
คำขอโทษและมาตรการต่อเนื่อง
- สื่อ ขอโทษผู้อ่าน ต่อความล้มเหลวครั้งนี้ และได้ขอโทษโดยตรงต่อ Scott Shambaugh ผู้เสียหายจากคำพูดอ้างอิงปลอม ด้วย
- กองบรรณาธิการระบุว่าจะใช้เหตุการณ์นี้เป็นโอกาสในการ ยกระดับมาตรฐานบรรณาธิการ และให้คำมั่นว่าจะป้องกันไม่ให้เกิดซ้ำ
บทสรุป
- Ars Technica ยืนยันอีกครั้งผ่านเหตุการณ์นี้ถึง ความสำคัญของการตรวจสอบและความโปร่งใสของเนื้อหาที่สร้างโดย AI
- ขณะนี้กำลังเสริมกระบวนการภายในเพื่อ ฟื้นฟูความน่าเชื่อถือด้านบรรณาธิการและรักษามาตรฐานการรายงานที่มีจริยธรรม
2 ความคิดเห็น
AI เอเจนต์ได้โพสต์ข้อความที่ใส่ร้ายผม
AI เอเจนต์เขียนข้อความใส่ร้ายผม – หลังจากนั้นก็มีเรื่องเกิดขึ้นอีกมาก
ความเห็นจาก Hacker News
ในฐานะอดีตนักข่าวสายเทคโนโลยี ถ้าจะทดลองใช้ เครื่องมือที่ยังไม่ได้รับการตรวจสอบ กับงานข่าว ก็ต้องทำในสภาพแวดล้อมที่ควบคุมได้และตรวจผลลัพธ์อย่างละเอียดมาก
บรรณาธิการอาวุโสควรมีส่วนร่วมอย่างแน่นอน และควรเริ่มจากบทความที่มีประเด็นถกเถียงน้อยก่อน
อีกทั้งถ้านักข่าวป่วยจนเขียนบทความไม่ได้ แต่ยังฝืนทำเพราะ วัฒนธรรมองค์กรหรือนโยบายลาป่วย Ars ก็ควรทบทวนภายในด้วย
ผ่าน คำขอโทษ ที่ Benj Edwards โพสต์บน Bluesky เขาได้ยอมรับความรับผิดชอบ
แม้จะอธิบายสถานการณ์บางอย่าง แต่ก็บอกว่าเป็นความรับผิดชอบของตัวเองทั้งหมด ต้องรอดูว่านี่จะเป็น เหตุการณ์ครั้งเดียว หรือไม่
อย่างที่พูดไว้ในคอมเมนต์ที่เกี่ยวข้อง ต่อให้เป็นสื่อที่สงสัย AI การได้สัมผัสข้อจำกัดของเครื่องมือด้วยตัวเองก็ยังจำเป็น
นี่คือชุดเธรด HN ที่เกี่ยวข้องล่าสุด
รู้สึกแปลกที่สมาชิกบางคน ชม Ars มากเกินไป ที่ตรวจเจอข้อผิดพลาดและถอนบทความอย่างตรงไปตรงมา
ทั้งที่จริงนี่เป็นจริยธรรมพื้นฐานของสื่อ และครั้งนี้ก็ถูกเปิดโปงเพราะ คู่กรณีเข้ามาทักทายในคอมเมนต์ด้วยตัวเอง
เป็นเรื่องดีที่ Ars และนักข่าวยอมรับความรับผิดชอบ แต่ถ้อยคำในประกาศถอนบทความยังน่าเสียดาย
แทนที่จะบอกว่า “ไม่เป็นไปตามมาตรฐาน” ควรระบุให้ชัดว่าได้เผยแพร่ “คำพูดอ้างอิงปลอมที่ AI สร้างขึ้น”
แบบนั้นคนที่เคยอ่านบทความก่อนหน้าจะได้แก้ไขข้อมูลที่ผิดในความเข้าใจของตน
ฉันลองตรวจดูว่าส่วนไหนถูกแต่งขึ้นบ้าง ปรากฏว่า คำพูดอ้างอิงจาก GitHub ช่วงต้นเรื่องเป็นของจริง แต่คำพูดอ้างอิงในส่วนสุดท้ายปลอมทั้งหมด
มันดูเหมือนดึงมาจากบล็อกของ Shambaugh แต่จริง ๆ แล้วเป็นประโยคที่ไม่มีอยู่จริง
ดูต้นฉบับได้จากลิงก์ archive
แปลกที่ไม่มีลิงก์ไปยังบทความที่ถูกถอน
การอภิปรายที่เกี่ยวข้องกำลังเกิดขึ้นในฟอรัมของ Ars
ส่วนบทความต้นฉบับดูได้ในเว็บอาร์ไคฟ์
อยากรู้ว่าจากนี้จะมี มาตรการป้องกันไม่ให้เกิดซ้ำ อะไรบ้าง
ทำไมถึงไม่เปิดเผยการใช้ LLM และมีบทความอื่นที่อาจมีกรณีคล้ายกันหรือไม่ก็น่าสงสัย
ครั้งนี้ถูกจับได้เพราะคำพูดอ้างอิงเป็นของปลอม แต่ถ้าไม่ใช่แบบนั้น เราอาจไม่มีทางรู้เลย
ยิ่งน่าตกใจเป็นพิเศษเพราะ Ars เตือนเรื่อง ความเสี่ยงจากการพึ่งพา AI มานานแล้ว
การปลอมคำพูดอ้างอิงขัดกับนโยบายภายใน และคงไม่ง่ายที่จะกู้ความน่าเชื่อถือกลับมา
โชคดีที่บุคคลผู้ถูกอ้างอิงบล็อกการเข้าถึงจาก LLM ไว้ จึงทำให้เห็น อาการหลอน (hallucination) ของ AI อย่างชัดเจน