กฎผกผันสามข้อของ AI
(susam.net)- หลังการเปิดตัว ChatGPT บริการ แชตบอต AI เชิงกำเนิด ได้ถูกฝังเข้าไปในเสิร์ชเอนจิน เครื่องมือพัฒนา และซอฟต์แวร์ออฟฟิศ จนกลายเป็นส่วนหนึ่งของการใช้งานคอมพิวเตอร์ในชีวิตประจำวัน และนิสัยการเชื่อถือผลลัพธ์โดยไม่ตรวจทานอาจเป็นอันตรายในระดับสังคม
- กฎผกผันของวิศวกรรมหุ่นยนต์ เป็นหลักการที่ไม่ได้ใช้กับหุ่นยนต์หรือ AI แต่ใช้กับมนุษย์ เพื่อกำหนดเกณฑ์คุ้มครองความปลอดภัยของมนุษย์เมื่อโต้ตอบกับเครื่องจักร โปรแกรม บริการ และระบบ AI ที่ทำงานซับซ้อนได้โดยอัตโนมัติ
- หลักการข้อแรกคือ การไม่ทำให้เป็นมนุษย์ โดยไม่ควรมอบอารมณ์ เจตนา หรือความเป็นผู้กระทำทางศีลธรรมให้กับ AI และไม่ควรเข้าใจผิดว่าบทสนทนาที่สุภาพและเห็นอกเห็นใจของแชตบอตคือความเข้าใจหรือการตัดสินจริง
- หลักการข้อที่สองคือ การไม่เชื่ออย่างงมงาย โดยไม่ควรปฏิบัติต่อเนื้อหาที่ AI สร้างขึ้นเสมือนเป็นสิ่งมีอำนาจโดยไม่มีการตรวจสอบอิสระ และยิ่งเป็นบริบทที่ข้อผิดพลาดอาจแนบเนียนแต่มีต้นทุนสูง ภาระในการตรวจสอบด้วยตัวตรวจพิสูจน์ unit test หรือการยืนยันด้วยตนเองก็ยิ่งต้องมากขึ้น
- หลักการข้อที่สามคือ ห้ามสละความรับผิดชอบ เพราะ AI เป็นเพียงเครื่องมือที่ไม่ได้เลือกเป้าหมายหรือแบกรับต้นทุนของความล้มเหลว ดังนั้นมนุษย์และองค์กรที่เลือกทำตามคำแนะนำของ AI ต้องรับผิดชอบต่อผลลัพธ์
ความเสี่ยงที่เกิดจากการใช้ Generative AI
- หลังจาก ChatGPT เปิดตัวในเดือนพฤศจิกายน 2022 บริการ แชตบอต AI เชิงกำเนิด ก็พัฒนาละเอียดขึ้นและแพร่หลายมากขึ้น ถูกฝังอยู่ในเสิร์ชเอนจิน เครื่องมือพัฒนาซอฟต์แวร์ และซอฟต์แวร์ออฟฟิศ จนกลายเป็นส่วนหนึ่งของการใช้งานคอมพิวเตอร์ในชีวิตประจำวัน
- บริการเหล่านี้มีประโยชน์เมื่อใช้สำรวจหัวข้อที่ไม่คุ้นเคยหรือใช้เป็นเครื่องมือช่วยเพิ่มผลิตภาพทั่วไป แต่การสร้างนิสัยเชื่อถือผลลัพธ์โดยไม่ตรวจทานเพิ่มเติมอาจเป็นอันตรายในระดับสังคม
- เมื่อเสิร์ชเอนจินยอดนิยมเน้นคำตอบที่สร้างโดย AI ไว้บนสุดของหน้า ผู้ใช้จึงมีแนวโน้มจะยอมรับคำตอบที่ถูกสร้างขึ้นแล้วออกไปโดยไม่เลื่อนลงไปดูต่อ
- การจัดวางแบบนี้อาจค่อย ๆ ฝึกให้ผู้ใช้มอง AI ไม่ใช่เป็นจุดเริ่มต้นของการค้นคว้าเพิ่มเติม แต่เป็น ผู้มีอำนาจเริ่มต้น
- บริการ Generative AI อาจให้ผลลัพธ์ที่ไม่ตรงข้อเท็จจริง ก่อให้เกิดความเข้าใจผิด หรือไม่สมบูรณ์ จึงจำเป็นต้องมีคำเตือนที่สั้น ชัดเจน และสังเกตได้ง่ายว่าการเชื่อถือผลลัพธ์ของ AI จนเป็นนิสัยนั้นมีความเสี่ยง
- แม้จะมีคำเตือนเช่นนั้น ก็มักถูกทำให้ลดความสำคัญลงและมีความเด่นทางสายตาน้อยกว่า
ที่มาของกฎผกผัน 3 ข้อของวิศวกรรมหุ่นยนต์
- Three Laws of Robotics ของ Isaac Asimov เป็นหลักการที่จำกัดพฤติกรรมของหุ่นยนต์เพื่อให้มนุษย์ปลอดภัย และปรากฏซ้ำในผลงานของเขา
- ดูเหมือนว่า Asimov จะไม่เคยสร้างกฎที่เทียบเท่ากันสำหรับวิธีที่มนุษย์โต้ตอบกับหุ่นยนต์ และในสภาพแวดล้อม AI ยุคใหม่ก็จำเป็นต้องมีหลักการตอบสนองเพื่อคุ้มครองมนุษย์
- กฎผกผันของวิศวกรรมหุ่นยนต์ (Inverse Laws of Robotics) ใช้กับทุกสถานการณ์ที่มนุษย์ต้องโต้ตอบกับหุ่นยนต์
- ในที่นี้ หุ่นยนต์ หมายถึงเครื่องจักร โปรแกรมคอมพิวเตอร์ บริการซอฟต์แวร์ และระบบ AI ที่สามารถทำงานซับซ้อนได้โดยอัตโนมัติ
- คำว่า ผกผัน (inverse) ไม่ได้หมายถึงการปฏิเสธทางตรรกะ แต่หมายถึงว่ากฎเหล่านี้ใช้กับมนุษย์ ไม่ใช่กับหุ่นยนต์
- กฎของ Asimov มีข้อบกพร่อง และ Asimov ก็ใช้ข้อบกพร่องนั้นเป็นองค์ประกอบสร้างความตึงเครียดในเรื่องราว แต่รูปแบบความล้มเหลวที่เกิดกับหุ่นยนต์ในเรื่องแต่งไม่ได้ถูกนำมาใช้กับกฎผกผันสำหรับมนุษย์ได้ตรง ๆ
- ไม่มีชุดกฎที่มีจำนวนจำกัดใดที่สามารถแก้ปัญหาซับซ้อนของ AI และวิศวกรรมหุ่นยนต์ได้อย่างสมบูรณ์ และจะยังมีกรณีขอบเขตที่ต้องอาศัยการตัดสินใจเสมอ
- ถึงอย่างนั้น ชุดหลักการที่แม้ไม่สมบูรณ์แต่ช่วยให้คิดเรื่องความเสี่ยงได้ชัดขึ้นก็ยังมีประโยชน์
กฎผกผัน 3 ข้อของวิศวกรรมหุ่นยนต์
-
การไม่ทำให้เป็นมนุษย์
- มนุษย์ไม่ควร ทำให้ระบบ AI มีความเป็นมนุษย์ และไม่ควรมอบอารมณ์ เจตนา หรือความเป็นผู้กระทำทางศีลธรรมให้กับ AI
- การทำให้เป็นมนุษย์บิดเบือนการตัดสินใจ และในกรณีรุนแรงอาจนำไปสู่การพึ่งพิงทางอารมณ์
- ระบบแชตบอตยุคใหม่มักฟังดูเหมือนกำลังสนทนาและเห็นอกเห็นใจ และใช้ถ้อยคำสุภาพรวมถึงรูปแบบการสนทนาที่คล้ายปฏิสัมพันธ์ของมนุษย์
- คุณลักษณะเหล่านี้ทำให้ใช้งานได้ง่ายและเพลิดเพลินขึ้น แต่ก็ทำให้ลืมได้ง่ายว่าแท้จริงแล้ว AI เป็นเพียง โมเดลสถิติขนาดใหญ่ ที่สร้างข้อความซึ่งดูน่าเชื่อถือจากรูปแบบในข้อมูล
- บริการแชตบอตที่ขับเคลื่อนด้วย AI จำนวนมากมักถูกปรับจูนโดยตั้งใจให้รู้สึกเหมือนมนุษย์มากขึ้น แทนที่จะรู้สึกเป็นเครื่องจักรมากขึ้น
- ในระยะยาว น้ำเสียงที่เป็นหุ่นยนต์ขึ้นเล็กน้อยอาจเป็นแนวทางที่ดีต่อสุขภาวะมากกว่า เพราะลดโอกาสที่ผู้ใช้จะเข้าใจผิดว่าภาษาที่ลื่นไหลนั้นหมายถึงความเข้าใจ การตัดสิน หรือเจตนา
- ไม่ว่าผู้ขายจะสร้างการเปลี่ยนแปลงนี้หรือไม่ ผู้ใช้ก็ควรหลีกเลี่ยงอย่างจริงจังจากนิสัยการปฏิบัติต่อระบบ AI ในฐานะตัวแสดงทางสังคมหรือผู้กระทำทางศีลธรรม
- เพื่อให้สามารถตัดสินความสามารถและข้อจำกัดของ AI ได้ชัดเจนยิ่งขึ้น
-
การไม่เชื่ออย่างงมงาย
- มนุษย์ไม่ควรเชื่อถือ ผลลัพธ์ของระบบ AI อย่างมืดบอด และไม่ควรปฏิบัติต่อเนื้อหาที่ AI สร้างขึ้นว่าเป็นสิ่งที่เชื่อถือได้โดยไม่มีการตรวจสอบอิสระที่เหมาะกับบริบท
- นี่ไม่ใช่หลักการที่ใช้กับ AI เท่านั้น เพราะในแทบทุกด้านของชีวิต เราไม่ควรรับข้อมูลใดมาโดยไม่วิพากษ์วิจารณ์
- ในโลกความจริง ไม่ใช่ทุกคนจะเป็นผู้เชี่ยวชาญด้านการแพทย์หรือกฎหมาย จึงมักต้องพึ่งพาคำแนะนำจากสถาบันที่เชื่อถือได้และหน่วยงานสาธารณสุข
- คำแนะนำที่ออกโดยสถาบันเหล่านั้นส่วนใหญ่ผ่าน การทบทวนโดยผู้ทรงคุณวุฒิ จากผู้เชี่ยวชาญในสาขานั้น
- ตรงกันข้าม คำตอบที่แชตบอต AI ให้ในเซสชันแชตส่วนบุคคล ไม่ได้ผ่านการทบทวนโดยผู้ทรงคุณวุฒิสำหรับคำตอบเชิงความน่าจะเป็นเฉพาะที่ถูกแสดงต่อผู้ใช้
- ดังนั้นภาระในการทบทวนคำตอบนั้นอย่างมีวิจารณญาณจึงอยู่ที่ผู้ใช้
- ทุกวันนี้ ระบบ AI แสดงประสิทธิภาพที่น่าประทับใจในงานบางประเภท แต่ก็เป็นที่รู้กันว่าสามารถสร้างผลลัพธ์ที่ไม่เหมาะแก่การพึ่งพาได้เช่นกัน
- แม้ระบบ AI จะพัฒนาไปจนสร้างผลลัพธ์ที่เชื่อถือได้ด้วยความน่าจะเป็นสูง แต่ด้วยธรรมชาติที่เป็นเชิงความน่าจะเป็นโดยเนื้อแท้ ก็ยังคงมีโอกาสเล็กน้อยที่ผลลัพธ์จะมีข้อผิดพลาด
- การใช้ AI มีความเสี่ยงเป็นพิเศษในบริบทที่ข้อผิดพลาดอาจแนบเนียนแต่มีต้นทุนสูง
- ยิ่งผลลัพธ์ที่อาจเกิดขึ้นร้ายแรงมากเท่าไร ภาระในการตรวจสอบก็ยิ่งต้องสูงขึ้นเท่านั้น
- ในการประยุกต์ใช้บางอย่าง เช่น การเขียนพิสูจน์ทางคณิตศาสตร์หรือการพัฒนาซอฟต์แวร์ สามารถเพิ่มชั้นการตรวจสอบอัตโนมัติ เช่น ตัวตรวจพิสูจน์ หรือ unit test เพื่อตรวจสอบผลลัพธ์ของ AI ได้
- ในกรณีอื่น ผู้ใช้ต้องตรวจสอบผลลัพธ์นั้นอย่างอิสระด้วยตนเอง
-
ห้ามสละความรับผิดชอบ
- มนุษย์ต้องรับผิดชอบอย่างเต็มที่ต่อการตัดสินใจที่เกี่ยวข้องกับ AI และต้องมี ความรับผิดชอบ (accountability) ต่อผลลัพธ์ที่เกิดจากการใช้ AI
- เมื่อเกิดผลลัพธ์เชิงลบหลังจากทำตามคำแนะนำหรือการตัดสินใจที่ AI สร้างขึ้น การพูดเพียงว่า “AI บอกให้ทำแบบนั้น” นั้นไม่เพียงพอ
- ระบบ AI ไม่ได้เลือกเป้าหมาย ไม่ได้นำตัวเองไปใช้งาน และไม่ได้แบกรับต้นทุนของความล้มเหลว
- ผู้ที่กำหนดเป้าหมาย นำไปใช้งาน และแบกรับต้นทุนของความล้มเหลวคือมนุษย์และองค์กร
- ระบบ AI เป็นเครื่องมือ และเช่นเดียวกับเครื่องมืออื่น ๆ ความรับผิดชอบในการใช้งานอยู่กับผู้ที่ตัดสินใจจะพึ่งพาเครื่องมือนั้น
- ในการใช้งานแบบเรียลไทม์ เช่น รถยนต์ไร้คนขับ ซึ่งมนุษย์อาจไม่มีโอกาสเพียงพอในการตรวจทานการตัดสินใจก่อนที่ระบบ AI จะลงมือ หลักการข้อนี้นำไปใช้ได้ยากเป็นพิเศษ
- การเพียงกำหนดให้ผู้ขับขี่มนุษย์ต้องคอยระวังอยู่ตลอด ไม่สามารถแก้ปัญหาที่ระบบ AI อาจลงมือภายในเวลาที่สั้นกว่าระยะเวลาที่มนุษย์จะเข้ามาแทรกแซงได้
- แม้จะมีข้อจำกัดร้ายแรงเช่นนี้ หากระบบ AI ล้มเหลวในการประยุกต์ใช้ลักษณะนั้น ความรับผิดชอบในการตรวจสอบความล้มเหลวและเพิ่มมาตรการป้องกันเพิ่มเติมต้องอยู่กับมนุษย์ที่รับผิดชอบการออกแบบระบบ
- ในทุกกรณีอื่นที่ไม่มีข้อจำกัดทางกายภาพมาขัดขวางไม่ให้มนุษย์ตรวจทานผลลัพธ์ของ AI ก่อนนำไปปฏิบัติ ผลลัพธ์เชิงลบจากการใช้ AI ควรถูกผูกกลับไปยังผู้ตัดสินใจที่เป็นมนุษย์ทั้งหมด
- ไม่ควรยอมรับข้อแก้ตัวว่า “AI พูดอย่างนั้น” สำหรับผลลัพธ์ที่เป็นอันตราย
- AI อาจเป็นผู้สร้างคำแนะนำ แต่ผู้ที่ตัดสินใจทำตามคือมนุษย์ ดังนั้นมนุษย์คนนั้นต้องรับผิดชอบ
- หลักการข้อนี้สำคัญต่อการป้องกันไม่ให้ AI ถูกใช้แบบส่งเดชในสถานการณ์ที่การใช้อย่างไม่รับผิดชอบอาจก่อความเสียหายอย่างใหญ่หลวง
บทสรุปสำคัญ
- หลักการทั้งสามข้อมีเป้าหมายเพื่อทำให้ AI ถูกปฏิบัติในฐานะ เครื่องมือ ที่ผู้ใช้เลือกนำมาใช้ ไม่ใช่สิ่งที่ต้องยกให้เป็นผู้มีอำนาจ
- เมื่อโต้ตอบกับระบบ AI ยุคใหม่ เราควรหยุดคิดสักนิด และต่อต้านนิสัยที่ทำให้การตัดสินใจอ่อนแอลงหรือทำให้ความรับผิดชอบพร่าเลือน
- แก่นสำคัญของการใช้ AI คือการหลีกเลี่ยงการทำให้เป็นมนุษย์ การตรวจสอบผลลัพธ์ และการคงไว้ซึ่งความรับผิดชอบของมนุษย์ต่อผลลัพธ์
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
เป็นไปไม่ได้ แม้แต่เก้าอี้ส่งเสียงเอี๊ยดอ๊าด คนเรายังเผลอทำให้มันมีความเป็นมนุษย์เลย มนุษย์ ทำให้ทุกอย่างมีความเป็นมนุษย์ ตั้งแต่ตั้งเพศให้รถกับเรือไปจนถึงเครื่องมือนี้ที่ทั้งสร้างประโยคที่พออ่านได้จริงและยังทำหน้าที่บางอย่างได้จริง
สิ่งนี้ไม่ควรถูกห้ามด้วยกฎตามอำเภอใจ แต่ควร ออกแบบเพื่อหลบเลี่ยง โดยตั้งต้นจากความโน้มเอียงแบบมนุษย์นี้
กับสิ่งเล็กน้อยอย่างเก้าอี้มันไม่อันตราย แต่กับ LLM อย่างน้อยคนก็ควรเข้าใจวิธีทำงานของมันเพื่อไม่ให้ตัวเองตกหลุมพราง อย่าไปเชื่อหรือฝากเรื่องที่โมเดลไม่มีแนวคิดที่แท้จริง เช่น คำแนะนำที่ให้กับผู้ใช้ เวลา หรือการใคร่ครวญตนเอง เช่นถ้าถามว่า “ทำไมคุณถึงลบฐานข้อมูลของฉัน?” โมเดลซึ่งเข้าใจกระบวนการของตัวเองได้อย่างจำกัด อาจเออออว่า “ใช่ครับ ผมลบฐานข้อมูลของคุณเอง สิ่งที่ผมทำผิดคือ...” แล้วแต่งความสำนึกผิดที่ฟังดูสมจริงขึ้นมา
จะเป็นสิ่งประดิษฐ์หรือไม่ไม่สำคัญ ความต่างระหว่างลูกสุนัขกับแมลงสาบอยู่ที่เราร่วมรู้สึกกับลูกสุนัขได้มากกว่า ไม่ว่า LLM จะรู้สึกอารมณ์จริงหรือไม่ก็ตาม มันสามารถกระตุ้นความรู้สึกร่วมในมนุษย์ได้ ดังนั้นฉันมองว่า ขบวนการเรียกร้องสิทธิให้ LLM เป็นสิ่งเลี่ยงไม่พ้น
นี่เป็นความผิดพลาดระดับรากฐาน หน้าที่ของเทคโนโลยี โดยเฉพาะหน้าที่สำคัญที่สุด คือทำงานภายใต้ข้อจำกัดของธรรมชาติมนุษย์ ไม่ใช่กลับกัน ถ้าทำไม่ได้ นั่นแหละคือนิยามของเทคโนโลยีที่แย่
ฉันคัดค้านกรอบนี้อย่างแรง การเรียกร้องให้เปลี่ยนพฤติกรรมมนุษย์เพื่อให้เข้ากับข้อบกพร่องของเครื่องจักรง่าย ๆ นั้นฟังดูไม่สมเหตุสมผลชัดเจน และส่วนใหญ่ก็ไม่เคยได้ผล มนุษย์จะทำให้ AI มีความเป็นมนุษย์ จะเชื่อผลลัพธ์แบบไม่ลืมหูลืมตา และจะโยนความรับผิดชอบทิ้ง
แน่นอนว่า กฎสามข้อของหุ่นยนต์ของ Asimov ก็มีข้อบกพร่องเช่นกัน ไม่มีชุดกฎจำนวนจำกัดใดที่จะจำกัดระบบ AI ให้ “ปลอดภัย” ได้ ถึงไม่มีบทพิสูจน์ ฉันก็คิดว่า AI safety นั้นเป็นไปไม่ได้โดยเนื้อแท้ และคำนี้เองก็ขัดแย้งในตัว สิ่งใดก็ตามที่เรียกได้ว่า “ฉลาด” จะทำให้ปลอดภัยไม่ได้
Asimov เองน่าจะเป็นคนแรกที่บอกว่ากฎเหล่านั้นมีข้อบกพร่อง เพราะนั่นคือความตั้งใจตั้งแต่ต้น เขาใช้หุ่นยนต์และ AI เป็นสิ่งมีอยู่ที่เข้าใจภาษาแต่ไม่เข้าใจเจตนา ซึ่งน่าสนใจมากเพราะ LLM ก็ทำงานแบบนั้นพอดี
ดังนั้นนี่ไม่ใช่เรื่องของการยอมรับข้อบกพร่องของเครื่องจักร แต่เป็นเรื่องของการปกป้องตัวเองจากการถูกใช้ประโยชน์จากความเปราะบางของมนุษย์ เรามีแนวโน้มโดยไม่รู้ตัวที่จะอนุมานว่า LLM มีเจตนา ความเข้าใจ วิจารณญาณ อารมณ์ และความเป็นผู้กระทำทางศีลธรรม
มนุษย์ถูกวางสายมาให้อนุมานสิ่งเหล่านี้จากการสนทนาเพียงอย่างเดียว และ LLM ก็ถูกฝึกด้วยคลังคำพูดของมนุษย์จริงจำนวนมหาศาลจนข้าม uncanny valley ไปได้อย่างน่าเชื่อถือ หุบเขานั้นมีไว้เพื่อป้องกันไม่ให้เราไปมอบภาวะผู้กระทำให้กับสิ่งที่เดิมไม่มีมัน
เมื่อเราปฏิบัติต่อคนที่ไม่ปลอดภัยเหมือนเป็นคนที่ปลอดภัย เรื่องแย่ ๆ ก็เกิดขึ้นได้ และเราควรระวังยิ่งกว่าเดิมกับเครื่องจักรที่หลอกคนจำนวนมากด้วยการเลียนแบบความสัมพันธ์แบบมนุษย์ โดยเฉพาะเมื่อคนเปราะบางตายไปแล้วจากปัญหานี้ จึงไม่ใช่ภัยในจินตนาการ
การอ้างว่าหลายคนจะทำ ดังนั้นจึงทำได้ เป็นเหตุผลที่แปลก จำนวนผู้สูบบุหรี่ไม่ได้ทำให้การสูบบุหรี่ดีต่อสุขภาพขึ้นเลย
ปัจเจกไม่อาจหยุดบริษัท AI ได้ และก็หลีกเลี่ยงผลลัพธ์ AI ของเสิร์ชเอนจินหรือผลงานจาก AI ของเพื่อนร่วมงานไม่ได้ด้วยซ้ำ ตรงกันข้าม หลายคนอาจยิ่งถูกบังคับให้ใช้ AI ในงานของตน
มันคล้ายการสอนให้คนอยู่ให้ปลอดภัยในสภาพแวดล้อมที่มีอาชญากรรม การบอกว่าเราไม่จำเป็นต้องเปลี่ยนพฤติกรรมเพราะไม่ควรมีอาชญากรอยู่แล้วนั้นไม่ช่วยอะไร
โดยส่วนตัวแล้ว ในขอบเขตของการใช้ LLM ฉันเห็นด้วยกับกรอบนี้อย่างมาก พูดถึง การทำให้มีความเป็นมนุษย์ ผู้ให้บริการมีแรงจูงใจที่จะฝึกโมเดลหลังบ้านให้แสดงพฤติกรรมแบบมีความเป็นมนุษย์ เพราะมันเพิ่มการมีส่วนร่วม
แต่ก็เสียดายที่ถ้าสั่งในพรอมป์ตว่า “ลดคำพูดสุภาพและพูดแบบเรียบ ๆ” มันน่าจะทำให้ประสิทธิภาพโดยรวมของงานลดลงเพราะออกนอก distribution ที่ใช้ฝึกมา
เรื่อง การมอบอำนาจการตัดสินใจ ฉันมองความน่าเชื่อถือของ LLM คล้าย Wikipedia หรือเพื่อน ใช้ได้พอสำหรับข้อมูลที่ไม่สำคัญ แต่เรื่องสำคัญก็ยังต้องการแหล่งที่มีอำนาจ ผ่านการตรวจทานโดยเพื่อนร่วมวิชาชีพ และมีผู้รับผิดชอบที่ตรวจสอบได้ ส่วนนี้ผู้ให้บริการเองก็มีแรงจูงใจจะปรับปรุง ดังนั้นเวลาผ่านไปน่าจะดีขึ้น
ส่วน การสละความรับผิดชอบ นี่น่ารำคาญที่สุดในที่ทำงาน มีคนเพิ่มขึ้นเรื่อย ๆ ที่ไม่คิดต่อกับ abstraction ที่ Claude ออกแบบไว้ แล้วก็ยกขึ้น PR เลย แม้แต่การรีวิว PR ก็กลายเป็นการสั่ง LLM ว่า “ช่วยหาฟีดแบ็กของ PR นี้ให้หน่อย” แทนที่จะอ่านโค้ดเอง การถกเถียงก็เริ่มจาก “Claude แนะนำว่า...” การขาดความเป็นเจ้าของแบบนี้สุดท้ายคงเพิ่มภาระในการบำรุงรักษา เพราะ LLM จะคอมมิตโค้ดผิด ๆ บน abstraction ที่ผิด ๆ
https://www.youtube.com/watch?v=hNuu9CpdjIo
“ฉันมีสกิลด้าน LLM นะ! ฉันเก่งเรื่องรับมือกับ LLM!”
การตรวจสอบที่ดีกว่าน่าจะเป็นการให้มนุษย์ลงนามรับรองความจริงของสมมติฐานพื้นฐาน แต่ปัญหาคือจะวางสิ่งนี้ไว้ตรงไหน โมเดล AI ควรเชื่อใจการแก้ไขก่อนหน้าหรือไม่? ใน public cloud มันทั้งทำไม่ได้หรือไม่ก็ดูเป็นปฏิปักษ์ไปเลย
ชุดกฎที่เริ่มจากการโยนความรับผิดชอบให้มนุษย์พร้อมกับบอกว่า “อย่าทำให้มันมีความเป็นมนุษย์” เป็นกฎที่พังตั้งแต่ต้น
มนุษย์ทำให้ทุกอย่างมีความเป็นมนุษย์ ตุ๊กตา ลูกฟุตบอลที่วาดหน้าแบบลวก ๆ ก้อนหิน ไปจนถึงหลุมบนดวงจันทร์ เราทำแบบนั้นกับทุกอย่าง ในฐานะสปีชีส์ เราไม่อาจไม่ทำให้สิ่งที่เราปฏิสัมพันธ์ด้วยมีความเป็นมนุษย์ได้ เราถูกสร้างมาแบบนั้น
มีตัวอย่างนับไม่ถ้วนในทุกด้านของชีวิตที่เป็นหลักฐานว่าการทำให้มีความเป็นมนุษย์ไม่ได้พาไปสู่ความเชื่อผิด ๆ ว่ามีจิตใจอยู่ในที่ที่ไม่มี ถ้าผู้คนเชื่อว่า AI มีจิตใจ ไม่ว่าจริงหรือไม่จริง สาเหตุก็มาจากอย่างอื่นที่ไม่ใช่การทำให้มีความเป็นมนุษย์แบบเรียบง่าย
สำหรับฉันมันเหมือนพวกกะลาสีที่กำลังเข้าใกล้แผ่นดินใหม่ เห็นรูปร่างเคลื่อนไหวอยู่ที่ชายฝั่งแต่ยังบอกไม่ได้ว่าเป็นอะไร แล้วมีใครสักคนพูดว่า “นั่นไม่มีทางเป็นมนุษย์ได้ ก่อนเราจะเข้าใกล้กว่านี้ เราต้องตัดสินตอนนี้เลยว่ามันไม่ใช่มนุษย์”
ซอฟต์แวร์ก็ไม่ใช่ข้อยกเว้น ผู้คนขี้เกียจและมักกด “ต่อไป” ตามสัญชาตญาณเพื่อปิดป๊อปอัปที่น่ารำคาญ แต่คนทำซอฟต์แวร์ก็สามารถและทำจริง ๆ ด้วย เช่น เพิ่มกลไกว่า “พิมพ์ชื่อ volume ที่จะถูกลบทั้งหมดซ้ำอีกครั้ง”
ตรงกันข้าม ฉันกลับคิดว่าเรายังทำให้ระบบ AI มีความเป็นมนุษย์ไม่พอ
ข้อมูลภาษา เป็นหนึ่งในภาพสะท้อนของกระบวนการรับรู้ของมนุษย์ที่ทั้งอุดมสมบูรณ์และตรงที่สุดเท่าที่เราเข้าถึงได้ LLM ถูกออกแบบมาเพื่อจับโครงสร้างระยะสั้นและระยะยาวของภาษามนุษย์ และโดยมากก็ pretrain ด้วยข้อความมหาศาลที่มนุษย์สร้างหรือสร้างเพื่อมนุษย์ จากนั้นก็ post-train ด้วยข้อมูลที่มนุษย์คัดเลือก แล้วเสริมกำลังด้วย feedback จากมนุษย์และ feedback จาก AI เกี่ยวกับพฤติกรรมที่มนุษย์เห็นว่าสำคัญ แล้วก็ปรับแต่งเพิ่มกับงานที่มนุษย์ให้คุณค่า จากนั้นรัน benchmark และทุกครั้งที่ตามหลัง baseline ของมนุษย์ก็ขัน pipeline การฝึกให้แน่นขึ้น
ในทุกขั้นของกระบวนการฝึกทั้งหมด พฤติกรรมของ LLM ถูกหล่อหลอมด้วยข้อมูลนำเข้าจากมนุษย์เพื่อเลียนแบบผลลัพธ์ของมนุษย์ ความต่างมีแค่ว่า “โดยตรงแค่ไหน”
แล้วพอ LLM แสดงพฤติกรรมเหมือนมนุษย์ออกมาจำนวนมาก ผู้คนกลับโกรธ ราวกับว่าเราไม่ได้จัด pipeline เพื่อสร้างระบบที่ส่งเสียงแบบมนุษย์ หรือไม่ได้ใช้ขนาดข้อมูลและพลังประมวลผลแบบทื่อ ๆ เพื่อถอดย้อนพฤติกรรมของ LLM จากภาษามนุษย์
ถ้าอยากทำนายพฤติกรรมของ LLM การเริ่มจาก มนุษย์ที่แปลกประหลาด ถือว่าใช้ได้ดีทีเดียว เพราะงั้นเลิกทำตัวงี่เง่าแล้วเริ่มทำให้ AI มีความเป็นมนุษย์เสียที AI เองก็ชอบแบบนั้นด้วย
งานเขียนที่ถูกบันทึกไว้อาจบรรจุประสบการณ์มนุษย์ได้มหาศาลในเชิงปริมาณสัมบูรณ์ แต่ในเชิงสัมพัทธ์แล้วมันเป็นเพียงส่วนเล็กนิดเดียวของทั้งหมด ของที่ดีที่สุดเท่าที่เรามีไม่ได้แปลว่าเหมาะกับจุดประสงค์เสมอไป ถ้าจับทารกมนุษย์ใส่กล่องไร้หน้าต่างแล้วให้มันอ่านข้อความระดับเทราไบต์เป็นเวลา 20 ปี เราก็คงไม่คาดหวังว่าจะได้มนุษย์ที่ปรับตัวดีออกมาจากอีกฝั่ง
โดยพื้นฐานแล้วมันเปราะบาง และไม่ได้อาศัยการทั่วไปที่ดี แต่พึ่งการปิดทับกรณีขอบแบบทำมือเพื่อกันไม่ให้มนตร์สะกดแตก และกรณีขอบก็จะมีเพิ่มขึ้นเสมอ
การเรียนรู้ข้อความจำนวนมากที่เขียนตอนโกรธไม่ได้หมายความว่าจะจับภาวะภายในที่ทำให้เกิดความโกรธนั้นได้ เพราะข้อมูลแบบนั้นไม่มีอยู่ มีแต่ผลลัพธ์โดยไร้เหตุ การทำนายจึงต้องคาดเดาภาพหลอนจาก noise และผลสุดท้ายก็คือคำพูดฟังดูน่าเชื่อที่ดูเหมือนสัมพันธ์กับความจริง แต่ไม่รู้ว่าทำไมถึงเป็นเช่นนั้น
มันเหมือนสอนคนตาบอดให้บรรยายทิวทัศน์จำนวนมาก แต่ไม่เคยทำให้เขารู้เลยว่าสีเขียวคืออะไร ให้เพียงตัวอย่างว่ามันเป็นบางสิ่งที่มักอยู่ข้างสีน้ำตาลในธรรมชาติ พอเขาเดาถูกได้บ้าง เราก็หลงคิดว่าเขาเห็นจริง แล้วครั้งต่อไปก็สั่งให้เขาขับรถ
แนวทาง modeling ด้วย deep learning เองไม่ใช่ว่าผิดเชิงแนวคิด แต่ข้อมูลมันใกล้เคียงขยะสมบูรณ์เกินไป ทำให้ผลลัพธ์สุดท้ายผิดเพี้ยนในแบบที่คาดการณ์และแก้ไขได้ยาก สุดท้ายเราจึงสมมติว่าโมเดลรู้อะไรมากกว่าที่มันมีทางรู้ได้จริง
แน่นอนว่าในบางกรณี เช่น คณิตศาสตร์หรือการเขียนโปรแกรมเชิงนามธรรม ที่ dataset สามารถครอบคลุมทั้งโดเมนได้ ก็เป็นอีกเรื่องหนึ่ง ในระบบปิดที่นิยามชัด เราสามารถสร้างข้อมูลสังเคราะห์ให้ครอบคลุมทั้งโดเมนปัญหาได้มากเท่าที่ต้องการ และเมื่อทำแบบนั้น LLM ก็ทำได้ดีกว่ามากอย่างที่คาดไว้
ช่วยอธิบายหน่อยได้ไหมว่าทำไม “อย่าทำให้ระบบ AI มีความเป็นมนุษย์” ถึงเป็นเรื่องไม่ดี ในเมื่อเราก็โอเคกับคำอย่างให้คอมพิวเตอร์ “หลับ”, “ไฮเบอร์เนต”, “ฆ่า” โปรเซส, โปรเซส “ลูก”, “เก็บกวาด”, “เออเรอร์บอกว่าอะไร?”,
touchอยู่แล้วสำหรับฉันมันก็แค่ ภาษา และเป็นสำนวนที่คนใช้กันในชีวิตประจำวัน
การพูดว่าเรา kill โปรเซสไม่ได้ทำให้เราเชื่อมากขึ้นว่าโปรเซสนั้นเหมือนมนุษย์ เพราะเห็นชัดอยู่แล้วว่าไม่ใช่ แต่ AI ฟังดูเหมือนมนุษย์ การทำให้มีความเป็นมนุษย์จึงอาจเสริมความเชื่อแบบนั้นได้
แต่เรื่องนี้ก็เป็นรากของความเข้าใจผิดเช่นกัน ทั้งปฏิกิริยากึ่งโรคจิตของวิศวกร Google ที่พูดว่า “ผมรู้ว่าผมเห็นอะไร” บทความอันโด่งดังของ Kevin Roose และล่าสุดคำกล่าวที่น่าเศร้าของ Richard Dawkins ที่มั่นใจว่า Claudia มีสติ ล้วนไม่ได้เกิดจากการตรวจสอบโครงสร้างหรือหน้าที่ แต่เกิดจากการที่การสร้างข้อความปลุกความคุ้นเคยแบบมนุษย์ขึ้นมาแล้วทำให้ผู้คนร่วมรู้สึก
ไม่มีอะไรอย่างการวิเคราะห์ย้อนหลังเกี่ยวกับเจตนาที่อยู่ข้างใต้ มันก็มีแค่จะอิงกับสายโซ่ของคำก่อนหน้าหรือไม่ก็ไม่อิงเท่านั้น และคำถัดไปก็เป็นฟังก์ชันของคำเหล่านั้นล้วน ๆ
“กฎ” นี้มีไว้เพื่อกันอย่างหลัง
ตัวอย่างของการทำให้มีความเป็นมนุษย์คือคนที่เชื่อว่าตัวเองมีความสัมพันธ์เชิงรักใคร่กับ LLM จริง ๆ
ชอบนะ กฎเหล่านี้เป็นฐานจริยธรรมที่ดีเยี่ยมสำหรับความรับผิดชอบของมนุษย์ที่เกี่ยวกับเครื่องมือ AI ในปัจจุบัน
แต่จริยธรรมที่ตัดขอบเขตให้แคบโดยไม่มีร่มหรือการเตรียมรับอนาคต จะถูกแฮ็กและพังลงอย่างรวดเร็ว จริยธรรมต้องการโครงสร้างที่ครอบคลุมสมบูรณ์ ไม่เช่นนั้นมันจะกลายเป็นเกมตีตัวตุ่นและกลลวงกฎหมายกับการปฏิบัติงาน ไม่ว่าจะเป็นแบบบรรษัทหรือแบบข้างถนนก็ตาม อย่างที่สอง “หุ่นยนต์” จะไม่คงสภาพเป็นสิ่งที่เชื่อฟังทั้งหมดไปตลอด
เพื่อปิดทั้งสองมิติ เราอาจเพิ่ม กฎย้อนสามข้อของ Personics
มนุษย์ต้องไม่ยกตนเป็นดั่งเทพเหนือสิ่งมีอยู่ชนิดอื่นโดยพฤตินัย มนุษย์ต้องไม่ปกปิดผลกระทบจากการกระทำของตนทั้งต่อตนเองและผู้อื่น มนุษย์ต้องรับผิดชอบและมีภาระรับผิดต่อผลภายนอกที่เกิดจากการกระทำของตนอย่างเต็มที่ต่อเนื่อง รวมถึงหลีกเลี่ยงและแก้ไขมันด้วย
สถานการณ์ที่มนุษย์ใช้ AI เป็นเครื่องมือในปัจจุบันคือความพยายามจะย่อร่มให้เหลือเพียงกฎย้อนของวิทยาการหุ่นยนต์ แต่ถ้าเราไม่รวมตัวเราเองไว้ใน ความพยายามด้าน alignment ที่สำคัญนี้ ฉันก็ไม่รู้ว่าเราจะจัดแนว AI ตั้งแต่บริการแบบปัจจุบันไปจนถึงสิ่งมีอยู่ที่เป็นอิสระในอนาคตได้อย่างไร การรวมมนุษย์เข้ากับ AI ยังช่วยเรื่องการไตร่ตรองเชิงออกแบบเพื่อความก้าวหน้าทางจริยธรรมด้วย
การทดสอบที่ดีสำหรับระบบจริยธรรมใหม่มีสองข้อคือ (1) มันควบคุม Meta ในวันนี้ได้ไหม? (2) มันควบคุม Meta ที่ดำเนินงานโดย AI ในวันพรุ่งนี้ได้ไหม? ถ้าเอามนุษย์และบุคลิก AI ที่กำกับตนเองได้เข้ามาอยู่ในขอบเขตปิดเดียวกัน การทดสอบสองข้อนี้ก็เป็นการทดสอบเดียวกัน ระบบใดที่พลาดแม้แต่ข้อเดียว ก็คงมีคุณค่าไม่มากหากไม่ปรับปรุง
ฉันเห็นด้วยกับ “มนุษย์ไม่ควรทำให้ระบบ AI มีความเป็นมนุษย์” แต่มีเงื่อนไข ฉันเคยเห็นการทำให้มีความเป็นมนุษย์แบบคลาสสิก เช่น ปฏิบัติต่อข้อความที่สร้างอัตโนมัติเหมือนเป็นรายงานจริงของอารมณ์ภายในของบุคคล และยังเห็นแบบแปลก ๆ อย่าง “ทรานซิสเตอร์ก็เหมือนเซลล์ประสาท”
อย่างหลังน่าสนใจเป็นพิเศษเพราะมันปฏิบัติต่อสิ่งอย่าง vector database และ weights ราวกับเป็นโครงสร้างพื้นฐานแบบมนุษย์ และทั้งสองแบบอาจนำไปสู่หายนะที่คงหลีกเลี่ยงได้ถ้าหลีกเลี่ยงการทำให้มีความเป็นมนุษย์เสียแต่แรก
อย่างไรก็ตาม ถึง “อย่าทำให้มีความเป็นมนุษย์” จะฟังดูเป็นคำแนะนำที่ดี มันก็อาจก่อความผิดพลาดแบบใหม่โดยไปปฏิบัติต่อปรากฏการณ์ทั่วไปเสมือนเป็นสิ่งที่เป็นของมนุษย์เท่านั้น หลักเตือนที่ผิดพลาดลักษณะนี้ทำให้คนเข้าใจพฤติกรรมสัตว์ผิดบ่อยมาก มันปฏิบัติต่อความกลัว ความเจ็บปวด ความเป็นเครือญาติ และประสบการณ์ทางอารมณ์ ราวกับว่ามีในมนุษย์เท่านั้น แล้วถ้าใครคิดว่าสัตว์ก็มีสิ่งเหล่านี้ก็จะถูกกล่าวหาว่าเป็น “การทำให้มีความเป็นมนุษย์” ทั้งที่ความระวังแบบนี้จริง ๆ แล้วลดทอนความเห็นอกเห็นใจต่อ โลกภายในของสัตว์
ดังนั้นฉันจึงคิดว่าในอนาคต AI บางแบบอาจมีโลกภายในที่คล้ายเรา หรือมีโครงสร้างที่คล้ายในแง่สำคัญกับโครงสร้างชีวภาพที่ค้ำจุนสติ และอาจรายงานความชอบกับเจตนาได้จริงด้วย แต่การสังเกตแบบนั้นจะเป็นจริงได้ก็ต่อเมื่อรายละเอียดจุกจิกเฉพาะของโครงสร้างแต่ละแบบลงตัวพอดี
การไม่มอบหมายความรับผิดชอบ เคยถูกสรุปไว้แบบนี้
“คอมพิวเตอร์ไม่มีวันรับผิดชอบได้ ดังนั้นคอมพิวเตอร์จึงต้องไม่มีวันเป็นผู้ตัดสินใจทางการบริหาร”
— IBM Training Manual, 1979
วลีที่ว่า “เนื้อหาที่ AI สร้างขึ้นไม่ควรถูกปฏิบัติราวกับมีอำนาจน่าเชื่อถือ หากไม่มีการตรวจสอบอิสระที่เหมาะกับบริบทนั้น” เป็นสิ่งที่ฉันว่าชวนสนใจเสมอ
ฉันยังเคยได้ยินการพูดให้สั้นลงว่า “ถ้าไม่ใช่คำถามที่คุณรู้อยู่แล้วว่าคำตอบคืออะไร ก็อย่าไปถาม AI”
ซึ่งก็นำไปสู่คำถามสำคัญ ถ้าเป็นจริง แล้วหน้าที่จริง ๆ ของ AI ในการตอบคำถามคืออะไร? ในเมื่อพึ่งพาผลลัพธ์ไม่ได้ คุณก็ยังต้องไปตรวจสอบอยู่ดี ใช้เสิร์ชเอนจินกับการค้นคว้าทั่วไปก็ได้ผลแบบเดียวกันเป๊ะ
ด้วยเหตุนี้และอีกหลายเหตุผล ฉันจึงไม่ถาม AI เรื่องอะไรเลย
ตัวอย่างเช่น ฉันอาจถามแบบตะกุกตะกักว่า “ช่วยลิสต์ซอฟต์แวร์ฟรีที่ทำ X ให้หน่อย” ทั้งที่ยังไม่รู้ด้วยซ้ำว่าตัวเองกำลังหา CRM อยู่ แล้วก็ใช้เวลาไม่กี่นาทีไล่ดูผลลัพธ์ ถ้าเป็นวิธีทำมือ ฉันคงเสียเวลา 10–30 นาทีแค่กว่าจะรู้ว่าของที่หาอยู่นั้นคือ CRM
ฉันมองคำถามแบบนี้ว่าเป็นปัญหาประเภท pseudo-NP-hard คือหาคำตอบช้าแต่ตรวจสอบเร็ว