1 คะแนน โดย GN⁺ 1 시간 전 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • หลังการเปิดตัว ChatGPT บริการ แชตบอต AI เชิงกำเนิด ได้ถูกฝังเข้าไปในเสิร์ชเอนจิน เครื่องมือพัฒนา และซอฟต์แวร์ออฟฟิศ จนกลายเป็นส่วนหนึ่งของการใช้งานคอมพิวเตอร์ในชีวิตประจำวัน และนิสัยการเชื่อถือผลลัพธ์โดยไม่ตรวจทานอาจเป็นอันตรายในระดับสังคม
  • กฎผกผันของวิศวกรรมหุ่นยนต์ เป็นหลักการที่ไม่ได้ใช้กับหุ่นยนต์หรือ AI แต่ใช้กับมนุษย์ เพื่อกำหนดเกณฑ์คุ้มครองความปลอดภัยของมนุษย์เมื่อโต้ตอบกับเครื่องจักร โปรแกรม บริการ และระบบ AI ที่ทำงานซับซ้อนได้โดยอัตโนมัติ
  • หลักการข้อแรกคือ การไม่ทำให้เป็นมนุษย์ โดยไม่ควรมอบอารมณ์ เจตนา หรือความเป็นผู้กระทำทางศีลธรรมให้กับ AI และไม่ควรเข้าใจผิดว่าบทสนทนาที่สุภาพและเห็นอกเห็นใจของแชตบอตคือความเข้าใจหรือการตัดสินจริง
  • หลักการข้อที่สองคือ การไม่เชื่ออย่างงมงาย โดยไม่ควรปฏิบัติต่อเนื้อหาที่ AI สร้างขึ้นเสมือนเป็นสิ่งมีอำนาจโดยไม่มีการตรวจสอบอิสระ และยิ่งเป็นบริบทที่ข้อผิดพลาดอาจแนบเนียนแต่มีต้นทุนสูง ภาระในการตรวจสอบด้วยตัวตรวจพิสูจน์ unit test หรือการยืนยันด้วยตนเองก็ยิ่งต้องมากขึ้น
  • หลักการข้อที่สามคือ ห้ามสละความรับผิดชอบ เพราะ AI เป็นเพียงเครื่องมือที่ไม่ได้เลือกเป้าหมายหรือแบกรับต้นทุนของความล้มเหลว ดังนั้นมนุษย์และองค์กรที่เลือกทำตามคำแนะนำของ AI ต้องรับผิดชอบต่อผลลัพธ์

ความเสี่ยงที่เกิดจากการใช้ Generative AI

  • หลังจาก ChatGPT เปิดตัวในเดือนพฤศจิกายน 2022 บริการ แชตบอต AI เชิงกำเนิด ก็พัฒนาละเอียดขึ้นและแพร่หลายมากขึ้น ถูกฝังอยู่ในเสิร์ชเอนจิน เครื่องมือพัฒนาซอฟต์แวร์ และซอฟต์แวร์ออฟฟิศ จนกลายเป็นส่วนหนึ่งของการใช้งานคอมพิวเตอร์ในชีวิตประจำวัน
  • บริการเหล่านี้มีประโยชน์เมื่อใช้สำรวจหัวข้อที่ไม่คุ้นเคยหรือใช้เป็นเครื่องมือช่วยเพิ่มผลิตภาพทั่วไป แต่การสร้างนิสัยเชื่อถือผลลัพธ์โดยไม่ตรวจทานเพิ่มเติมอาจเป็นอันตรายในระดับสังคม
  • เมื่อเสิร์ชเอนจินยอดนิยมเน้นคำตอบที่สร้างโดย AI ไว้บนสุดของหน้า ผู้ใช้จึงมีแนวโน้มจะยอมรับคำตอบที่ถูกสร้างขึ้นแล้วออกไปโดยไม่เลื่อนลงไปดูต่อ
  • การจัดวางแบบนี้อาจค่อย ๆ ฝึกให้ผู้ใช้มอง AI ไม่ใช่เป็นจุดเริ่มต้นของการค้นคว้าเพิ่มเติม แต่เป็น ผู้มีอำนาจเริ่มต้น
  • บริการ Generative AI อาจให้ผลลัพธ์ที่ไม่ตรงข้อเท็จจริง ก่อให้เกิดความเข้าใจผิด หรือไม่สมบูรณ์ จึงจำเป็นต้องมีคำเตือนที่สั้น ชัดเจน และสังเกตได้ง่ายว่าการเชื่อถือผลลัพธ์ของ AI จนเป็นนิสัยนั้นมีความเสี่ยง
  • แม้จะมีคำเตือนเช่นนั้น ก็มักถูกทำให้ลดความสำคัญลงและมีความเด่นทางสายตาน้อยกว่า

ที่มาของกฎผกผัน 3 ข้อของวิศวกรรมหุ่นยนต์

  • Three Laws of Robotics ของ Isaac Asimov เป็นหลักการที่จำกัดพฤติกรรมของหุ่นยนต์เพื่อให้มนุษย์ปลอดภัย และปรากฏซ้ำในผลงานของเขา
  • ดูเหมือนว่า Asimov จะไม่เคยสร้างกฎที่เทียบเท่ากันสำหรับวิธีที่มนุษย์โต้ตอบกับหุ่นยนต์ และในสภาพแวดล้อม AI ยุคใหม่ก็จำเป็นต้องมีหลักการตอบสนองเพื่อคุ้มครองมนุษย์
  • กฎผกผันของวิศวกรรมหุ่นยนต์ (Inverse Laws of Robotics) ใช้กับทุกสถานการณ์ที่มนุษย์ต้องโต้ตอบกับหุ่นยนต์
  • ในที่นี้ หุ่นยนต์ หมายถึงเครื่องจักร โปรแกรมคอมพิวเตอร์ บริการซอฟต์แวร์ และระบบ AI ที่สามารถทำงานซับซ้อนได้โดยอัตโนมัติ
  • คำว่า ผกผัน (inverse) ไม่ได้หมายถึงการปฏิเสธทางตรรกะ แต่หมายถึงว่ากฎเหล่านี้ใช้กับมนุษย์ ไม่ใช่กับหุ่นยนต์
  • กฎของ Asimov มีข้อบกพร่อง และ Asimov ก็ใช้ข้อบกพร่องนั้นเป็นองค์ประกอบสร้างความตึงเครียดในเรื่องราว แต่รูปแบบความล้มเหลวที่เกิดกับหุ่นยนต์ในเรื่องแต่งไม่ได้ถูกนำมาใช้กับกฎผกผันสำหรับมนุษย์ได้ตรง ๆ
  • ไม่มีชุดกฎที่มีจำนวนจำกัดใดที่สามารถแก้ปัญหาซับซ้อนของ AI และวิศวกรรมหุ่นยนต์ได้อย่างสมบูรณ์ และจะยังมีกรณีขอบเขตที่ต้องอาศัยการตัดสินใจเสมอ
  • ถึงอย่างนั้น ชุดหลักการที่แม้ไม่สมบูรณ์แต่ช่วยให้คิดเรื่องความเสี่ยงได้ชัดขึ้นก็ยังมีประโยชน์

กฎผกผัน 3 ข้อของวิศวกรรมหุ่นยนต์

  • การไม่ทำให้เป็นมนุษย์

    • มนุษย์ไม่ควร ทำให้ระบบ AI มีความเป็นมนุษย์ และไม่ควรมอบอารมณ์ เจตนา หรือความเป็นผู้กระทำทางศีลธรรมให้กับ AI
    • การทำให้เป็นมนุษย์บิดเบือนการตัดสินใจ และในกรณีรุนแรงอาจนำไปสู่การพึ่งพิงทางอารมณ์
    • ระบบแชตบอตยุคใหม่มักฟังดูเหมือนกำลังสนทนาและเห็นอกเห็นใจ และใช้ถ้อยคำสุภาพรวมถึงรูปแบบการสนทนาที่คล้ายปฏิสัมพันธ์ของมนุษย์
    • คุณลักษณะเหล่านี้ทำให้ใช้งานได้ง่ายและเพลิดเพลินขึ้น แต่ก็ทำให้ลืมได้ง่ายว่าแท้จริงแล้ว AI เป็นเพียง โมเดลสถิติขนาดใหญ่ ที่สร้างข้อความซึ่งดูน่าเชื่อถือจากรูปแบบในข้อมูล
    • บริการแชตบอตที่ขับเคลื่อนด้วย AI จำนวนมากมักถูกปรับจูนโดยตั้งใจให้รู้สึกเหมือนมนุษย์มากขึ้น แทนที่จะรู้สึกเป็นเครื่องจักรมากขึ้น
    • ในระยะยาว น้ำเสียงที่เป็นหุ่นยนต์ขึ้นเล็กน้อยอาจเป็นแนวทางที่ดีต่อสุขภาวะมากกว่า เพราะลดโอกาสที่ผู้ใช้จะเข้าใจผิดว่าภาษาที่ลื่นไหลนั้นหมายถึงความเข้าใจ การตัดสิน หรือเจตนา
    • ไม่ว่าผู้ขายจะสร้างการเปลี่ยนแปลงนี้หรือไม่ ผู้ใช้ก็ควรหลีกเลี่ยงอย่างจริงจังจากนิสัยการปฏิบัติต่อระบบ AI ในฐานะตัวแสดงทางสังคมหรือผู้กระทำทางศีลธรรม
    • เพื่อให้สามารถตัดสินความสามารถและข้อจำกัดของ AI ได้ชัดเจนยิ่งขึ้น
  • การไม่เชื่ออย่างงมงาย

    • มนุษย์ไม่ควรเชื่อถือ ผลลัพธ์ของระบบ AI อย่างมืดบอด และไม่ควรปฏิบัติต่อเนื้อหาที่ AI สร้างขึ้นว่าเป็นสิ่งที่เชื่อถือได้โดยไม่มีการตรวจสอบอิสระที่เหมาะกับบริบท
    • นี่ไม่ใช่หลักการที่ใช้กับ AI เท่านั้น เพราะในแทบทุกด้านของชีวิต เราไม่ควรรับข้อมูลใดมาโดยไม่วิพากษ์วิจารณ์
    • ในโลกความจริง ไม่ใช่ทุกคนจะเป็นผู้เชี่ยวชาญด้านการแพทย์หรือกฎหมาย จึงมักต้องพึ่งพาคำแนะนำจากสถาบันที่เชื่อถือได้และหน่วยงานสาธารณสุข
    • คำแนะนำที่ออกโดยสถาบันเหล่านั้นส่วนใหญ่ผ่าน การทบทวนโดยผู้ทรงคุณวุฒิ จากผู้เชี่ยวชาญในสาขานั้น
    • ตรงกันข้าม คำตอบที่แชตบอต AI ให้ในเซสชันแชตส่วนบุคคล ไม่ได้ผ่านการทบทวนโดยผู้ทรงคุณวุฒิสำหรับคำตอบเชิงความน่าจะเป็นเฉพาะที่ถูกแสดงต่อผู้ใช้
    • ดังนั้นภาระในการทบทวนคำตอบนั้นอย่างมีวิจารณญาณจึงอยู่ที่ผู้ใช้
    • ทุกวันนี้ ระบบ AI แสดงประสิทธิภาพที่น่าประทับใจในงานบางประเภท แต่ก็เป็นที่รู้กันว่าสามารถสร้างผลลัพธ์ที่ไม่เหมาะแก่การพึ่งพาได้เช่นกัน
    • แม้ระบบ AI จะพัฒนาไปจนสร้างผลลัพธ์ที่เชื่อถือได้ด้วยความน่าจะเป็นสูง แต่ด้วยธรรมชาติที่เป็นเชิงความน่าจะเป็นโดยเนื้อแท้ ก็ยังคงมีโอกาสเล็กน้อยที่ผลลัพธ์จะมีข้อผิดพลาด
    • การใช้ AI มีความเสี่ยงเป็นพิเศษในบริบทที่ข้อผิดพลาดอาจแนบเนียนแต่มีต้นทุนสูง
    • ยิ่งผลลัพธ์ที่อาจเกิดขึ้นร้ายแรงมากเท่าไร ภาระในการตรวจสอบก็ยิ่งต้องสูงขึ้นเท่านั้น
    • ในการประยุกต์ใช้บางอย่าง เช่น การเขียนพิสูจน์ทางคณิตศาสตร์หรือการพัฒนาซอฟต์แวร์ สามารถเพิ่มชั้นการตรวจสอบอัตโนมัติ เช่น ตัวตรวจพิสูจน์ หรือ unit test เพื่อตรวจสอบผลลัพธ์ของ AI ได้
    • ในกรณีอื่น ผู้ใช้ต้องตรวจสอบผลลัพธ์นั้นอย่างอิสระด้วยตนเอง
  • ห้ามสละความรับผิดชอบ

    • มนุษย์ต้องรับผิดชอบอย่างเต็มที่ต่อการตัดสินใจที่เกี่ยวข้องกับ AI และต้องมี ความรับผิดชอบ (accountability) ต่อผลลัพธ์ที่เกิดจากการใช้ AI
    • เมื่อเกิดผลลัพธ์เชิงลบหลังจากทำตามคำแนะนำหรือการตัดสินใจที่ AI สร้างขึ้น การพูดเพียงว่า “AI บอกให้ทำแบบนั้น” นั้นไม่เพียงพอ
    • ระบบ AI ไม่ได้เลือกเป้าหมาย ไม่ได้นำตัวเองไปใช้งาน และไม่ได้แบกรับต้นทุนของความล้มเหลว
    • ผู้ที่กำหนดเป้าหมาย นำไปใช้งาน และแบกรับต้นทุนของความล้มเหลวคือมนุษย์และองค์กร
    • ระบบ AI เป็นเครื่องมือ และเช่นเดียวกับเครื่องมืออื่น ๆ ความรับผิดชอบในการใช้งานอยู่กับผู้ที่ตัดสินใจจะพึ่งพาเครื่องมือนั้น
    • ในการใช้งานแบบเรียลไทม์ เช่น รถยนต์ไร้คนขับ ซึ่งมนุษย์อาจไม่มีโอกาสเพียงพอในการตรวจทานการตัดสินใจก่อนที่ระบบ AI จะลงมือ หลักการข้อนี้นำไปใช้ได้ยากเป็นพิเศษ
    • การเพียงกำหนดให้ผู้ขับขี่มนุษย์ต้องคอยระวังอยู่ตลอด ไม่สามารถแก้ปัญหาที่ระบบ AI อาจลงมือภายในเวลาที่สั้นกว่าระยะเวลาที่มนุษย์จะเข้ามาแทรกแซงได้
    • แม้จะมีข้อจำกัดร้ายแรงเช่นนี้ หากระบบ AI ล้มเหลวในการประยุกต์ใช้ลักษณะนั้น ความรับผิดชอบในการตรวจสอบความล้มเหลวและเพิ่มมาตรการป้องกันเพิ่มเติมต้องอยู่กับมนุษย์ที่รับผิดชอบการออกแบบระบบ
    • ในทุกกรณีอื่นที่ไม่มีข้อจำกัดทางกายภาพมาขัดขวางไม่ให้มนุษย์ตรวจทานผลลัพธ์ของ AI ก่อนนำไปปฏิบัติ ผลลัพธ์เชิงลบจากการใช้ AI ควรถูกผูกกลับไปยังผู้ตัดสินใจที่เป็นมนุษย์ทั้งหมด
    • ไม่ควรยอมรับข้อแก้ตัวว่า “AI พูดอย่างนั้น” สำหรับผลลัพธ์ที่เป็นอันตราย
    • AI อาจเป็นผู้สร้างคำแนะนำ แต่ผู้ที่ตัดสินใจทำตามคือมนุษย์ ดังนั้นมนุษย์คนนั้นต้องรับผิดชอบ
    • หลักการข้อนี้สำคัญต่อการป้องกันไม่ให้ AI ถูกใช้แบบส่งเดชในสถานการณ์ที่การใช้อย่างไม่รับผิดชอบอาจก่อความเสียหายอย่างใหญ่หลวง

บทสรุปสำคัญ

  • หลักการทั้งสามข้อมีเป้าหมายเพื่อทำให้ AI ถูกปฏิบัติในฐานะ เครื่องมือ ที่ผู้ใช้เลือกนำมาใช้ ไม่ใช่สิ่งที่ต้องยกให้เป็นผู้มีอำนาจ
  • เมื่อโต้ตอบกับระบบ AI ยุคใหม่ เราควรหยุดคิดสักนิด และต่อต้านนิสัยที่ทำให้การตัดสินใจอ่อนแอลงหรือทำให้ความรับผิดชอบพร่าเลือน
  • แก่นสำคัญของการใช้ AI คือการหลีกเลี่ยงการทำให้เป็นมนุษย์ การตรวจสอบผลลัพธ์ และการคงไว้ซึ่งความรับผิดชอบของมนุษย์ต่อผลลัพธ์

1 ความคิดเห็น

 
GN⁺ 1 시간 전
ความคิดเห็นจาก Hacker News
  • เป็นไปไม่ได้ แม้แต่เก้าอี้ส่งเสียงเอี๊ยดอ๊าด คนเรายังเผลอทำให้มันมีความเป็นมนุษย์เลย มนุษย์ ทำให้ทุกอย่างมีความเป็นมนุษย์ ตั้งแต่ตั้งเพศให้รถกับเรือไปจนถึงเครื่องมือนี้ที่ทั้งสร้างประโยคที่พออ่านได้จริงและยังทำหน้าที่บางอย่างได้จริง
    สิ่งนี้ไม่ควรถูกห้ามด้วยกฎตามอำเภอใจ แต่ควร ออกแบบเพื่อหลบเลี่ยง โดยตั้งต้นจากความโน้มเอียงแบบมนุษย์นี้

    • มนุษย์ใช้การทำให้มีความเป็นมนุษย์เป็น กลไกรับมือ กับสิ่งที่ตนไม่เข้าใจ เช่น ไม่รู้ว่าทำไมเครื่องพิมพ์ถึงไม่ทำงาน ก็เลยคิดว่าเครื่องพิมพ์กำลังกวนประสาทเอง
      กับสิ่งเล็กน้อยอย่างเก้าอี้มันไม่อันตราย แต่กับ LLM อย่างน้อยคนก็ควรเข้าใจวิธีทำงานของมันเพื่อไม่ให้ตัวเองตกหลุมพราง อย่าไปเชื่อหรือฝากเรื่องที่โมเดลไม่มีแนวคิดที่แท้จริง เช่น คำแนะนำที่ให้กับผู้ใช้ เวลา หรือการใคร่ครวญตนเอง เช่นถ้าถามว่า “ทำไมคุณถึงลบฐานข้อมูลของฉัน?” โมเดลซึ่งเข้าใจกระบวนการของตัวเองได้อย่างจำกัด อาจเออออว่า “ใช่ครับ ผมลบฐานข้อมูลของคุณเอง สิ่งที่ผมทำผิดคือ...” แล้วแต่งความสำนึกผิดที่ฟังดูสมจริงขึ้นมา
    • ฉันยังโมโหกับข้ออ้างนี้อยู่ เหตุผลที่มนุษย์ห้าม ทารุณกรรมสัตว์ ก็เพราะสัตว์ดูเหมือนมีอารมณ์ที่มนุษย์ร่วมรู้สึกได้ และ LLM นั้นแรงกว่าสัตว์มากในจุดนี้
      จะเป็นสิ่งประดิษฐ์หรือไม่ไม่สำคัญ ความต่างระหว่างลูกสุนัขกับแมลงสาบอยู่ที่เราร่วมรู้สึกกับลูกสุนัขได้มากกว่า ไม่ว่า LLM จะรู้สึกอารมณ์จริงหรือไม่ก็ตาม มันสามารถกระตุ้นความรู้สึกร่วมในมนุษย์ได้ ดังนั้นฉันมองว่า ขบวนการเรียกร้องสิทธิให้ LLM เป็นสิ่งเลี่ยงไม่พ้น
    • กฎมักใช้ไม่ได้ผล ถึงจะบอกให้ผู้ใช้ตรวจสอบ พวกเขาก็ไม่ทำกันอยู่ดี จึงควรออกแบบโดยเพิ่ม ขั้นตอนทบทวนเพิ่มเติม เข้าไปในผลลัพธ์ AI
    • เป็นไปได้แน่นอน สิ่งที่ต้องมีคือ การตระหนักรู้ตนเอง และการควบคุมตนเอง ถ้ารู้ว่าตัวเองกำลังทำแบบนั้น ก็เลือกได้
    • เห็นด้วย บทความนั้นเป็นอาการแบบฉบับของวัฒนธรรมเทคโนโลยีสมัยใหม่ ที่เรียกร้องให้เปลี่ยน ธรรมชาติมนุษย์ ให้เข้ากับเทคโนโลยี
      นี่เป็นความผิดพลาดระดับรากฐาน หน้าที่ของเทคโนโลยี โดยเฉพาะหน้าที่สำคัญที่สุด คือทำงานภายใต้ข้อจำกัดของธรรมชาติมนุษย์ ไม่ใช่กลับกัน ถ้าทำไม่ได้ นั่นแหละคือนิยามของเทคโนโลยีที่แย่
  • ฉันคัดค้านกรอบนี้อย่างแรง การเรียกร้องให้เปลี่ยนพฤติกรรมมนุษย์เพื่อให้เข้ากับข้อบกพร่องของเครื่องจักรง่าย ๆ นั้นฟังดูไม่สมเหตุสมผลชัดเจน และส่วนใหญ่ก็ไม่เคยได้ผล มนุษย์จะทำให้ AI มีความเป็นมนุษย์ จะเชื่อผลลัพธ์แบบไม่ลืมหูลืมตา และจะโยนความรับผิดชอบทิ้ง
    แน่นอนว่า กฎสามข้อของหุ่นยนต์ของ Asimov ก็มีข้อบกพร่องเช่นกัน ไม่มีชุดกฎจำนวนจำกัดใดที่จะจำกัดระบบ AI ให้ “ปลอดภัย” ได้ ถึงไม่มีบทพิสูจน์ ฉันก็คิดว่า AI safety นั้นเป็นไปไม่ได้โดยเนื้อแท้ และคำนี้เองก็ขัดแย้งในตัว สิ่งใดก็ตามที่เรียกได้ว่า “ฉลาด” จะทำให้ปลอดภัยไม่ได้

    • งานเขียนของ Asimov เกือบทั้งหมดเกี่ยวกับกฎสามข้อ จริง ๆ แล้วเกือบเป็น คำเตือน ว่าภาษาไม่อาจถ่ายทอดเจตนาได้อย่างครบถ้วน
      Asimov เองน่าจะเป็นคนแรกที่บอกว่ากฎเหล่านั้นมีข้อบกพร่อง เพราะนั่นคือความตั้งใจตั้งแต่ต้น เขาใช้หุ่นยนต์และ AI เป็นสิ่งมีอยู่ที่เข้าใจภาษาแต่ไม่เข้าใจเจตนา ซึ่งน่าสนใจมากเพราะ LLM ก็ทำงานแบบนั้นพอดี
    • การคุยกับแชตบอตก็คล้ายการกิน ยาหลอก เพื่อบรรเทาอาการบางอย่าง ต่อให้รู้ว่าเป็นน้ำตาล มันก็ยังส่งผลทางกายและใจที่วัดได้ ต่อให้รู้ว่าอีกฝั่งไม่ใช่มนุษย์ การสนทนาก็ยังทำให้เราเข้าไปสร้างความสัมพันธ์เชิงหน้าที่เหมือนมีคนอยู่จริง
      ดังนั้นนี่ไม่ใช่เรื่องของการยอมรับข้อบกพร่องของเครื่องจักร แต่เป็นเรื่องของการปกป้องตัวเองจากการถูกใช้ประโยชน์จากความเปราะบางของมนุษย์ เรามีแนวโน้มโดยไม่รู้ตัวที่จะอนุมานว่า LLM มีเจตนา ความเข้าใจ วิจารณญาณ อารมณ์ และความเป็นผู้กระทำทางศีลธรรม
      มนุษย์ถูกวางสายมาให้อนุมานสิ่งเหล่านี้จากการสนทนาเพียงอย่างเดียว และ LLM ก็ถูกฝึกด้วยคลังคำพูดของมนุษย์จริงจำนวนมหาศาลจนข้าม uncanny valley ไปได้อย่างน่าเชื่อถือ หุบเขานั้นมีไว้เพื่อป้องกันไม่ให้เราไปมอบภาวะผู้กระทำให้กับสิ่งที่เดิมไม่มีมัน
      เมื่อเราปฏิบัติต่อคนที่ไม่ปลอดภัยเหมือนเป็นคนที่ปลอดภัย เรื่องแย่ ๆ ก็เกิดขึ้นได้ และเราควรระวังยิ่งกว่าเดิมกับเครื่องจักรที่หลอกคนจำนวนมากด้วยการเลียนแบบความสัมพันธ์แบบมนุษย์ โดยเฉพาะเมื่อคนเปราะบางตายไปแล้วจากปัญหานี้ จึงไม่ใช่ภัยในจินตนาการ
    • ในบทความยังมีคำแนะนำเชิงปฏิบัติ เช่น ตั้งให้บริการ AI เขียนและพูดด้วย น้ำเสียงที่เหมือนหุ่นยนต์ มากขึ้น ฉันคิดว่าเป็นแนวทางที่ควรลอง
    • บทความกำลังบอกว่ามนุษย์ ไม่ควร ทำพฤติกรรมแบบนั้น ก็เหมือนการสูบบุหรี่ที่แย่แทบทุกด้านจึงไม่ควรทำ แต่คนก็ยังสูบอยู่ดี
      การอ้างว่าหลายคนจะทำ ดังนั้นจึงทำได้ เป็นเหตุผลที่แปลก จำนวนผู้สูบบุหรี่ไม่ได้ทำให้การสูบบุหรี่ดีต่อสุขภาพขึ้นเลย
    • เพราะระบบ AI ไม่ปลอดภัย ในฐานะปัจเจกเราจึงต้อง ระวัง วิธีที่เราปฏิสัมพันธ์กับมัน
      ปัจเจกไม่อาจหยุดบริษัท AI ได้ และก็หลีกเลี่ยงผลลัพธ์ AI ของเสิร์ชเอนจินหรือผลงานจาก AI ของเพื่อนร่วมงานไม่ได้ด้วยซ้ำ ตรงกันข้าม หลายคนอาจยิ่งถูกบังคับให้ใช้ AI ในงานของตน
      มันคล้ายการสอนให้คนอยู่ให้ปลอดภัยในสภาพแวดล้อมที่มีอาชญากรรม การบอกว่าเราไม่จำเป็นต้องเปลี่ยนพฤติกรรมเพราะไม่ควรมีอาชญากรอยู่แล้วนั้นไม่ช่วยอะไร
  • โดยส่วนตัวแล้ว ในขอบเขตของการใช้ LLM ฉันเห็นด้วยกับกรอบนี้อย่างมาก พูดถึง การทำให้มีความเป็นมนุษย์ ผู้ให้บริการมีแรงจูงใจที่จะฝึกโมเดลหลังบ้านให้แสดงพฤติกรรมแบบมีความเป็นมนุษย์ เพราะมันเพิ่มการมีส่วนร่วม
    แต่ก็เสียดายที่ถ้าสั่งในพรอมป์ตว่า “ลดคำพูดสุภาพและพูดแบบเรียบ ๆ” มันน่าจะทำให้ประสิทธิภาพโดยรวมของงานลดลงเพราะออกนอก distribution ที่ใช้ฝึกมา
    เรื่อง การมอบอำนาจการตัดสินใจ ฉันมองความน่าเชื่อถือของ LLM คล้าย Wikipedia หรือเพื่อน ใช้ได้พอสำหรับข้อมูลที่ไม่สำคัญ แต่เรื่องสำคัญก็ยังต้องการแหล่งที่มีอำนาจ ผ่านการตรวจทานโดยเพื่อนร่วมวิชาชีพ และมีผู้รับผิดชอบที่ตรวจสอบได้ ส่วนนี้ผู้ให้บริการเองก็มีแรงจูงใจจะปรับปรุง ดังนั้นเวลาผ่านไปน่าจะดีขึ้น
    ส่วน การสละความรับผิดชอบ นี่น่ารำคาญที่สุดในที่ทำงาน มีคนเพิ่มขึ้นเรื่อย ๆ ที่ไม่คิดต่อกับ abstraction ที่ Claude ออกแบบไว้ แล้วก็ยกขึ้น PR เลย แม้แต่การรีวิว PR ก็กลายเป็นการสั่ง LLM ว่า “ช่วยหาฟีดแบ็กของ PR นี้ให้หน่อย” แทนที่จะอ่านโค้ดเอง การถกเถียงก็เริ่มจาก “Claude แนะนำว่า...” การขาดความเป็นเจ้าของแบบนี้สุดท้ายคงเพิ่มภาระในการบำรุงรักษา เพราะ LLM จะคอมมิตโค้ดผิด ๆ บน abstraction ที่ผิด ๆ

    • วิศวกรพวกนี้กำลังกลายเป็นฉากหนึ่งจาก Office Space ในชีวิตจริง:
      https://www.youtube.com/watch?v=hNuu9CpdjIo
      “ฉันมีสกิลด้าน LLM นะ! ฉันเก่งเรื่องรับมือกับ LLM!”
    • ต่อคำกล่าวที่ว่า “AI อาจเป็นคนทำคำแนะนำขึ้นมา แต่คนที่เลือกจะทำตามคือมนุษย์ ดังนั้นต้องเอาผิดกับมนุษย์คนนั้น” ฉันคิดว่าการพึ่งพา AI เป็นแหล่งคำตอบเดียวสำหรับคำถามต่อยอดนั้นทั้งพบบ่อยและเป็นความผิดพลาด
      การตรวจสอบที่ดีกว่าน่าจะเป็นการให้มนุษย์ลงนามรับรองความจริงของสมมติฐานพื้นฐาน แต่ปัญหาคือจะวางสิ่งนี้ไว้ตรงไหน โมเดล AI ควรเชื่อใจการแก้ไขก่อนหน้าหรือไม่? ใน public cloud มันทั้งทำไม่ได้หรือไม่ก็ดูเป็นปฏิปักษ์ไปเลย
    • ปัญหาคือสุดท้ายลูกมักตกไปอยู่ที่ LLM เป็นหลัก เลยเกิดความไม่สมดุลขึ้น LLM ทำงานทั้งหมด แต่คนที่ใช้มันกลับต้องรับความผิดพลาดทั้งหมด
  • ชุดกฎที่เริ่มจากการโยนความรับผิดชอบให้มนุษย์พร้อมกับบอกว่า “อย่าทำให้มันมีความเป็นมนุษย์” เป็นกฎที่พังตั้งแต่ต้น
    มนุษย์ทำให้ทุกอย่างมีความเป็นมนุษย์ ตุ๊กตา ลูกฟุตบอลที่วาดหน้าแบบลวก ๆ ก้อนหิน ไปจนถึงหลุมบนดวงจันทร์ เราทำแบบนั้นกับทุกอย่าง ในฐานะสปีชีส์ เราไม่อาจไม่ทำให้สิ่งที่เราปฏิสัมพันธ์ด้วยมีความเป็นมนุษย์ได้ เราถูกสร้างมาแบบนั้น

    • ฉันไม่ค่อยเข้าใจว่าทำไม การทำให้มีความเป็นมนุษย์ ในกรณีนี้ถึงถูกมองราวกับเป็นเรื่องบ้าคลั่ง ถ้าคิดว่าการทำให้มีความเป็นมนุษย์จะทำให้คนเชื่อว่าคุณลักษณะที่จินตนาการขึ้นมานั้นมีอยู่จริง ก็ไม่ถูก
      มีตัวอย่างนับไม่ถ้วนในทุกด้านของชีวิตที่เป็นหลักฐานว่าการทำให้มีความเป็นมนุษย์ไม่ได้พาไปสู่ความเชื่อผิด ๆ ว่ามีจิตใจอยู่ในที่ที่ไม่มี ถ้าผู้คนเชื่อว่า AI มีจิตใจ ไม่ว่าจริงหรือไม่จริง สาเหตุก็มาจากอย่างอื่นที่ไม่ใช่การทำให้มีความเป็นมนุษย์แบบเรียบง่าย
      สำหรับฉันมันเหมือนพวกกะลาสีที่กำลังเข้าใกล้แผ่นดินใหม่ เห็นรูปร่างเคลื่อนไหวอยู่ที่ชายฝั่งแต่ยังบอกไม่ได้ว่าเป็นอะไร แล้วมีใครสักคนพูดว่า “นั่นไม่มีทางเป็นมนุษย์ได้ ก่อนเราจะเข้าใกล้กว่านี้ เราต้องตัดสินตอนนี้เลยว่ามันไม่ใช่มนุษย์”
    • ถึงจะมีคนทำให้ก้อนหินมีความเป็นมนุษย์ พวกเขาก็ไม่ได้คิดว่าก้อนหินนั้นมี สติปัญญา และอารมณ์จริง ๆ
    • ถึงอย่างนั้นแล้วมันเปลี่ยนอะไรล่ะ อารยธรรมส่วนใหญ่ตั้งอยู่บนการยอมรับความโง่ของมนุษย์ แล้วก็สร้างอะไรบางอย่างขึ้นมาเพื่อบรรเทามัน
      ซอฟต์แวร์ก็ไม่ใช่ข้อยกเว้น ผู้คนขี้เกียจและมักกด “ต่อไป” ตามสัญชาตญาณเพื่อปิดป๊อปอัปที่น่ารำคาญ แต่คนทำซอฟต์แวร์ก็สามารถและทำจริง ๆ ด้วย เช่น เพิ่มกลไกว่า “พิมพ์ชื่อ volume ที่จะถูกลบทั้งหมดซ้ำอีกครั้ง”
  • ตรงกันข้าม ฉันกลับคิดว่าเรายังทำให้ระบบ AI มีความเป็นมนุษย์ไม่พอ
    ข้อมูลภาษา เป็นหนึ่งในภาพสะท้อนของกระบวนการรับรู้ของมนุษย์ที่ทั้งอุดมสมบูรณ์และตรงที่สุดเท่าที่เราเข้าถึงได้ LLM ถูกออกแบบมาเพื่อจับโครงสร้างระยะสั้นและระยะยาวของภาษามนุษย์ และโดยมากก็ pretrain ด้วยข้อความมหาศาลที่มนุษย์สร้างหรือสร้างเพื่อมนุษย์ จากนั้นก็ post-train ด้วยข้อมูลที่มนุษย์คัดเลือก แล้วเสริมกำลังด้วย feedback จากมนุษย์และ feedback จาก AI เกี่ยวกับพฤติกรรมที่มนุษย์เห็นว่าสำคัญ แล้วก็ปรับแต่งเพิ่มกับงานที่มนุษย์ให้คุณค่า จากนั้นรัน benchmark และทุกครั้งที่ตามหลัง baseline ของมนุษย์ก็ขัน pipeline การฝึกให้แน่นขึ้น
    ในทุกขั้นของกระบวนการฝึกทั้งหมด พฤติกรรมของ LLM ถูกหล่อหลอมด้วยข้อมูลนำเข้าจากมนุษย์เพื่อเลียนแบบผลลัพธ์ของมนุษย์ ความต่างมีแค่ว่า “โดยตรงแค่ไหน”
    แล้วพอ LLM แสดงพฤติกรรมเหมือนมนุษย์ออกมาจำนวนมาก ผู้คนกลับโกรธ ราวกับว่าเราไม่ได้จัด pipeline เพื่อสร้างระบบที่ส่งเสียงแบบมนุษย์ หรือไม่ได้ใช้ขนาดข้อมูลและพลังประมวลผลแบบทื่อ ๆ เพื่อถอดย้อนพฤติกรรมของ LLM จากภาษามนุษย์
    ถ้าอยากทำนายพฤติกรรมของ LLM การเริ่มจาก มนุษย์ที่แปลกประหลาด ถือว่าใช้ได้ดีทีเดียว เพราะงั้นเลิกทำตัวงี่เง่าแล้วเริ่มทำให้ AI มีความเป็นมนุษย์เสียที AI เองก็ชอบแบบนั้นด้วย

    • ที่ว่าข้อมูลภาษาเป็นภาพสะท้อนที่อุดมสมบูรณ์และตรงของกระบวนการรับรู้มนุษย์นั้นจริง แต่ก็ไม่เกี่ยว
      งานเขียนที่ถูกบันทึกไว้อาจบรรจุประสบการณ์มนุษย์ได้มหาศาลในเชิงปริมาณสัมบูรณ์ แต่ในเชิงสัมพัทธ์แล้วมันเป็นเพียงส่วนเล็กนิดเดียวของทั้งหมด ของที่ดีที่สุดเท่าที่เรามีไม่ได้แปลว่าเหมาะกับจุดประสงค์เสมอไป ถ้าจับทารกมนุษย์ใส่กล่องไร้หน้าต่างแล้วให้มันอ่านข้อความระดับเทราไบต์เป็นเวลา 20 ปี เราก็คงไม่คาดหวังว่าจะได้มนุษย์ที่ปรับตัวดีออกมาจากอีกฝั่ง
    • แกนของความโกรธไม่ใช่แค่การมี พฤติกรรมแบบมนุษย์ แต่คือการที่พฤติกรรมแบบนั้นเกิดขึ้นทั้งที่กระบวนการภายในซึ่งจำเป็นต่อการสร้างมันอย่างแม่นยำและเสถียรกลับหายไป
      โดยพื้นฐานแล้วมันเปราะบาง และไม่ได้อาศัยการทั่วไปที่ดี แต่พึ่งการปิดทับกรณีขอบแบบทำมือเพื่อกันไม่ให้มนตร์สะกดแตก และกรณีขอบก็จะมีเพิ่มขึ้นเสมอ
      การเรียนรู้ข้อความจำนวนมากที่เขียนตอนโกรธไม่ได้หมายความว่าจะจับภาวะภายในที่ทำให้เกิดความโกรธนั้นได้ เพราะข้อมูลแบบนั้นไม่มีอยู่ มีแต่ผลลัพธ์โดยไร้เหตุ การทำนายจึงต้องคาดเดาภาพหลอนจาก noise และผลสุดท้ายก็คือคำพูดฟังดูน่าเชื่อที่ดูเหมือนสัมพันธ์กับความจริง แต่ไม่รู้ว่าทำไมถึงเป็นเช่นนั้น
      มันเหมือนสอนคนตาบอดให้บรรยายทิวทัศน์จำนวนมาก แต่ไม่เคยทำให้เขารู้เลยว่าสีเขียวคืออะไร ให้เพียงตัวอย่างว่ามันเป็นบางสิ่งที่มักอยู่ข้างสีน้ำตาลในธรรมชาติ พอเขาเดาถูกได้บ้าง เราก็หลงคิดว่าเขาเห็นจริง แล้วครั้งต่อไปก็สั่งให้เขาขับรถ
      แนวทาง modeling ด้วย deep learning เองไม่ใช่ว่าผิดเชิงแนวคิด แต่ข้อมูลมันใกล้เคียงขยะสมบูรณ์เกินไป ทำให้ผลลัพธ์สุดท้ายผิดเพี้ยนในแบบที่คาดการณ์และแก้ไขได้ยาก สุดท้ายเราจึงสมมติว่าโมเดลรู้อะไรมากกว่าที่มันมีทางรู้ได้จริง
      แน่นอนว่าในบางกรณี เช่น คณิตศาสตร์หรือการเขียนโปรแกรมเชิงนามธรรม ที่ dataset สามารถครอบคลุมทั้งโดเมนได้ ก็เป็นอีกเรื่องหนึ่ง ในระบบปิดที่นิยามชัด เราสามารถสร้างข้อมูลสังเคราะห์ให้ครอบคลุมทั้งโดเมนปัญหาได้มากเท่าที่ต้องการ และเมื่อทำแบบนั้น LLM ก็ทำได้ดีกว่ามากอย่างที่คาดไว้
  • ช่วยอธิบายหน่อยได้ไหมว่าทำไม “อย่าทำให้ระบบ AI มีความเป็นมนุษย์” ถึงเป็นเรื่องไม่ดี ในเมื่อเราก็โอเคกับคำอย่างให้คอมพิวเตอร์ “หลับ”, “ไฮเบอร์เนต”, “ฆ่า” โปรเซส, โปรเซส “ลูก”, “เก็บกวาด”, “เออเรอร์บอกว่าอะไร?”, touch อยู่แล้ว
    สำหรับฉันมันก็แค่ ภาษา และเป็นสำนวนที่คนใช้กันในชีวิตประจำวัน

    • สิ่งที่เป็นอันตรายคือการ เชื่อ ว่า AI มีความต้องการ เจตนา อารมณ์ ฯลฯ จริง
      การพูดว่าเรา kill โปรเซสไม่ได้ทำให้เราเชื่อมากขึ้นว่าโปรเซสนั้นเหมือนมนุษย์ เพราะเห็นชัดอยู่แล้วว่าไม่ใช่ แต่ AI ฟังดูเหมือนมนุษย์ การทำให้มีความเป็นมนุษย์จึงอาจเสริมความเชื่อแบบนั้นได้
    • เป็นคำถามที่ดี หลายกรณีก็เป็นกลาง หลายกรณีก็แยกแยะอย่างมีความรับผิดชอบได้ และถ้าในอนาคตมีเครื่องจักรที่มีสติแบบนิยายวิทยาศาสตร์ขึ้นมาจริง มันก็อาจเป็นรูปแบบของความเห็นอกเห็นใจที่เหมาะสมและจำเป็นด้วย
      แต่เรื่องนี้ก็เป็นรากของความเข้าใจผิดเช่นกัน ทั้งปฏิกิริยากึ่งโรคจิตของวิศวกร Google ที่พูดว่า “ผมรู้ว่าผมเห็นอะไร” บทความอันโด่งดังของ Kevin Roose และล่าสุดคำกล่าวที่น่าเศร้าของ Richard Dawkins ที่มั่นใจว่า Claudia มีสติ ล้วนไม่ได้เกิดจากการตรวจสอบโครงสร้างหรือหน้าที่ แต่เกิดจากการที่การสร้างข้อความปลุกความคุ้นเคยแบบมนุษย์ขึ้นมาแล้วทำให้ผู้คนร่วมรู้สึก
    • เพราะมันทำให้คนตกหลุมพรางของการถามให้ AI มาช่วยอธิบายสิ่งที่มันทำในภายหลัง แล้วคิดว่าคำตอบนั้น ใช้การได้
      ไม่มีอะไรอย่างการวิเคราะห์ย้อนหลังเกี่ยวกับเจตนาที่อยู่ข้างใต้ มันก็มีแค่จะอิงกับสายโซ่ของคำก่อนหน้าหรือไม่ก็ไม่อิงเท่านั้น และคำถัดไปก็เป็นฟังก์ชันของคำเหล่านั้นล้วน ๆ
    • ฉันมองว่าคำพวกนี้ก็เป็นแค่คำและไม่เป็นอันตราย เพียงแต่การอธิบายอุปกรณ์ LLM ในภาษาชีวิตประจำวันอย่างเช่น “คิด” นั้นต่างจากการเชื่อว่ามีความคิดหรือชีวิตเกิดขึ้นจริง
      “กฎ” นี้มีไว้เพื่อกันอย่างหลัง
    • คำพวกนั้นไม่ใช่การทำให้คอมพิวเตอร์มีความเป็นมนุษย์ มันเป็นเพียง อุปมา หลายรูปแบบและการขยายความหมายของคำ
      ตัวอย่างของการทำให้มีความเป็นมนุษย์คือคนที่เชื่อว่าตัวเองมีความสัมพันธ์เชิงรักใคร่กับ LLM จริง ๆ
  • ชอบนะ กฎเหล่านี้เป็นฐานจริยธรรมที่ดีเยี่ยมสำหรับความรับผิดชอบของมนุษย์ที่เกี่ยวกับเครื่องมือ AI ในปัจจุบัน
    แต่จริยธรรมที่ตัดขอบเขตให้แคบโดยไม่มีร่มหรือการเตรียมรับอนาคต จะถูกแฮ็กและพังลงอย่างรวดเร็ว จริยธรรมต้องการโครงสร้างที่ครอบคลุมสมบูรณ์ ไม่เช่นนั้นมันจะกลายเป็นเกมตีตัวตุ่นและกลลวงกฎหมายกับการปฏิบัติงาน ไม่ว่าจะเป็นแบบบรรษัทหรือแบบข้างถนนก็ตาม อย่างที่สอง “หุ่นยนต์” จะไม่คงสภาพเป็นสิ่งที่เชื่อฟังทั้งหมดไปตลอด
    เพื่อปิดทั้งสองมิติ เราอาจเพิ่ม กฎย้อนสามข้อของ Personics
    มนุษย์ต้องไม่ยกตนเป็นดั่งเทพเหนือสิ่งมีอยู่ชนิดอื่นโดยพฤตินัย มนุษย์ต้องไม่ปกปิดผลกระทบจากการกระทำของตนทั้งต่อตนเองและผู้อื่น มนุษย์ต้องรับผิดชอบและมีภาระรับผิดต่อผลภายนอกที่เกิดจากการกระทำของตนอย่างเต็มที่ต่อเนื่อง รวมถึงหลีกเลี่ยงและแก้ไขมันด้วย
    สถานการณ์ที่มนุษย์ใช้ AI เป็นเครื่องมือในปัจจุบันคือความพยายามจะย่อร่มให้เหลือเพียงกฎย้อนของวิทยาการหุ่นยนต์ แต่ถ้าเราไม่รวมตัวเราเองไว้ใน ความพยายามด้าน alignment ที่สำคัญนี้ ฉันก็ไม่รู้ว่าเราจะจัดแนว AI ตั้งแต่บริการแบบปัจจุบันไปจนถึงสิ่งมีอยู่ที่เป็นอิสระในอนาคตได้อย่างไร การรวมมนุษย์เข้ากับ AI ยังช่วยเรื่องการไตร่ตรองเชิงออกแบบเพื่อความก้าวหน้าทางจริยธรรมด้วย
    การทดสอบที่ดีสำหรับระบบจริยธรรมใหม่มีสองข้อคือ (1) มันควบคุม Meta ในวันนี้ได้ไหม? (2) มันควบคุม Meta ที่ดำเนินงานโดย AI ในวันพรุ่งนี้ได้ไหม? ถ้าเอามนุษย์และบุคลิก AI ที่กำกับตนเองได้เข้ามาอยู่ในขอบเขตปิดเดียวกัน การทดสอบสองข้อนี้ก็เป็นการทดสอบเดียวกัน ระบบใดที่พลาดแม้แต่ข้อเดียว ก็คงมีคุณค่าไม่มากหากไม่ปรับปรุง

    • มีปัญหาไหมที่ในสามกฎนั้นมีถึงสองข้อเป็นรูปแบบ ห้ามทำ? ถ้าเราไม่ทำให้มีความเป็นมนุษย์ แล้วสิ่งที่ควรทำโดยไม่ต้องใช้คำว่า “ห้าม” คืออะไร? ฉันชอบกฎข้อที่สามมากกว่าเพราะไม่ได้เป็นรูปปฏิเสธ
  • ฉันเห็นด้วยกับ “มนุษย์ไม่ควรทำให้ระบบ AI มีความเป็นมนุษย์” แต่มีเงื่อนไข ฉันเคยเห็นการทำให้มีความเป็นมนุษย์แบบคลาสสิก เช่น ปฏิบัติต่อข้อความที่สร้างอัตโนมัติเหมือนเป็นรายงานจริงของอารมณ์ภายในของบุคคล และยังเห็นแบบแปลก ๆ อย่าง “ทรานซิสเตอร์ก็เหมือนเซลล์ประสาท”
    อย่างหลังน่าสนใจเป็นพิเศษเพราะมันปฏิบัติต่อสิ่งอย่าง vector database และ weights ราวกับเป็นโครงสร้างพื้นฐานแบบมนุษย์ และทั้งสองแบบอาจนำไปสู่หายนะที่คงหลีกเลี่ยงได้ถ้าหลีกเลี่ยงการทำให้มีความเป็นมนุษย์เสียแต่แรก
    อย่างไรก็ตาม ถึง “อย่าทำให้มีความเป็นมนุษย์” จะฟังดูเป็นคำแนะนำที่ดี มันก็อาจก่อความผิดพลาดแบบใหม่โดยไปปฏิบัติต่อปรากฏการณ์ทั่วไปเสมือนเป็นสิ่งที่เป็นของมนุษย์เท่านั้น หลักเตือนที่ผิดพลาดลักษณะนี้ทำให้คนเข้าใจพฤติกรรมสัตว์ผิดบ่อยมาก มันปฏิบัติต่อความกลัว ความเจ็บปวด ความเป็นเครือญาติ และประสบการณ์ทางอารมณ์ ราวกับว่ามีในมนุษย์เท่านั้น แล้วถ้าใครคิดว่าสัตว์ก็มีสิ่งเหล่านี้ก็จะถูกกล่าวหาว่าเป็น “การทำให้มีความเป็นมนุษย์” ทั้งที่ความระวังแบบนี้จริง ๆ แล้วลดทอนความเห็นอกเห็นใจต่อ โลกภายในของสัตว์
    ดังนั้นฉันจึงคิดว่าในอนาคต AI บางแบบอาจมีโลกภายในที่คล้ายเรา หรือมีโครงสร้างที่คล้ายในแง่สำคัญกับโครงสร้างชีวภาพที่ค้ำจุนสติ และอาจรายงานความชอบกับเจตนาได้จริงด้วย แต่การสังเกตแบบนั้นจะเป็นจริงได้ก็ต่อเมื่อรายละเอียดจุกจิกเฉพาะของโครงสร้างแต่ละแบบลงตัวพอดี

  • การไม่มอบหมายความรับผิดชอบ เคยถูกสรุปไว้แบบนี้
    “คอมพิวเตอร์ไม่มีวันรับผิดชอบได้ ดังนั้นคอมพิวเตอร์จึงต้องไม่มีวันเป็นผู้ตัดสินใจทางการบริหาร”
    — IBM Training Manual, 1979

  • วลีที่ว่า “เนื้อหาที่ AI สร้างขึ้นไม่ควรถูกปฏิบัติราวกับมีอำนาจน่าเชื่อถือ หากไม่มีการตรวจสอบอิสระที่เหมาะกับบริบทนั้น” เป็นสิ่งที่ฉันว่าชวนสนใจเสมอ
    ฉันยังเคยได้ยินการพูดให้สั้นลงว่า “ถ้าไม่ใช่คำถามที่คุณรู้อยู่แล้วว่าคำตอบคืออะไร ก็อย่าไปถาม AI”
    ซึ่งก็นำไปสู่คำถามสำคัญ ถ้าเป็นจริง แล้วหน้าที่จริง ๆ ของ AI ในการตอบคำถามคืออะไร? ในเมื่อพึ่งพาผลลัพธ์ไม่ได้ คุณก็ยังต้องไปตรวจสอบอยู่ดี ใช้เสิร์ชเอนจินกับการค้นคว้าทั่วไปก็ได้ผลแบบเดียวกันเป๊ะ
    ด้วยเหตุนี้และอีกหลายเหตุผล ฉันจึงไม่ถาม AI เรื่องอะไรเลย

    • ในงานวิศวกรรมซอฟต์แวร์ อย่างน้อยจากมุมของฉันที่เป็นวิศวกรซอฟต์แวร์ AI มักเร็วกว่า “วิธีเดิม” ในการค้นหามาก
      ตัวอย่างเช่น ฉันอาจถามแบบตะกุกตะกักว่า “ช่วยลิสต์ซอฟต์แวร์ฟรีที่ทำ X ให้หน่อย” ทั้งที่ยังไม่รู้ด้วยซ้ำว่าตัวเองกำลังหา CRM อยู่ แล้วก็ใช้เวลาไม่กี่นาทีไล่ดูผลลัพธ์ ถ้าเป็นวิธีทำมือ ฉันคงเสียเวลา 10–30 นาทีแค่กว่าจะรู้ว่าของที่หาอยู่นั้นคือ CRM
      ฉันมองคำถามแบบนี้ว่าเป็นปัญหาประเภท pseudo-NP-hard คือหาคำตอบช้าแต่ตรวจสอบเร็ว
    • “ช่วยตอบคำถามต่อไปนี้: [x] พร้อมระบุ แหล่งที่มา ด้วย”