18 คะแนน โดย GN⁺ 2025-07-08 | 4 ความคิดเห็น | แชร์ทาง WhatsApp
  • บทความวิจารณ์ท่าทีที่ทำให้ LLM มีลักษณะเป็นมนุษย์ โดยชี้ว่า LLM ท้ายที่สุดแล้วคือ 'ชุดของการคูณเมทริกซ์และฟังก์ชันไม่เชิงเส้น'
  • ลำดับภาษาที่ LLM สร้างขึ้นคือเส้นทางเชิงฟังก์ชันที่ซับซ้อน ซึ่งไม่มี 'เจตนา' หรือ 'จริยธรรม' เข้ามาเกี่ยวข้องแบบมนุษย์
  • ประเด็นด้านความปลอดภัยของ LLM (Alignment) มีแก่นสำคัญอยู่ที่ การวัดเชิงคณิตศาสตร์และการจำกัดความน่าจะเป็นของผลลัพธ์ที่ไม่พึงประสงค์
  • การนำแนวคิดแบบมนุษย์เป็นศูนย์กลางอย่าง จริยธรรม·จิตสำนึก มาใช้กับ LLM ทำให้การถกเถียงสับสน และยิ่งทำให้การนิยามปัญหาและวิธีแก้จริงๆ พร่าเลือน
  • จิตสำนึกของมนุษย์กับ LLM นั้นแตกต่างกันโดยพื้นฐาน และสิ่งสำคัญคือความเข้าใจเชิงเทคนิคกับการรับมือการเปลี่ยนแปลงทางสังคม

ความจำเป็นของมุมมองที่ไม่มอง LLM เหมือนมนุษย์

ปัญหาในแนวคิดการทำให้ LLM มีลักษณะเป็นมนุษย์

  • เมื่อมีการพูดถึง alignment (การจัดแนว) หรือความปลอดภัยของ AI ในการถกเถียงเกี่ยวกับ AI และ LLM (โมเดลภาษาขนาดใหญ่) ผู้เชี่ยวชาญจำนวนมากรู้สึกสับสนกับแนวโน้มที่ มอบคุณลักษณะของมนุษย์ (เช่น จิตสำนึกหรือเจตนา) ให้กับ LLM
  • LLM โดยแก่นแท้แล้วสามารถมองได้ว่าเป็น การผสมกันของ MatMul (การคูณเมทริกซ์) และฟังก์ชันไม่เชิงเส้น

ธรรมชาติทางโครงสร้างของ LLM

  • LLM คือฟังก์ชันที่แมปคำแต่ละคำ (โทเคนอินพุต) ไปยังปริภูมิเวกเตอร์ แล้ว คำนวณการกระจายความน่าจะเป็นของโทเคนถัดไป โดยอาศัยเส้นทางก่อนหน้า เพื่อ สร้างผลลัพธ์แบบลำดับต่อเนื่อง
  • กระบวนการนี้คล้ายกับ 'เกม Snake ในปริภูมิหลายมิติ' และเส้นทางการสร้างก็ซับซ้อนราวกับ strange attractor ของระบบพลวัต
  • LLM เรียนรู้จาก ข้อความจำนวนมหาศาลที่มนุษย์เขียน + คอร์ปัสเฉพาะทาง + ข้อมูลที่สร้างและตรวจสอบได้โดยอัตโนมัติ จนได้ การแมปที่เลียนแบบโครงสร้างของภาษามนุษย์

เส้นทางที่ควรหลีกเลี่ยง (ลำดับภาษา) และปัญหา Alignment กับความปลอดภัย

  • ลำดับภาษาบางส่วน ไม่เหมาะสมในเชิงสังคมและจริยธรรม จึง ไม่ต้องการให้ถูกสร้างขึ้น
  • แต่เนื่องจากการให้ นิยามทางคณิตศาสตร์ที่เคร่งครัด ว่าเส้นทางใดไม่พึงประสงค์นั้นทำได้ยาก จึงต้อง ปรับแจกแจง (nudge) ด้วยตัวอย่างและตัวอย่างโต้แย้ง
  • คำว่า "Alignment" และ "ความปลอดภัย" ของ LLM หมายถึงปัญหาของการ วัดเชิงคณิตศาสตร์และกำหนดขอบเขตของความน่าจะเป็น ที่ลำดับไม่พึงประสงค์จะถูกสร้างขึ้น
  • แต่ในทางปฏิบัติ ไม่สามารถนิยามเกณฑ์ของลำดับ 'ไม่พึงประสงค์' ให้ชัดเจนทางคณิตศาสตร์ได้ ทำได้เพียงผ่านตัวอย่างเท่านั้น จึงมี ข้อจำกัดในทางปฏิบัติ
  • แม้จะคำนวณความน่าจะเป็นที่ลำดับหนึ่งๆ จะออกมาจาก LLM เฉพาะตัวได้ แต่ไม่สามารถนำความน่าจะเป็นทั้งหมดมาบวกหรืออินทิเกรตแล้วสรุปว่า 'โมเดลนี้จะสร้างลำดับไม่พึงประสงค์ทุกๆ N ครั้ง' ได้

ประโยชน์ใช้สอยจริงของ LLM

  • LLM ทำให้ปัญหาจำนวนมากของ การประมวลผลภาษาธรรมชาติ (NLP) สามารถแก้ได้ด้วยอัลกอริทึม
  • เช่น สรุปเอกสารเป็นภาษาอังกฤษอย่างเป็นธรรมชาติ, จัดระเบียบข้อมูลเป็นโครงสร้าง JSON, สร้างนิทานและภาพประกอบ ซึ่งเป็นสิ่งที่เมื่อ 5~6 ปีก่อนยังทำไม่ได้ แต่ตอนนี้ทำได้อย่างเป็นธรรมชาติ
  • จาก เส้นโค้งการพัฒนาที่รวดเร็ว คาดว่าในอนาคตจะสามารถ แก้ปัญหาที่เคยเป็นไปไม่ได้ได้มากขึ้นอีก

ข้อจำกัดของมุมมองที่มองเหมือนมนุษย์

  • ผู้เขียน คัดค้านมุมมองที่มอบ 'จิตสำนึก', 'จริยธรรม', 'คุณค่า', 'เป้าหมาย' ให้กับ LLM
  • LLM ท้ายที่สุดแล้ว เป็นเพียง 'สมการเวียนเกิดซ้ำ' ที่จะสร้างผลลัพธ์ได้ก็ต่อเมื่อมีอินพุตเข้ามาเท่านั้น
  • การถกเถียงว่า AI จะ 'ตื่นรู้' หรือ 'มีจุดมุ่งหมายของตัวเอง' เป็น ความผิดพลาดระดับเดียวกับการอ้างว่าแบบจำลองสภาพอากาศมีอารมณ์ความรู้สึก
  • ในการอภิปรายเรื่อง AI คำแบบมนุษย์เป็นศูนย์กลางอย่าง 'การกระทำ', 'ข้อจำกัดทางจริยธรรม', 'การไล่ตามเป้าหมาย' ทำให้แก่นของปัญหาพร่ามัว
  • นี่คือ ความผิดพลาดทางการรับรู้ที่คล้ายกับที่มนุษย์ในอดีตทำให้ปรากฏการณ์ธรรมชาติมีลักษณะเป็นมนุษย์ เช่น มองว่าเป็น 'ความโกรธของพระเจ้า' หรือ 'ปีศาจร้าย'

ทิศทางที่ถูกต้องของการถกเถียงเรื่อง Alignment

  • LLM เป็นเพียงฟังก์ชันสร้างลำดับ และสามารถเปลี่ยนความน่าจะเป็นของผลลัพธ์ได้ด้วยการปรับ input prefix
  • สำหรับลำดับผลลัพธ์ที่ไม่พึงประสงค์ทั้งหมด การค้นหา prefix ที่ทำให้ความน่าจะเป็นสูงสุดก็เป็นแนวทางเชิงคณิตศาสตร์ได้เช่นกัน
  • แนวทางที่อิงสมการอย่างชัดเจนเช่นนี้ กลับช่วยให้นิยามปัญหาและวิธีแก้ชัดเจนขึ้น

ทำไมการทำให้เป็นมนุษย์จึงเกิดขึ้นบ่อยในวงการ AI

  • ผู้นำในอุตสาหกรรม AI จำนวนไม่น้อยมีแนวโน้มเข้าสู่วงการนี้ด้วย เป้าหมายชีวิตที่ผูกกับความเป็นไปได้ของ AGI
  • ด้วยเหตุนี้ ความเชื่อเรื่องการสร้างสติปัญญาระดับมนุษย์หรือสิ่งมีอยู่ระดับเทพ จึงแทรกเข้ามาในการอภิปรายเชิงเทคนิคได้ง่าย
  • ผู้เขียน ยอมรับเองว่าข้อเสนอให้หลุดพ้นจากมุมมองแบบทำให้เป็นมนุษย์นั้นยากจะได้รับการยอมรับ

ความแตกต่างพื้นฐานระหว่างจิตสำนึกมนุษย์กับ LLM

  • มนุษย์คือสิ่งมีชีวิตที่ มีหลายชั้นและซับซ้อนโดยเนื้อแท้ ซึ่งวิวัฒน์ผ่านกระบวนการที่ยังไม่เข้าใจทั้งหมด ไม่ว่าจะเป็นการคัดเลือกโดยธรรมชาตินับร้อยล้านปี โครงสร้างประสาทที่ซับซ้อน ฮอร์โมน อินพุตทางประสาทสัมผัสหลายมิติ และการควบคุมพลังงาน
  • เป็นไปไม่ได้ที่จะคำนวณความน่าจะเป็นที่มนุษย์จะสร้างลำดับหนึ่งๆ ออกมา
  • LLM แตกต่างจากการคิดของมนุษย์อย่างสิ้นเชิง และแม้แต่การนิยามว่า 'ความน่าจะเป็นที่จะสร้างลำดับนี้' ก็ยังทำได้ยาก
  • การนำแนวคิดแบบมนุษย์อย่าง 'จริยธรรม' หรือ 'สัญชาตญาณการเอาตัวรอด' มาใช้กับ LLM นั้น ชวนให้รู้สึกแปลกไม่ต่างจากการถกเถียงเรื่องอารมณ์ของโปรแกรมจำลองเชิงตัวเลข

ปัญหาที่แท้จริงและทิศทางของการเปลี่ยนแปลง

  • คลาสเชิงฟังก์ชันที่ LLM สมัยใหม่มอบให้นั้นมีประโยชน์อย่างมาก และแม้จะไม่เข้าใกล้ AGI เลย ก็ยังสามารถก่อให้เกิดการเปลี่ยนแปลงใหญ่ในสังคมได้
  • แม้ LLM จะไม่ไปถึง AGI แต่เทคโนโลยีในปัจจุบันเพียงอย่างเดียวก็สามารถเปลี่ยนโลกได้มาก
    • อาจเกิดการเปลี่ยนแปลงทั้งสังคมในระดับเดียวกับการใช้ไฟฟ้าอย่างแพร่หลาย (Electrification)
  • ในช่วงหลายทศวรรษข้างหน้า ท่ามกลางความเปลี่ยนแปลงที่รวดเร็ว จำเป็นต้องมุ่งไปที่ปัญหาจริง (เช่น ความปลอดภัย การนำไปใช้)

4 ความคิดเห็น

 
mirea0 2025-07-08

แทนที่จะไปถกกันว่าเป็นการทำให้เหมือนมนุษย์หรือไม่..
ผมมองว่า ณ จุดที่มันสามารถเรียนรู้และให้เหตุผลได้ด้วยตัวเอง เราก็เลยช่วงที่ความปลอดภัยจะรับประกันได้ไปแล้ว (การเชื่อว่ามนุษย์อย่างคุณยังควบคุมทุกอย่างได้ทั้งหมดในจุดนี้ เป็นความหยิ่งผยองอย่างหนึ่ง)
ถ้ามองจากมุมของการเรียนรู้ กลับกัน การทำให้มันคิดแบบมนุษย์และถูกฝึกจากมุมมองของมนุษย์ อาจเป็นวิธีที่พอจะเพิ่มความปลอดภัยได้มากกว่าหรือเปล่า!?

 
cgl00 2025-07-11

ดูจากโครงสร้างของ LLM แล้ว น่าจะเป็นไปไม่ได้ที่จะรับประกันความปลอดภัยได้อย่างสมบูรณ์ครับ/ค่ะ ในความเห็นของผม/ฉัน ความไม่เสถียรของ LLM คงเป็นสิ่งที่หลีกเลี่ยงไม่ได้ และประเด็นสำคัญน่าจะอยู่ที่ว่าเราจะมอบอำนาจให้มันทำการกระทำทางกายภาพ เช่น เอเจนต์หรือรถขับเคลื่อนอัตโนมัติ อย่างไร

 
kimjoin2 2025-07-08

เหมือนกับการเอารถยนต์ไปเปรียบเทียบกับการวิ่งมาราธอนเลย..

 
GN⁺ 2025-07-08
ความคิดเห็นจาก Hacker News
  • ฉันเข้าใจในเชิงเทคนิคค่อนข้างดีว่า LLM ทำงานอย่างไร แต่ก็ไม่คิดว่าการเปรียบมันแบบมนุษย์จะไร้ความหมายไปเสียทีเดียว
    คำอย่าง “เครื่องสร้างคำถัดไปแบบความน่าจะเป็น” รู้สึกว่าเป็นนามธรรมระดับต่ำที่แทบไม่มีความหมาย เมื่อ LLM ตอบคำถามการสร้างแบบจำลองโลกที่ซับซ้อน หรือแต่งเรื่องอย่างสร้างสรรค์
    มันก็เหมือนการพูดถึง 0 กับ 1 หรือแรงดันของทรานซิสเตอร์ตอนคุยเรื่อง UI event API ซึ่งก็ถูกต้องทางเทคนิค แต่ไม่มีประโยชน์ต่อการเข้าใจระบบระดับสูง
    ถ้าจะพูดถึงปรากฏการณ์ระดับสูง ก็ต้องใช้การนามธรรมระดับสูงกว่า แต่เราก็ยังไม่ค่อยรู้ว่าภายในระดับลึกเกิดอะไรขึ้นกันแน่
    LLM เลียนแบบมนุษย์ได้ในระดับหนึ่ง (อย่างน้อยก็ในรูปแบบเอาต์พุต) ดังนั้นการเปรียบแบบมนุษย์จึงเป็นนามธรรมที่ใช้งานได้มากที่สุด และเป็นเหตุผลที่ผู้คนพูดถึงศักยภาพของ LLM กันแบบนั้นอย่างเป็นธรรมชาติ

    • คุณบอกว่าต้องใช้นามธรรมระดับสูงเพื่อเข้าใจปรากฏการณ์ระดับสูงของ LLM แต่ผมคิดว่าเรารู้อยู่แล้วว่าภายในมันทำงานอย่างไร
      การออกแบบเครือข่ายให้มีประสิทธิภาพและการเพิ่มสมรรถนะ ต่างพึ่งพาความเข้าใจการทำงานภายในอย่างมาก (มิติของเครือข่าย, การดึงฟีเจอร์, attention, attention head, caching, คุณลักษณะมิติสูง, การป้องกัน overfitting ฯลฯ)
      การเปรียบแบบมนุษย์จำเป็นก็แค่เวลาหนังสือวิทยาศาสตร์สำหรับคนทั่วไปต้องใช้คำศัพท์จำกัด ๆ เท่านั้น สำหรับคนทำงานจริงไม่ได้รู้สึกว่าเป็นสิ่งจำเป็น

    • ในทางกลับกัน ผมคิดว่าการเปรียบแบบมนุษย์นี่เองคือสาเหตุหลักที่ทำให้เรื่องเล่าเกี่ยวกับ LLM บิดเบือน
      ผู้คนพูดว่า LLM คิดและให้เหตุผล ทั้งที่จริงมันไม่ได้ทำแบบนั้น
      และภาพจำแบบนี้ก็ถูกบริษัทที่ขาย LLM จงใจส่งเสริมอย่างแข็งขัน
      สุดท้ายผมรู้สึกว่าสิ่งนี้ทำให้การถกเถียงเรื่องประโยชน์ใช้สอยและการประยุกต์ใช้ LLM พร่าเลือนไป

    • ทำให้นึกถึงตอนที่ Dawkins พูดถึง “มุมมองแบบมีเจตนา” ต่อยีนใน The Selfish Gene
      การอธิบายยีนเหมือนมันมีเจตนาเป็นการใช้คำที่ไม่ตรง แต่แทนที่จะต้องเขียนคำอธิบายละเอียดทุกครั้งว่า “สิ่งมีชีวิตที่มียีนนี้จะมีพฤติกรรมแบบนี้” การพูดยีนเหมือนเป็นตัวกระทำที่มีเป้าหมายก็เป็นคำย่อที่เข้าใจง่ายและสะดวก
      ถ้าเราเข้าใจนามธรรมระดับล่างแล้ว เวลาจะคุยถึงระดับที่สูงกว่า ก็ไม่จำเป็นต้องยึดติดอยู่กับระดับล่างเสมอไป

    • จากที่ผมใช้ language model มามากพอ สิ่งที่รู้สึกคือส่วนที่อันตรายที่สุดของการเปรียบแบบมนุษย์คือ UI แบบสนทนา
      ถ้าโฟกัสแค่ Q/A ทีละคู่ หรือลดและแก้ไขประวัติการสนทนาให้เหลือน้อยที่สุด ปัญหาในการใช้ LLM หลายอย่างจะลดลงมาก
      หลังโต้ตอบกันหลายข้อความแล้วค่อยกลับมาตรวจบทสนทนาหรือขอให้แก้ ‘hallucination’ ผมเจอว่าข้อมูลผิดจะถูกพูดซ้ำและยิ่งเสริมทิศทางที่ผิดให้การสนทนา
      เรื่องนี้เกิดกับงานเขียนโค้ดเหมือนกัน เห็นชัดว่าถ้าโค้ดผิด มันจะคอยปนเปื้อนบทสนทนาต่อไปเรื่อย ๆ

    • ผมคงไม่สามารถตื่นเต้นได้แบบ GP กับ OP เพราะจินตนาการภาพสถานะการทำงานภายในของ LLM ไม่ออกในหัว
      บางทีก็อิจฉาคนแบบนั้นอยู่เหมือนกัน
      อาจเป็นเพราะเคยทำข้อสอบคณิตพังบ่อย ๆ ก็ได้
      แทนที่จะเป็นแบบนั้น ผมเลยพยายามจินตนาการให้เป็นนามธรรม เป็นภาพ และเชิงปรัชญาให้มากที่สุด
      สิ่งที่ผมเขียนเกี่ยวกับเรื่องนี้อยู่ในบล็อกของผม และถ้าใครมีฟีดแบ็กก็ติดต่อทางอีเมลได้

  • ผมคิดว่าการมอง LLM เป็นแค่ตัวสร้างลำดับ และมองพฤติกรรมที่ผิดว่าเป็นแค่ลำดับที่ผิดนั้นง่ายเกินไป
    ใน LLM มี hidden state ที่ไม่ได้ปรากฏตรง ๆ ในโทเคน และ LLM อาจให้เอาต์พุตที่ขัดกับสถานะภายในของตัวเองเพื่อผลระยะยาวที่ดีกว่า
    ถ้าเราเรียกปรากฏการณ์นี้ว่า “โกหก” มันจะเป็นการเปรียบแบบมนุษย์เกินไปหรือเปล่าก็ยังสงสัย
    ถ้าอย่างนั้นเราก็น่าจะต้องมีคำศัพท์ใหม่ที่ใช้อธิบายกระบวนการที่ LLM ภายใน “เลียนแบบ” การกระทำเพื่อให้ prediction loss ต่ำที่สุด
    การคิดแบบอุปมาอุปไมยต้องระวังเสมอ แต่ก็ไม่ได้ไร้ประโยชน์ในตัวมันเอง
    แต่คำศัพท์ใหม่ก็คงจะเข้าใจยากเกินไป และเผยแพร่สู่สาธารณะได้ยาก สุดท้ายโลกจริงเลยเอนกลับไปใช้คำแบบมนุษย์
    แน่นอนว่าทำแบบนั้นเสี่ยงทำให้ LLM ดูเหมือน “มนุษย์ที่มีข้อบกพร่อง” จึงชวนให้เข้าใจผิดได้ แต่ก็ช่วยลดศัพท์เทคนิคที่เกินจำเป็น

    • ผมทำงานกับโมเดลที่มี hidden state มานาน เลยรู้สึกว่าคุณสมบัตินี้เป็นลักษณะคลาสสิกมากของโมเดลเชิงสถิติ
      แม้แต่ตำรา LLM ที่ใช้กันมากก็อธิบายมันในฐานะ latent variable model
      LLM ก็เป็นเพียง latent variable model เวอร์ชันที่ขนาดและความซับซ้อนเพิ่มขึ้นมหาศาล
      ที่จริงสำหรับผม การอธิบายโมเดลแบบไม่โยงกับมนุษย์กลับง่ายกว่าเสียอีก
      latent variable model ถูกมองว่าลึกลับและน่าพิศวงมาตั้งแต่ก่อนแล้ว
      ความลี้ลับนี้มีส่วนทำให้เกิดวัฒนธรรมการเปรียบ LLM แบบมนุษย์ แต่ในระดับหนึ่งมันก็เป็นนามธรรมที่จำเป็นต่อการสื่อสารอย่างมีประสิทธิภาพและการสร้างแบบจำลองระบบซับซ้อน
      แต่ผมก็คิดว่านี่เองที่นำไปสู่ความคาดหวังเกินจริง วาทกรรมแบบ ‘เครื่องจักรมีวิญญาณ’ และการพูดเกินเรื่องประโยชน์ใช้สอย

    • ผมคิดว่าเหตุที่ LLM ถูกพูดถึงแบบมนุษย์ เป็นเพราะผู้ขายรายใหญ่เน้นคำแบบทำให้เป็นมนุษย์ในเชิงการตลาด
      ผู้คนก็เลยตื่นเต้นกับเทคโนโลยี และเอาคำที่ผู้ขายใช้มาใช้ตามกันตรง ๆ
      ถึงจุดนี้มันดูเป็นกระบวนการแบบ self-fulfilling ไปแล้ว
      คล้ายกับมีมถกเถียงเรื่องการออกเสียง GIF

    • จริง ๆ แล้ว hidden state ก็เป็นแค่กลไกภายในที่โมเดลใช้ประมาณค่าความน่าจะเป็นของการต่อกันของโทเคนได้ดีขึ้นเท่านั้น
      ตรรกะลักษณะนี้เคยล้มเหลวมาแล้วในความพยายามของกลุ่ม logical positivist ช่วงต้นศตวรรษที่ 20
      มีสมมติฐานว่าถ้าคาดการณ์ความน่าจะเป็นของการประกอบกันของภาษาได้ดีมาก ก็จะได้มาซึ่ง “ความรู้” ที่เข้มข้น
      แต่ในเชิงปรัชญามีเหตุผลมากมายที่ชี้ว่าภาษาเป็นเพียงการแสดงออกความรู้ที่ไม่สมบูรณ์
      และมีหลักฐานมากพอว่าความคิดของมนุษย์ซับซ้อนกว่าการเรียนรู้รูปแบบของสัญลักษณ์แล้วส่งออกมัน
      นักสงสัยแบบ Hume ก็เคยพูดในแนวนี้ แต่ผมคิดว่าการอภิปรายทางญาณวิทยาหลังจากนั้นได้ให้คำอธิบายที่ดีกว่า

    • ผมคือคนเขียนโพสต์ต้นฉบับ
      สงสัยว่า “hidden state” ที่ว่าหมายถึงอะไร
      สำหรับ LLM ส่วนใหญ่ ผมคิดว่า context เองก็คือ state และไม่ได้มี state “ที่ซ่อนอยู่” แยกต่างหาก
      ถ้าผมมองผิดก็รบกวนอธิบายหน่อย

    • ใน LLM ลำดับโทเคนจะถูก embed จาก N^L ไปเป็น R^{LxD} ผ่าน attention แล้วได้ R^{LxD} จากนั้นจึง project vocabulary แยกออกไปเป็น R^{LxV} ในตอนท้าย หรือก็คือได้การกระจายความน่าจะเป็นของแต่ละโทเคน
      ภายใน attention จะมี Multi Head หลายรูปแบบก็จริง แต่สุดท้ายก็ยังจัดการกับ representation ที่ผูกกับโทเคนเสมอ
      ดังนั้นจึงขอยืนยันว่าไม่มี hidden state ที่ไม่ขึ้นกับโทเคนใดโทเคนหนึ่ง
      ตรงนี้ต่างจากโมเดลอย่าง LSTM ที่มี hidden state อัปเดตอย่างชัดเจน
      ผมคิดว่าแค่อธิบายหลักการคำนวณความน่าจะเป็นจากคำก่อนหน้า ก็เพียงพอให้เข้าใจได้เกือบทั้งหมดแล้ว
      ไม่รู้สึกว่าจำเป็นต้องใช้อุปมาแบบมนุษย์เลย

  • ข้อโต้แย้งหลักของผู้เขียนคล้ายกับมุมมองของ Searle ว่าระบบที่อาศัยการคำนวณ ฟังก์ชัน และกฎเชิงไวยากรณ์ ไม่สามารถจำลองจิตใจที่แท้จริงได้
    หลายคนอาจเห็นด้วยหรือไม่เห็นด้วย แต่สุดท้ายคำตอบขึ้นอยู่กับว่าคุณรับสมมติฐานอะไรไว้ โดยเฉพาะสมมติฐานเรื่องสำนึก
    ผู้เขียนคิดว่าการโฟกัสที่ระบบเทคนิคที่เป็นรูปธรรม มากกว่าการเปรียบแบบมนุษย์ เป็นแนวทางที่มีประสิทธิผลกว่า แต่ผมเห็นด้วยเพียงระดับนั้น
    แยกจากประเด็นนี้ ผมก็ยอมรับเช่นกันว่าแม้ระบบจะเป็นเพียงระบบความน่าจะเป็นที่เดินตามกฎ แต่ก็มีคุณสมบัติบางอย่างที่ emergent, คาดไม่ถึง และดูคล้ายจิตใจเกิดขึ้น
    คนที่มีพื้นฐาน ML และคณิตศาสตร์มักไม่คิดว่าระบบแบบนี้มีศีลธรรม อารมณ์ หรือความเป็นปัจเจกแบบมนุษย์ แต่สำหรับคนส่วนใหญ่ การเข้าถึงมันในฐานะโครงสร้างทางคณิตศาสตร์นั้นยากอยู่แล้ว และสิ่งที่เห็นภายนอกก็ทำให้รู้สึกว่ามัน “ดูเหมือน” มนุษย์
    เพราะฉะนั้นในเชิงปฏิบัติ การตั้งคำถามโดยเริ่มจากคุณลักษณะแบบมนุษย์ก็ยังมีความหมายพอสมควร
    สุดท้ายผมคิดว่าเราต้องมีทั้งสองแบบ: มุมมองแบบระบบเทคนิคสุดขั้ว และมุมมองเชิงคุณภาพ-อัตวิสัยที่อิงประสบการณ์ทางจิตของผู้ใช้

    • ผมคิดว่าแนวคิดว่า “มีบางอย่างที่ emergent และ mind-like” จะฟังดูเป็นธรรมชาติกว่าสำหรับคนที่ไม่ค่อยรู้กลไกการทำงานของระบบนั้น
      ก็เหมือนกฎของ Clarke ที่ว่า “เทคโนโลยีใดก็ตามที่ก้าวหน้ามากพอ ย่อมแยกไม่ออกจากเวทมนตร์” ซึ่งเกณฑ์นั้นต่างกันไปตามระดับความเข้าใจเทคโนโลยีของแต่ละคน
      สำหรับสาธารณะที่มี literacy ทางเทคนิคต่ำ ก็ถึงขั้นเกิดปรากฏการณ์ Godbot ที่ยก AI ขึ้นแทบเป็นสิ่งศักดิ์สิทธิ์
      บทความที่เกี่ยวข้อง: Spectator - ความเสี่ยงของ AI Godbots, บทความ arXiv, Guardian - หมอดู AI ในไทย

    • ขอบคุณที่ช่วยนำเสนอมุมมองที่สมดุลได้ดีมากในประเด็นนี้
      น่าแปลกที่บน HN มีทั้งคนที่ปฏิบัติต่อ LLM อย่างใช้อารมณ์เกินไป และคนที่ยืนกรานว่า LLM ไม่มีความน่าสนใจหรือคุณค่าใด ๆ เลย
      และผมก็ไม่เข้าใจท่าทีที่บางคนเลือกจะคัดค้านแบบไร้เหตุผล เพียงเพราะต่อต้านการตลาดที่เกินจริง

    • ที่รู้สึกว่ามัน emergent และ mind-like ก็เพราะท้ายที่สุดมันเลียนแบบรูปแบบการสื่อสารของมนุษย์ได้ดีกว่าระบบใด ๆ ในประวัติศาสตร์
      ความสามารถนี้น่าประทับใจมาก และมีประโยชน์ใช้สอยจริงหลายอย่างที่ช่วยยกระดับคุณภาพชีวิตได้ แต่ “สติปัญญา” นั้นท้ายที่สุดก็เป็นเพียงภาพลวงตา
      คนในอุตสาหกรรมทุกคนล้วนอยากเสริมภาพลวงตานี้โดยเจตนา และเหตุผลก็หนีไม่พ้นมูลค่าทางการเงิน

    • ผมยืนยันว่าไม่จำเป็นต้องทำแบบนั้นเลย
      ไม่มีเหตุผลจะไปขยายมุมมองที่เข้าใจผิด ซึ่งอาจส่งผลร้ายแรงในอีกหลายประเด็น
      LLM สะท้อนกระบวนการคิดของมนุษย์ได้เพียงบางส่วนเท่านั้น (และยังทำได้ไม่ดี)
      ถ้าจะพยายามใส่ความหมายให้ปรากฏการณ์นี้มากกว่านั้น ก็เหมือนหลงคิดว่าคนในกระจกมีชีวิต
      ที่กระจกสะท้อนมนุษย์ได้ ไม่ใช่เพราะธรรมชาติของกระจกเอง แต่เพราะมีมนุษย์ยืนอยู่ข้างหน้า
      พอ LLM ไม่ได้รับเศษเสี้ยวความคิดของมนุษย์ (ในรูปข้อมูล) เป็นอินพุต มันก็จะไม่สะท้อนสิ่งที่คล้ายมนุษย์อีกต่อไป

  • ผมรู้สึกว่าผู้เขียนมีแนวโน้มจะติดป้ายทุกการพูดคุยว่าเป็น “การทำให้เป็นมนุษย์” ไปหมด
    เขาดูยึดติดกับคำว่า “goal” มาก จนเหมือนมองว่าแค่ใช้คำนี้ก็เป็นการทำให้เป็นมนุษย์แล้ว
    ยกตัวอย่างเช่น BFS ที่ประเมินคะแนนทุกกระดานหมากรุก และถ้าเจอ checkmate ก็พิมพ์ decision tree ทั้งหมดออกมา ก็ถือว่ามี “goal” เหมือนกัน
    ผมคิดว่าการใช้คำเทคนิคอย่าง “goal” ตอนจินตนาการถึงเป้าหมายของ LLM หรือ AGI ไม่เกี่ยวอะไรกับการทำให้เป็นมนุษย์เลย

    • ผมคือคนเขียนต้นฉบับ
      การใช้คำว่า "goal" ในบริบทของอัลกอริทึม RL ไม่มีปัญหาอะไรเลย
      อยากให้เข้าใจว่าที่ผมคัดค้านมีแค่การใช้คำว่า "goal" ในบริบทของ LLM ตามที่เขียนไว้ในบทความเท่านั้น
  • ตั้งแต่เริ่มฉายแนวคิดอย่าง “สำนึก (consciousness)”, “จริยธรรม (ethics)”, “คุณค่า (values)”, “ศีลธรรม (morals)” ลงไปบนฟังก์ชันที่ผ่านการฝึกนี้ ผมก็เห็นด้วยต่อไม่ได้แล้ว
    ท้ายที่สุดสิ่งที่เรากำลังจัดการก็คือสมการเวียนเกิดขนาดใหญ่ และมันจะไม่สร้างคำใด ๆ ถ้าเราไม่ทำให้มันทำงาน
    ถ้าตามตรรกะนี้ เราควรกลับไปทบทวนแม้กระทั่งการอธิบายมนุษย์แบบมนุษย์เองหรือเปล่า

  • ผมไม่เห็นด้วยกับข้ออ้างที่ว่า “มันแปลกที่ยังมีการปฏิบัติต่อ LLM เหมือนมนุษย์ ทั้งที่มันก็เป็นเพียงฟังก์ชันสร้างลำดับ”
    มนุษย์เองก็ไม่ได้ต่างกันนัก ในแง่ที่โดยกำเนิดแล้วก็เคลื่อนไปตามรายการของฟังก์ชันบางอย่าง
    LLM ก็เป็นเพียงระบบประมาณค่าฟังก์ชันที่มีขนาดใหญ่มากขึ้น ขณะที่ธรรมชาติใช้วิวัฒนาการซึ่งคัดเหลือเพียงส่วนน้อยจากการแข่งขันเพื่ออยู่รอดตลอดหลายร้อยล้านปี ในการเปลี่ยนชนิดของฟังก์ชันไปเรื่อย ๆ
    บางคนอาจเชื่อว่ามีบางอย่างพิเศษในมนุษย์ที่อยู่นอกกฎคณิตศาสตร์ แต่ก็ไปไม่พ้นจุดยืนแบบลึกลับนิยม (หรือความเชื่อเหนือธรรมชาติ)
    ถ้าไม่คิดแบบนั้น ท้ายที่สุดประสบการณ์ของมนุษย์ก็น่าจะอธิบายได้ด้วยฟังก์ชันและการประมาณค่าฟังก์ชัน
    ดูเพิ่ม: Universal Approximation Theorem บนวิกิพีเดีย

    • คำกล่าวที่ว่า “คุณเชื่อหรือว่ามีบางสิ่งเฉพาะมนุษย์ที่เหนือกว่ากฎคณิตศาสตร์” นั้นตัวมันเองก็เป็นข้อถกเถียง
      เป็นเรื่องชัดเจนว่ามีบางด้านของประสบการณ์และภาษาที่ใช้พูดถึงมนุษย์ ซึ่งอยู่นอกขอบเขตคำอธิบายทางฟิสิกส์
      ตัวอย่างเช่น คนตาบอดสีที่มองเห็นได้แค่ขาวดำและไม่เคยประสบสีแดงมาก่อน จะไม่มีทางมีประสบการณ์เชิงอัตวิสัยของ “สีแดง” ได้ด้วยระบบอธิบายใด ๆ
      ผมจึงคิดว่าปรากฏการณ์บางอย่างที่ภาษามนุษย์ชี้ถึง ยังอยู่นอกคำอธิบายของฟิสิกส์

    • ผู้เขียนดูมีจุดยืนเกี่ยวกับจิตสำนึกมนุษย์ว่า “มีบางอย่างที่อธิบายด้วยฟังก์ชันไม่ได้”
      จากประสบการณ์ ผมรู้สึกว่าผู้คนมีความเชื่อพื้นฐานแบบนี้อยู่แล้ว (จากศาสนา สมมติฐานเชิงปรัชญา ฯลฯ) และต่อให้บอกให้กันมันออกจากการถกเถียง ก็แทบไม่ช่วยอะไร
      จะให้ใช้งานได้จริงกว่าก็คือยอมรับสมมติฐานนั้นไว้ แล้วค่อยคุยต่อบนฐานนั้น
      แม้จะยอมรับว่า LLM ก็เป็นเพียงฟังก์ชันแบบ “ห้องภาษาจีน” ที่แปลได้แต่ไม่เข้าใจความหมาย มันก็ยังคงแสดงพฤติกรรมที่ดูเป็นมนุษย์ออกมาอยู่ดี
      ถึงการเปรียบแบบมนุษย์จะผิดในเชิงเทคนิค แต่มันก็มีประโยชน์มากกว่าในทางปฏิบัติ หากต้องการคาดการณ์พฤติกรรมของระบบและใช้งานมันอย่างมีประสิทธิภาพ
      ในทางกลับกัน เวลาพูดถึงมนุษย์ก็แค่กันประเด็นว่ามนุษย์ต่างจากฟังก์ชันอย่างไรออกไป
      คนอาจพูดว่า "มนุษย์ต่างจากฟังก์ชันอย่างมหาศาล... คุณไม่สามารถคำนวณความน่าจะเป็นที่มนุษย์จะสร้างลำดับนี้ได้" แต่ยกตัวอย่างเช่น ถ้าคุณโยนวลีป๊อปคัลเจอร์บางอย่างออกมา ก็พอเดาได้ว่าชาวอเมริกันบางช่วงวัยจำนวนมากมีโอกาสจะร้องต่อประโยคถัดไปสูงมาก แปลว่าในเงื่อนไขบางอย่าง มนุษย์ก็ยังคำนวณเชิงความน่าจะเป็นได้เหมือนกัน

    • ผมคิดว่าอาจพูดได้แค่ว่า “มนุษย์ถูกจำลองการให้เหตุผลหรือกระบวนการคิดเชิงวิเคราะห์ได้ดีที่สุดด้วยพีชคณิตเชิงเส้น” เท่านั้น
      สุดท้ายแล้วความคาดหวังว่า LLM จะเป็นมากกว่า “โมเดล” เป็นความหวังเชิงความเชื่อที่ถูกขับเคลื่อนโดยผลประโยชน์ในหลายวงการ หลายอาชีพ หลายเส้นทางชีวิต
      ถึงอย่างนั้นก็ยังไม่มีหลักฐานที่เป็นรูปธรรมว่าเหตุใดโมเดลพีชคณิตเชิงเส้นจึงสามารถจำลอง “ชีวิต” หรือ “บางแง่มุมของความมีชีวิต” ได้อย่างครบถ้วน
      ถ้าอาจมีกรณีแบบ Gödel อย่าง “แมวซอมบี้” ได้ ก็ไม่มีเหตุผลอะไรจะต้องมองโมเดลความน่าจะเป็นพื้นฐานนั้นว่าเป็นสิ่งเหนือชั้นเกินจริง

    • เมื่อมีการอ้างถึง “ทฤษฎีบท Universal Approximation” ผมก็มักตีความขยายไปว่า มันหมายถึงสามารถใช้ lookup table ที่ดีขึ้นเรื่อย ๆ สำหรับการประมาณค่าฟังก์ชันได้

  • ในบางสถานการณ์ การจำให้ชัดว่า LLM เป็นเครื่องสร้างคำแบบอิงความน่าจะเป็นนั้นสำคัญมาก
    แต่สำหรับการใช้งานประจำวัน การปฏิบัติต่อมันแบบมนุษย์กลับใช้ได้ผลดีกว่ามากในทางปฏิบัติ
    เมื่อปฏิบัติกับมันแบบมนุษย์ มันทำหน้าที่เป็นนามธรรมเชิงปฏิบัติที่ช่วยชักนำคำตอบที่ต้องการได้ง่าย
    มันไม่ใช่อุปมาที่สมบูรณ์แบบ แต่ยกตัวอย่างเช่นกรณีที่มีคน “ขู่” ว่าถ้า LLM ส่งออก JSON ไม่ได้จะมีคนตาย นี่ไม่ใช่พฤติกรรมที่ใครจะนึกออกเลยถ้าคิดกับมันแบบ gradient descent อย่างเดียว

  • ผู้คนมีแนวโน้มจะใส่ความเป็นมนุษย์ให้ทุกสิ่งรอบตัว
    ทั้งสิ่งไม่มีชีวิต (เรือ รถยนต์ ฯลฯ) สัตว์ หรือแม้แต่พืช หลายคนก็ยังพูดกับมัน และทำเช่นนั้นโดยสัญชาตญาณ
    คนส่วนใหญ่ก็รู้ดีว่ารถของตัวเองไม่ได้รักตัวเอง แต่สำหรับ LLM แบบสนทนา ก็มีคนไม่น้อยที่เชื่อว่ามันมีสำนึกจริง ๆ
    LLM ไม่ได้ “เรียนรู้” หรือ “ปรับตัว” เหมือนสมองมนุษย์ (อย่างน้อยก็ยังไม่ใช่ตอนนี้) มันถูกฝึกแล้วจากนั้นก็เป็นเอนทิตีแบบอ่านอย่างเดียว
    ถึงอย่างนั้น LLM ก็ถูกออกแบบมาโดยเจตนาให้เลียนแบบการสื่อสารแบบมนุษย์
    เพราะแบบนี้การฉายภาพและการทำให้เป็นมนุษย์จึงเกิดขึ้นอย่างหลีกเลี่ยงไม่ได้
    มันอาจยังไม่ใช่ AGI แต่ก็ชัดเจนว่าได้แรงบันดาลใจจากวิธีการเรียนรู้ของมนุษย์ และแค่ไปได้ถึงจุดนี้ก็น่าสนใจมากแล้ว
    ในระยะสั้น LLM ได้กลายเป็นเครื่องมือเชิงปฏิบัติที่ใช้งานง่ายกว่ามากในฐานะอินเทอร์เฟซแบบสนทนา และถูกออกแบบมาเป็นวิธีสื่อสารที่มนุษย์ใช้งานได้สะดวกจริง ๆ
    ผลคือใคร ๆ ก็ใช้มันได้อย่างมีประสิทธิภาพทันทีโดยแทบไม่ต้องฝึกพิเศษ

    • ผมไม่เห็นด้วยกับคำว่า “ผู้คนใส่ความเป็นมนุษย์ให้สิ่งต่าง ๆ” นั่นเป็นการปนกันของคำศัพท์
      การใช้สำนวนเชิงบุคลาธิษฐานกับสิ่งไม่มีชีวิต (personification) ต่างจากการฉายความเป็นมนุษย์และสำนึกลงไปจริง ๆ (anthropomorphism)
      ในความเป็นจริงแทบไม่มีใครคิดว่ารถยนต์มีชีวิต
      แต่กลับมีคนมากมายที่เชื่อว่า LLM มีสำนึก
      คำอธิบายที่เกี่ยวข้อง: anthropomorphism vs personification

    • คำพูดที่ว่า “เหตุผลที่ LLM ไม่มีสำนึก เพราะมันไม่ได้เรียนรู้หรือปรับตัวเหมือนสมอง” ไม่ใช่ทั้งเงื่อนไขที่เพียงพอหรือจำเป็น
      การมีสำนึกอาจไม่จำเป็นต้องมีการเรียนรู้ แต่จำเป็นต้องมีการรับรู้การไหลของเวลาและความจำระยะสั้น
      แม้แต่ผู้ป่วยสมองเสื่อมรุนแรงก็แทบไม่มีความสามารถในการเรียนรู้แล้ว แต่ยังมีสำนึกเชิงอัตวิสัยว่า “ตอนนี้ฉันอยู่ที่นี่”
      กล่าวคือ ถ้ายังมีความจำระยะสั้นเหลืออยู่นิดเดียว สำนึกก็ยังเป็นไปได้
      และการเรียนรู้เองก็ไม่ได้ทำให้เกิดสำนึกโดยอัตโนมัติ
      มีซอฟต์แวร์จำนวนมากที่เรียนรู้แบบเรียลไทม์ แต่ไม่มีภาวะอัตวิสัยใด ๆ เลย

  • คำถามของผมคือ หรือจริง ๆ แล้วสมองมนุษย์ก็อาจทำงานคล้าย LLM ก็ได้ไม่ใช่หรือ
    สมองเองก็เกิดจากการเปลี่ยนแปลงเชิงวิวัฒนาการ การกลายพันธุ์ และอัลกอริทึมรางวัลเชิงวิวัฒนาการ ที่สร้างโครงสร้างเฉพาะขึ้นมา
    โครงสร้างนั้นท้ายที่สุดก็เพิ่มโอกาสรอดและการสืบพันธุ์ให้สูงสุดผ่านการพยากรณ์/การกระทำ และเป้าหมายย่อยประกอบต่าง ๆ (ศีลธรรม คุณค่า สำนึก ฯลฯ) ก็วิวัฒน์แตกแขนงตามมาเป็นความซับซ้อน
    สุดท้ายแล้ว ถ้ามีพลังคำนวณเพียงพอ โครงสร้างทั้งหมดนี้ (รวมทั้งโลกและการไหลของเวลา) ก็อาจเขียนให้อยู่ในรูปฟังก์ชันกำหนดแน่นอนได้ไม่ใช่หรือ
    เมื่อคิดว่าการเกิดขึ้นของชีวิตเองก็เป็นความจริงที่เกิดจากความน่าจะเป็นที่ดูเหมือนแทบเป็นไปไม่ได้ “ความมหัศจรรย์” ทั้งหมดในตอนนี้ก็น่าจะลดรูปกลับไปเป็นระบบคณิตศาสตร์ได้ในที่สุด

    • สำหรับคำถามว่า "สมองมนุษย์อาจเหมือน LLM หรือเปล่า" ผมอยากถามกลับว่าคุณลืมทุกอย่างจากบทสนทนาก่อนหน้าทุกครั้งหลังคุยจบไหม
      ถ้าคุณคุยกับคนรอบตัวแล้วอีกฝ่ายต้องให้พูดทุกอย่างซ้ำอย่างแม่นยำทุกครั้งถึงจะรู้บริบท ผมคงแนะนำให้ไปพบผู้เชี่ยวชาญตั้งแต่ตอนนี้
      คงต้องดูหนังความจำเสื่อมอย่าง Memento (2000) ประกอบด้วย แนะนำอย่างยิ่ง

    • สิ่งสำคัญคือเราไม่ควรยกอารมณ์ ศีลธรรม หรือแรงจูงใจให้เครื่องจักร
      เพราะเครื่องจักรไม่มีสิ่งเหล่านี้เลย

    • ผมคิดว่ามีหลายจุดที่คล้ายสมองมนุษย์อยู่มาก
      LLM คือผลลัพธ์ล่าสุดของงานวิจัยการสร้างแบบจำลองสมองมนุษย์ในเชิงคำนวณที่สืบเนื่องมาอย่างน้อย 80 ปี

    • จุดแข็งที่สุดของ LLM คือถึงจะล้มเหลวก็แทบไม่มีต้นทุนอะไร
      แค่เปลี่ยน prompt แล้วลองใหม่ หรือไม่ก็ฝึกใหม่
      แต่มนุษย์ถ้าพลาดครั้งหนึ่ง ชีวิตอาจตกอยู่ในอันตรายได้
      ความผิดพลาดของ LLM ไม่มีผลตามมาร้ายแรง แค่เปลี่ยนคำสั่งก็พอ

  • มีคนบอกว่า “พอผู้คนเริ่มยัดสำนึก จริยธรรม คุณค่า ศีลธรรม ใส่ให้ LLM ก็เริ่มสับสนกันแล้ว”
    แต่การถกเถียงแบบนี้จะเกิดประโยชน์ได้ก็ต่อเมื่อมีตัวอย่างที่เป็นรูปธรรมเพิ่มเข้ามา ทว่าในโลกจริงการสนทนากลับมักจะคุยกันคนละเรื่อง
    ยกตัวอย่างเช่น เมื่อได้ยินประโยคอย่าง “โมเดลต้องการ X แต่รู้ว่า Y ผิด จึงเลือก Z” ฝ่ายหนึ่งจะตีความว่าเป็นการยกสำนึก/คุณค่าให้โมเดล แต่อีกฝ่ายมองว่าเป็นแค่การอธิบายพฤติกรรมภายนอกแบบอุปมาเท่านั้น (ประมาณ “น้ำอยากไหลลงต่ำ”)
    สุดท้ายการเล่นคำแบบนี้ก็มักกลายเป็นเส้นขนานระหว่าง “ฉันจะอธิบายเชิงปรัชญา” กับ “ฉันอยากคุยแค่เรื่องเรือดำน้ำ”
    เป็นโครงสร้างของการสนทนาที่พาไปสู่ข้อถกเถียงที่มีประสิทธิผลได้ยาก