- บทความวิจารณ์ท่าทีที่ทำให้ LLM มีลักษณะเป็นมนุษย์ โดยชี้ว่า LLM ท้ายที่สุดแล้วคือ 'ชุดของการคูณเมทริกซ์และฟังก์ชันไม่เชิงเส้น'
- ลำดับภาษาที่ LLM สร้างขึ้นคือเส้นทางเชิงฟังก์ชันที่ซับซ้อน ซึ่งไม่มี 'เจตนา' หรือ 'จริยธรรม' เข้ามาเกี่ยวข้องแบบมนุษย์
- ประเด็นด้านความปลอดภัยของ LLM (Alignment) มีแก่นสำคัญอยู่ที่ การวัดเชิงคณิตศาสตร์และการจำกัดความน่าจะเป็นของผลลัพธ์ที่ไม่พึงประสงค์
- การนำแนวคิดแบบมนุษย์เป็นศูนย์กลางอย่าง จริยธรรม·จิตสำนึก มาใช้กับ LLM ทำให้การถกเถียงสับสน และยิ่งทำให้การนิยามปัญหาและวิธีแก้จริงๆ พร่าเลือน
- จิตสำนึกของมนุษย์กับ LLM นั้นแตกต่างกันโดยพื้นฐาน และสิ่งสำคัญคือความเข้าใจเชิงเทคนิคกับการรับมือการเปลี่ยนแปลงทางสังคม
ความจำเป็นของมุมมองที่ไม่มอง LLM เหมือนมนุษย์
ปัญหาในแนวคิดการทำให้ LLM มีลักษณะเป็นมนุษย์
- เมื่อมีการพูดถึง alignment (การจัดแนว) หรือความปลอดภัยของ AI ในการถกเถียงเกี่ยวกับ AI และ LLM (โมเดลภาษาขนาดใหญ่) ผู้เชี่ยวชาญจำนวนมากรู้สึกสับสนกับแนวโน้มที่ มอบคุณลักษณะของมนุษย์ (เช่น จิตสำนึกหรือเจตนา) ให้กับ LLM
- LLM โดยแก่นแท้แล้วสามารถมองได้ว่าเป็น การผสมกันของ MatMul (การคูณเมทริกซ์) และฟังก์ชันไม่เชิงเส้น
ธรรมชาติทางโครงสร้างของ LLM
- LLM คือฟังก์ชันที่แมปคำแต่ละคำ (โทเคนอินพุต) ไปยังปริภูมิเวกเตอร์ แล้ว คำนวณการกระจายความน่าจะเป็นของโทเคนถัดไป โดยอาศัยเส้นทางก่อนหน้า เพื่อ สร้างผลลัพธ์แบบลำดับต่อเนื่อง
- กระบวนการนี้คล้ายกับ 'เกม Snake ในปริภูมิหลายมิติ' และเส้นทางการสร้างก็ซับซ้อนราวกับ strange attractor ของระบบพลวัต
- LLM เรียนรู้จาก ข้อความจำนวนมหาศาลที่มนุษย์เขียน + คอร์ปัสเฉพาะทาง + ข้อมูลที่สร้างและตรวจสอบได้โดยอัตโนมัติ จนได้ การแมปที่เลียนแบบโครงสร้างของภาษามนุษย์
เส้นทางที่ควรหลีกเลี่ยง (ลำดับภาษา) และปัญหา Alignment กับความปลอดภัย
- ลำดับภาษาบางส่วน ไม่เหมาะสมในเชิงสังคมและจริยธรรม จึง ไม่ต้องการให้ถูกสร้างขึ้น
- แต่เนื่องจากการให้ นิยามทางคณิตศาสตร์ที่เคร่งครัด ว่าเส้นทางใดไม่พึงประสงค์นั้นทำได้ยาก จึงต้อง ปรับแจกแจง (nudge) ด้วยตัวอย่างและตัวอย่างโต้แย้ง
- คำว่า "Alignment" และ "ความปลอดภัย" ของ LLM หมายถึงปัญหาของการ วัดเชิงคณิตศาสตร์และกำหนดขอบเขตของความน่าจะเป็น ที่ลำดับไม่พึงประสงค์จะถูกสร้างขึ้น
- แต่ในทางปฏิบัติ ไม่สามารถนิยามเกณฑ์ของลำดับ 'ไม่พึงประสงค์' ให้ชัดเจนทางคณิตศาสตร์ได้ ทำได้เพียงผ่านตัวอย่างเท่านั้น จึงมี ข้อจำกัดในทางปฏิบัติ
- แม้จะคำนวณความน่าจะเป็นที่ลำดับหนึ่งๆ จะออกมาจาก LLM เฉพาะตัวได้ แต่ไม่สามารถนำความน่าจะเป็นทั้งหมดมาบวกหรืออินทิเกรตแล้วสรุปว่า 'โมเดลนี้จะสร้างลำดับไม่พึงประสงค์ทุกๆ N ครั้ง' ได้
ประโยชน์ใช้สอยจริงของ LLM
- LLM ทำให้ปัญหาจำนวนมากของ การประมวลผลภาษาธรรมชาติ (NLP) สามารถแก้ได้ด้วยอัลกอริทึม
- เช่น สรุปเอกสารเป็นภาษาอังกฤษอย่างเป็นธรรมชาติ, จัดระเบียบข้อมูลเป็นโครงสร้าง JSON, สร้างนิทานและภาพประกอบ ซึ่งเป็นสิ่งที่เมื่อ 5~6 ปีก่อนยังทำไม่ได้ แต่ตอนนี้ทำได้อย่างเป็นธรรมชาติ
- จาก เส้นโค้งการพัฒนาที่รวดเร็ว คาดว่าในอนาคตจะสามารถ แก้ปัญหาที่เคยเป็นไปไม่ได้ได้มากขึ้นอีก
ข้อจำกัดของมุมมองที่มองเหมือนมนุษย์
- ผู้เขียน คัดค้านมุมมองที่มอบ 'จิตสำนึก', 'จริยธรรม', 'คุณค่า', 'เป้าหมาย' ให้กับ LLM
- LLM ท้ายที่สุดแล้ว เป็นเพียง 'สมการเวียนเกิดซ้ำ' ที่จะสร้างผลลัพธ์ได้ก็ต่อเมื่อมีอินพุตเข้ามาเท่านั้น
- การถกเถียงว่า AI จะ 'ตื่นรู้' หรือ 'มีจุดมุ่งหมายของตัวเอง' เป็น ความผิดพลาดระดับเดียวกับการอ้างว่าแบบจำลองสภาพอากาศมีอารมณ์ความรู้สึก
- ในการอภิปรายเรื่อง AI คำแบบมนุษย์เป็นศูนย์กลางอย่าง 'การกระทำ', 'ข้อจำกัดทางจริยธรรม', 'การไล่ตามเป้าหมาย' ทำให้แก่นของปัญหาพร่ามัว
- นี่คือ ความผิดพลาดทางการรับรู้ที่คล้ายกับที่มนุษย์ในอดีตทำให้ปรากฏการณ์ธรรมชาติมีลักษณะเป็นมนุษย์ เช่น มองว่าเป็น 'ความโกรธของพระเจ้า' หรือ 'ปีศาจร้าย'
ทิศทางที่ถูกต้องของการถกเถียงเรื่อง Alignment
- LLM เป็นเพียงฟังก์ชันสร้างลำดับ และสามารถเปลี่ยนความน่าจะเป็นของผลลัพธ์ได้ด้วยการปรับ input prefix
- สำหรับลำดับผลลัพธ์ที่ไม่พึงประสงค์ทั้งหมด การค้นหา prefix ที่ทำให้ความน่าจะเป็นสูงสุดก็เป็นแนวทางเชิงคณิตศาสตร์ได้เช่นกัน
- แนวทางที่อิงสมการอย่างชัดเจนเช่นนี้ กลับช่วยให้นิยามปัญหาและวิธีแก้ชัดเจนขึ้น
ทำไมการทำให้เป็นมนุษย์จึงเกิดขึ้นบ่อยในวงการ AI
- ผู้นำในอุตสาหกรรม AI จำนวนไม่น้อยมีแนวโน้มเข้าสู่วงการนี้ด้วย เป้าหมายชีวิตที่ผูกกับความเป็นไปได้ของ AGI
- ด้วยเหตุนี้ ความเชื่อเรื่องการสร้างสติปัญญาระดับมนุษย์หรือสิ่งมีอยู่ระดับเทพ จึงแทรกเข้ามาในการอภิปรายเชิงเทคนิคได้ง่าย
- ผู้เขียน ยอมรับเองว่าข้อเสนอให้หลุดพ้นจากมุมมองแบบทำให้เป็นมนุษย์นั้นยากจะได้รับการยอมรับ
ความแตกต่างพื้นฐานระหว่างจิตสำนึกมนุษย์กับ LLM
- มนุษย์คือสิ่งมีชีวิตที่ มีหลายชั้นและซับซ้อนโดยเนื้อแท้ ซึ่งวิวัฒน์ผ่านกระบวนการที่ยังไม่เข้าใจทั้งหมด ไม่ว่าจะเป็นการคัดเลือกโดยธรรมชาตินับร้อยล้านปี โครงสร้างประสาทที่ซับซ้อน ฮอร์โมน อินพุตทางประสาทสัมผัสหลายมิติ และการควบคุมพลังงาน
- เป็นไปไม่ได้ที่จะคำนวณความน่าจะเป็นที่มนุษย์จะสร้างลำดับหนึ่งๆ ออกมา
- LLM แตกต่างจากการคิดของมนุษย์อย่างสิ้นเชิง และแม้แต่การนิยามว่า 'ความน่าจะเป็นที่จะสร้างลำดับนี้' ก็ยังทำได้ยาก
- การนำแนวคิดแบบมนุษย์อย่าง 'จริยธรรม' หรือ 'สัญชาตญาณการเอาตัวรอด' มาใช้กับ LLM นั้น ชวนให้รู้สึกแปลกไม่ต่างจากการถกเถียงเรื่องอารมณ์ของโปรแกรมจำลองเชิงตัวเลข
ปัญหาที่แท้จริงและทิศทางของการเปลี่ยนแปลง
- คลาสเชิงฟังก์ชันที่ LLM สมัยใหม่มอบให้นั้นมีประโยชน์อย่างมาก และแม้จะไม่เข้าใกล้ AGI เลย ก็ยังสามารถก่อให้เกิดการเปลี่ยนแปลงใหญ่ในสังคมได้
- แม้ LLM จะไม่ไปถึง AGI แต่เทคโนโลยีในปัจจุบันเพียงอย่างเดียวก็สามารถเปลี่ยนโลกได้มาก
- อาจเกิดการเปลี่ยนแปลงทั้งสังคมในระดับเดียวกับการใช้ไฟฟ้าอย่างแพร่หลาย (Electrification)
- ในช่วงหลายทศวรรษข้างหน้า ท่ามกลางความเปลี่ยนแปลงที่รวดเร็ว จำเป็นต้องมุ่งไปที่ปัญหาจริง (เช่น ความปลอดภัย การนำไปใช้)
4 ความคิดเห็น
แทนที่จะไปถกกันว่าเป็นการทำให้เหมือนมนุษย์หรือไม่..
ผมมองว่า ณ จุดที่มันสามารถเรียนรู้และให้เหตุผลได้ด้วยตัวเอง เราก็เลยช่วงที่ความปลอดภัยจะรับประกันได้ไปแล้ว (การเชื่อว่ามนุษย์อย่างคุณยังควบคุมทุกอย่างได้ทั้งหมดในจุดนี้ เป็นความหยิ่งผยองอย่างหนึ่ง)
ถ้ามองจากมุมของการเรียนรู้ กลับกัน การทำให้มันคิดแบบมนุษย์และถูกฝึกจากมุมมองของมนุษย์ อาจเป็นวิธีที่พอจะเพิ่มความปลอดภัยได้มากกว่าหรือเปล่า!?
ดูจากโครงสร้างของ LLM แล้ว น่าจะเป็นไปไม่ได้ที่จะรับประกันความปลอดภัยได้อย่างสมบูรณ์ครับ/ค่ะ ในความเห็นของผม/ฉัน ความไม่เสถียรของ LLM คงเป็นสิ่งที่หลีกเลี่ยงไม่ได้ และประเด็นสำคัญน่าจะอยู่ที่ว่าเราจะมอบอำนาจให้มันทำการกระทำทางกายภาพ เช่น เอเจนต์หรือรถขับเคลื่อนอัตโนมัติ อย่างไร
เหมือนกับการเอารถยนต์ไปเปรียบเทียบกับการวิ่งมาราธอนเลย..
ความคิดเห็นจาก Hacker News
ฉันเข้าใจในเชิงเทคนิคค่อนข้างดีว่า LLM ทำงานอย่างไร แต่ก็ไม่คิดว่าการเปรียบมันแบบมนุษย์จะไร้ความหมายไปเสียทีเดียว
คำอย่าง “เครื่องสร้างคำถัดไปแบบความน่าจะเป็น” รู้สึกว่าเป็นนามธรรมระดับต่ำที่แทบไม่มีความหมาย เมื่อ LLM ตอบคำถามการสร้างแบบจำลองโลกที่ซับซ้อน หรือแต่งเรื่องอย่างสร้างสรรค์
มันก็เหมือนการพูดถึง 0 กับ 1 หรือแรงดันของทรานซิสเตอร์ตอนคุยเรื่อง UI event API ซึ่งก็ถูกต้องทางเทคนิค แต่ไม่มีประโยชน์ต่อการเข้าใจระบบระดับสูง
ถ้าจะพูดถึงปรากฏการณ์ระดับสูง ก็ต้องใช้การนามธรรมระดับสูงกว่า แต่เราก็ยังไม่ค่อยรู้ว่าภายในระดับลึกเกิดอะไรขึ้นกันแน่
LLM เลียนแบบมนุษย์ได้ในระดับหนึ่ง (อย่างน้อยก็ในรูปแบบเอาต์พุต) ดังนั้นการเปรียบแบบมนุษย์จึงเป็นนามธรรมที่ใช้งานได้มากที่สุด และเป็นเหตุผลที่ผู้คนพูดถึงศักยภาพของ LLM กันแบบนั้นอย่างเป็นธรรมชาติ
คุณบอกว่าต้องใช้นามธรรมระดับสูงเพื่อเข้าใจปรากฏการณ์ระดับสูงของ LLM แต่ผมคิดว่าเรารู้อยู่แล้วว่าภายในมันทำงานอย่างไร
การออกแบบเครือข่ายให้มีประสิทธิภาพและการเพิ่มสมรรถนะ ต่างพึ่งพาความเข้าใจการทำงานภายในอย่างมาก (มิติของเครือข่าย, การดึงฟีเจอร์, attention, attention head, caching, คุณลักษณะมิติสูง, การป้องกัน overfitting ฯลฯ)
การเปรียบแบบมนุษย์จำเป็นก็แค่เวลาหนังสือวิทยาศาสตร์สำหรับคนทั่วไปต้องใช้คำศัพท์จำกัด ๆ เท่านั้น สำหรับคนทำงานจริงไม่ได้รู้สึกว่าเป็นสิ่งจำเป็น
ในทางกลับกัน ผมคิดว่าการเปรียบแบบมนุษย์นี่เองคือสาเหตุหลักที่ทำให้เรื่องเล่าเกี่ยวกับ LLM บิดเบือน
ผู้คนพูดว่า LLM คิดและให้เหตุผล ทั้งที่จริงมันไม่ได้ทำแบบนั้น
และภาพจำแบบนี้ก็ถูกบริษัทที่ขาย LLM จงใจส่งเสริมอย่างแข็งขัน
สุดท้ายผมรู้สึกว่าสิ่งนี้ทำให้การถกเถียงเรื่องประโยชน์ใช้สอยและการประยุกต์ใช้ LLM พร่าเลือนไป
ทำให้นึกถึงตอนที่ Dawkins พูดถึง “มุมมองแบบมีเจตนา” ต่อยีนใน The Selfish Gene
การอธิบายยีนเหมือนมันมีเจตนาเป็นการใช้คำที่ไม่ตรง แต่แทนที่จะต้องเขียนคำอธิบายละเอียดทุกครั้งว่า “สิ่งมีชีวิตที่มียีนนี้จะมีพฤติกรรมแบบนี้” การพูดยีนเหมือนเป็นตัวกระทำที่มีเป้าหมายก็เป็นคำย่อที่เข้าใจง่ายและสะดวก
ถ้าเราเข้าใจนามธรรมระดับล่างแล้ว เวลาจะคุยถึงระดับที่สูงกว่า ก็ไม่จำเป็นต้องยึดติดอยู่กับระดับล่างเสมอไป
จากที่ผมใช้ language model มามากพอ สิ่งที่รู้สึกคือส่วนที่อันตรายที่สุดของการเปรียบแบบมนุษย์คือ UI แบบสนทนา
ถ้าโฟกัสแค่ Q/A ทีละคู่ หรือลดและแก้ไขประวัติการสนทนาให้เหลือน้อยที่สุด ปัญหาในการใช้ LLM หลายอย่างจะลดลงมาก
หลังโต้ตอบกันหลายข้อความแล้วค่อยกลับมาตรวจบทสนทนาหรือขอให้แก้ ‘hallucination’ ผมเจอว่าข้อมูลผิดจะถูกพูดซ้ำและยิ่งเสริมทิศทางที่ผิดให้การสนทนา
เรื่องนี้เกิดกับงานเขียนโค้ดเหมือนกัน เห็นชัดว่าถ้าโค้ดผิด มันจะคอยปนเปื้อนบทสนทนาต่อไปเรื่อย ๆ
ผมคงไม่สามารถตื่นเต้นได้แบบ GP กับ OP เพราะจินตนาการภาพสถานะการทำงานภายในของ LLM ไม่ออกในหัว
บางทีก็อิจฉาคนแบบนั้นอยู่เหมือนกัน
อาจเป็นเพราะเคยทำข้อสอบคณิตพังบ่อย ๆ ก็ได้
แทนที่จะเป็นแบบนั้น ผมเลยพยายามจินตนาการให้เป็นนามธรรม เป็นภาพ และเชิงปรัชญาให้มากที่สุด
สิ่งที่ผมเขียนเกี่ยวกับเรื่องนี้อยู่ในบล็อกของผม และถ้าใครมีฟีดแบ็กก็ติดต่อทางอีเมลได้
ผมคิดว่าการมอง LLM เป็นแค่ตัวสร้างลำดับ และมองพฤติกรรมที่ผิดว่าเป็นแค่ลำดับที่ผิดนั้นง่ายเกินไป
ใน LLM มี hidden state ที่ไม่ได้ปรากฏตรง ๆ ในโทเคน และ LLM อาจให้เอาต์พุตที่ขัดกับสถานะภายในของตัวเองเพื่อผลระยะยาวที่ดีกว่า
ถ้าเราเรียกปรากฏการณ์นี้ว่า “โกหก” มันจะเป็นการเปรียบแบบมนุษย์เกินไปหรือเปล่าก็ยังสงสัย
ถ้าอย่างนั้นเราก็น่าจะต้องมีคำศัพท์ใหม่ที่ใช้อธิบายกระบวนการที่ LLM ภายใน “เลียนแบบ” การกระทำเพื่อให้ prediction loss ต่ำที่สุด
การคิดแบบอุปมาอุปไมยต้องระวังเสมอ แต่ก็ไม่ได้ไร้ประโยชน์ในตัวมันเอง
แต่คำศัพท์ใหม่ก็คงจะเข้าใจยากเกินไป และเผยแพร่สู่สาธารณะได้ยาก สุดท้ายโลกจริงเลยเอนกลับไปใช้คำแบบมนุษย์
แน่นอนว่าทำแบบนั้นเสี่ยงทำให้ LLM ดูเหมือน “มนุษย์ที่มีข้อบกพร่อง” จึงชวนให้เข้าใจผิดได้ แต่ก็ช่วยลดศัพท์เทคนิคที่เกินจำเป็น
ผมทำงานกับโมเดลที่มี hidden state มานาน เลยรู้สึกว่าคุณสมบัตินี้เป็นลักษณะคลาสสิกมากของโมเดลเชิงสถิติ
แม้แต่ตำรา LLM ที่ใช้กันมากก็อธิบายมันในฐานะ latent variable model
LLM ก็เป็นเพียง latent variable model เวอร์ชันที่ขนาดและความซับซ้อนเพิ่มขึ้นมหาศาล
ที่จริงสำหรับผม การอธิบายโมเดลแบบไม่โยงกับมนุษย์กลับง่ายกว่าเสียอีก
latent variable model ถูกมองว่าลึกลับและน่าพิศวงมาตั้งแต่ก่อนแล้ว
ความลี้ลับนี้มีส่วนทำให้เกิดวัฒนธรรมการเปรียบ LLM แบบมนุษย์ แต่ในระดับหนึ่งมันก็เป็นนามธรรมที่จำเป็นต่อการสื่อสารอย่างมีประสิทธิภาพและการสร้างแบบจำลองระบบซับซ้อน
แต่ผมก็คิดว่านี่เองที่นำไปสู่ความคาดหวังเกินจริง วาทกรรมแบบ ‘เครื่องจักรมีวิญญาณ’ และการพูดเกินเรื่องประโยชน์ใช้สอย
ผมคิดว่าเหตุที่ LLM ถูกพูดถึงแบบมนุษย์ เป็นเพราะผู้ขายรายใหญ่เน้นคำแบบทำให้เป็นมนุษย์ในเชิงการตลาด
ผู้คนก็เลยตื่นเต้นกับเทคโนโลยี และเอาคำที่ผู้ขายใช้มาใช้ตามกันตรง ๆ
ถึงจุดนี้มันดูเป็นกระบวนการแบบ self-fulfilling ไปแล้ว
คล้ายกับมีมถกเถียงเรื่องการออกเสียง GIF
จริง ๆ แล้ว hidden state ก็เป็นแค่กลไกภายในที่โมเดลใช้ประมาณค่าความน่าจะเป็นของการต่อกันของโทเคนได้ดีขึ้นเท่านั้น
ตรรกะลักษณะนี้เคยล้มเหลวมาแล้วในความพยายามของกลุ่ม logical positivist ช่วงต้นศตวรรษที่ 20
มีสมมติฐานว่าถ้าคาดการณ์ความน่าจะเป็นของการประกอบกันของภาษาได้ดีมาก ก็จะได้มาซึ่ง “ความรู้” ที่เข้มข้น
แต่ในเชิงปรัชญามีเหตุผลมากมายที่ชี้ว่าภาษาเป็นเพียงการแสดงออกความรู้ที่ไม่สมบูรณ์
และมีหลักฐานมากพอว่าความคิดของมนุษย์ซับซ้อนกว่าการเรียนรู้รูปแบบของสัญลักษณ์แล้วส่งออกมัน
นักสงสัยแบบ Hume ก็เคยพูดในแนวนี้ แต่ผมคิดว่าการอภิปรายทางญาณวิทยาหลังจากนั้นได้ให้คำอธิบายที่ดีกว่า
ผมคือคนเขียนโพสต์ต้นฉบับ
สงสัยว่า “hidden state” ที่ว่าหมายถึงอะไร
สำหรับ LLM ส่วนใหญ่ ผมคิดว่า context เองก็คือ state และไม่ได้มี state “ที่ซ่อนอยู่” แยกต่างหาก
ถ้าผมมองผิดก็รบกวนอธิบายหน่อย
ใน LLM ลำดับโทเคนจะถูก embed จาก N^L ไปเป็น R^{LxD} ผ่าน attention แล้วได้ R^{LxD} จากนั้นจึง project vocabulary แยกออกไปเป็น R^{LxV} ในตอนท้าย หรือก็คือได้การกระจายความน่าจะเป็นของแต่ละโทเคน
ภายใน attention จะมี Multi Head หลายรูปแบบก็จริง แต่สุดท้ายก็ยังจัดการกับ representation ที่ผูกกับโทเคนเสมอ
ดังนั้นจึงขอยืนยันว่าไม่มี hidden state ที่ไม่ขึ้นกับโทเคนใดโทเคนหนึ่ง
ตรงนี้ต่างจากโมเดลอย่าง LSTM ที่มี hidden state อัปเดตอย่างชัดเจน
ผมคิดว่าแค่อธิบายหลักการคำนวณความน่าจะเป็นจากคำก่อนหน้า ก็เพียงพอให้เข้าใจได้เกือบทั้งหมดแล้ว
ไม่รู้สึกว่าจำเป็นต้องใช้อุปมาแบบมนุษย์เลย
ข้อโต้แย้งหลักของผู้เขียนคล้ายกับมุมมองของ Searle ว่าระบบที่อาศัยการคำนวณ ฟังก์ชัน และกฎเชิงไวยากรณ์ ไม่สามารถจำลองจิตใจที่แท้จริงได้
หลายคนอาจเห็นด้วยหรือไม่เห็นด้วย แต่สุดท้ายคำตอบขึ้นอยู่กับว่าคุณรับสมมติฐานอะไรไว้ โดยเฉพาะสมมติฐานเรื่องสำนึก
ผู้เขียนคิดว่าการโฟกัสที่ระบบเทคนิคที่เป็นรูปธรรม มากกว่าการเปรียบแบบมนุษย์ เป็นแนวทางที่มีประสิทธิผลกว่า แต่ผมเห็นด้วยเพียงระดับนั้น
แยกจากประเด็นนี้ ผมก็ยอมรับเช่นกันว่าแม้ระบบจะเป็นเพียงระบบความน่าจะเป็นที่เดินตามกฎ แต่ก็มีคุณสมบัติบางอย่างที่ emergent, คาดไม่ถึง และดูคล้ายจิตใจเกิดขึ้น
คนที่มีพื้นฐาน ML และคณิตศาสตร์มักไม่คิดว่าระบบแบบนี้มีศีลธรรม อารมณ์ หรือความเป็นปัจเจกแบบมนุษย์ แต่สำหรับคนส่วนใหญ่ การเข้าถึงมันในฐานะโครงสร้างทางคณิตศาสตร์นั้นยากอยู่แล้ว และสิ่งที่เห็นภายนอกก็ทำให้รู้สึกว่ามัน “ดูเหมือน” มนุษย์
เพราะฉะนั้นในเชิงปฏิบัติ การตั้งคำถามโดยเริ่มจากคุณลักษณะแบบมนุษย์ก็ยังมีความหมายพอสมควร
สุดท้ายผมคิดว่าเราต้องมีทั้งสองแบบ: มุมมองแบบระบบเทคนิคสุดขั้ว และมุมมองเชิงคุณภาพ-อัตวิสัยที่อิงประสบการณ์ทางจิตของผู้ใช้
ผมคิดว่าแนวคิดว่า “มีบางอย่างที่ emergent และ mind-like” จะฟังดูเป็นธรรมชาติกว่าสำหรับคนที่ไม่ค่อยรู้กลไกการทำงานของระบบนั้น
ก็เหมือนกฎของ Clarke ที่ว่า “เทคโนโลยีใดก็ตามที่ก้าวหน้ามากพอ ย่อมแยกไม่ออกจากเวทมนตร์” ซึ่งเกณฑ์นั้นต่างกันไปตามระดับความเข้าใจเทคโนโลยีของแต่ละคน
สำหรับสาธารณะที่มี literacy ทางเทคนิคต่ำ ก็ถึงขั้นเกิดปรากฏการณ์ Godbot ที่ยก AI ขึ้นแทบเป็นสิ่งศักดิ์สิทธิ์
บทความที่เกี่ยวข้อง: Spectator - ความเสี่ยงของ AI Godbots, บทความ arXiv, Guardian - หมอดู AI ในไทย
ขอบคุณที่ช่วยนำเสนอมุมมองที่สมดุลได้ดีมากในประเด็นนี้
น่าแปลกที่บน HN มีทั้งคนที่ปฏิบัติต่อ LLM อย่างใช้อารมณ์เกินไป และคนที่ยืนกรานว่า LLM ไม่มีความน่าสนใจหรือคุณค่าใด ๆ เลย
และผมก็ไม่เข้าใจท่าทีที่บางคนเลือกจะคัดค้านแบบไร้เหตุผล เพียงเพราะต่อต้านการตลาดที่เกินจริง
ที่รู้สึกว่ามัน emergent และ mind-like ก็เพราะท้ายที่สุดมันเลียนแบบรูปแบบการสื่อสารของมนุษย์ได้ดีกว่าระบบใด ๆ ในประวัติศาสตร์
ความสามารถนี้น่าประทับใจมาก และมีประโยชน์ใช้สอยจริงหลายอย่างที่ช่วยยกระดับคุณภาพชีวิตได้ แต่ “สติปัญญา” นั้นท้ายที่สุดก็เป็นเพียงภาพลวงตา
คนในอุตสาหกรรมทุกคนล้วนอยากเสริมภาพลวงตานี้โดยเจตนา และเหตุผลก็หนีไม่พ้นมูลค่าทางการเงิน
ผมยืนยันว่าไม่จำเป็นต้องทำแบบนั้นเลย
ไม่มีเหตุผลจะไปขยายมุมมองที่เข้าใจผิด ซึ่งอาจส่งผลร้ายแรงในอีกหลายประเด็น
LLM สะท้อนกระบวนการคิดของมนุษย์ได้เพียงบางส่วนเท่านั้น (และยังทำได้ไม่ดี)
ถ้าจะพยายามใส่ความหมายให้ปรากฏการณ์นี้มากกว่านั้น ก็เหมือนหลงคิดว่าคนในกระจกมีชีวิต
ที่กระจกสะท้อนมนุษย์ได้ ไม่ใช่เพราะธรรมชาติของกระจกเอง แต่เพราะมีมนุษย์ยืนอยู่ข้างหน้า
พอ LLM ไม่ได้รับเศษเสี้ยวความคิดของมนุษย์ (ในรูปข้อมูล) เป็นอินพุต มันก็จะไม่สะท้อนสิ่งที่คล้ายมนุษย์อีกต่อไป
ผมรู้สึกว่าผู้เขียนมีแนวโน้มจะติดป้ายทุกการพูดคุยว่าเป็น “การทำให้เป็นมนุษย์” ไปหมด
เขาดูยึดติดกับคำว่า “goal” มาก จนเหมือนมองว่าแค่ใช้คำนี้ก็เป็นการทำให้เป็นมนุษย์แล้ว
ยกตัวอย่างเช่น BFS ที่ประเมินคะแนนทุกกระดานหมากรุก และถ้าเจอ checkmate ก็พิมพ์ decision tree ทั้งหมดออกมา ก็ถือว่ามี “goal” เหมือนกัน
ผมคิดว่าการใช้คำเทคนิคอย่าง “goal” ตอนจินตนาการถึงเป้าหมายของ LLM หรือ AGI ไม่เกี่ยวอะไรกับการทำให้เป็นมนุษย์เลย
การใช้คำว่า "goal" ในบริบทของอัลกอริทึม RL ไม่มีปัญหาอะไรเลย
อยากให้เข้าใจว่าที่ผมคัดค้านมีแค่การใช้คำว่า "goal" ในบริบทของ LLM ตามที่เขียนไว้ในบทความเท่านั้น
ตั้งแต่เริ่มฉายแนวคิดอย่าง “สำนึก (consciousness)”, “จริยธรรม (ethics)”, “คุณค่า (values)”, “ศีลธรรม (morals)” ลงไปบนฟังก์ชันที่ผ่านการฝึกนี้ ผมก็เห็นด้วยต่อไม่ได้แล้ว
ท้ายที่สุดสิ่งที่เรากำลังจัดการก็คือสมการเวียนเกิดขนาดใหญ่ และมันจะไม่สร้างคำใด ๆ ถ้าเราไม่ทำให้มันทำงาน
ถ้าตามตรรกะนี้ เราควรกลับไปทบทวนแม้กระทั่งการอธิบายมนุษย์แบบมนุษย์เองหรือเปล่า
ผมไม่เห็นด้วยกับข้ออ้างที่ว่า “มันแปลกที่ยังมีการปฏิบัติต่อ LLM เหมือนมนุษย์ ทั้งที่มันก็เป็นเพียงฟังก์ชันสร้างลำดับ”
มนุษย์เองก็ไม่ได้ต่างกันนัก ในแง่ที่โดยกำเนิดแล้วก็เคลื่อนไปตามรายการของฟังก์ชันบางอย่าง
LLM ก็เป็นเพียงระบบประมาณค่าฟังก์ชันที่มีขนาดใหญ่มากขึ้น ขณะที่ธรรมชาติใช้วิวัฒนาการซึ่งคัดเหลือเพียงส่วนน้อยจากการแข่งขันเพื่ออยู่รอดตลอดหลายร้อยล้านปี ในการเปลี่ยนชนิดของฟังก์ชันไปเรื่อย ๆ
บางคนอาจเชื่อว่ามีบางอย่างพิเศษในมนุษย์ที่อยู่นอกกฎคณิตศาสตร์ แต่ก็ไปไม่พ้นจุดยืนแบบลึกลับนิยม (หรือความเชื่อเหนือธรรมชาติ)
ถ้าไม่คิดแบบนั้น ท้ายที่สุดประสบการณ์ของมนุษย์ก็น่าจะอธิบายได้ด้วยฟังก์ชันและการประมาณค่าฟังก์ชัน
ดูเพิ่ม: Universal Approximation Theorem บนวิกิพีเดีย
คำกล่าวที่ว่า “คุณเชื่อหรือว่ามีบางสิ่งเฉพาะมนุษย์ที่เหนือกว่ากฎคณิตศาสตร์” นั้นตัวมันเองก็เป็นข้อถกเถียง
เป็นเรื่องชัดเจนว่ามีบางด้านของประสบการณ์และภาษาที่ใช้พูดถึงมนุษย์ ซึ่งอยู่นอกขอบเขตคำอธิบายทางฟิสิกส์
ตัวอย่างเช่น คนตาบอดสีที่มองเห็นได้แค่ขาวดำและไม่เคยประสบสีแดงมาก่อน จะไม่มีทางมีประสบการณ์เชิงอัตวิสัยของ “สีแดง” ได้ด้วยระบบอธิบายใด ๆ
ผมจึงคิดว่าปรากฏการณ์บางอย่างที่ภาษามนุษย์ชี้ถึง ยังอยู่นอกคำอธิบายของฟิสิกส์
ผู้เขียนดูมีจุดยืนเกี่ยวกับจิตสำนึกมนุษย์ว่า “มีบางอย่างที่อธิบายด้วยฟังก์ชันไม่ได้”
จากประสบการณ์ ผมรู้สึกว่าผู้คนมีความเชื่อพื้นฐานแบบนี้อยู่แล้ว (จากศาสนา สมมติฐานเชิงปรัชญา ฯลฯ) และต่อให้บอกให้กันมันออกจากการถกเถียง ก็แทบไม่ช่วยอะไร
จะให้ใช้งานได้จริงกว่าก็คือยอมรับสมมติฐานนั้นไว้ แล้วค่อยคุยต่อบนฐานนั้น
แม้จะยอมรับว่า LLM ก็เป็นเพียงฟังก์ชันแบบ “ห้องภาษาจีน” ที่แปลได้แต่ไม่เข้าใจความหมาย มันก็ยังคงแสดงพฤติกรรมที่ดูเป็นมนุษย์ออกมาอยู่ดี
ถึงการเปรียบแบบมนุษย์จะผิดในเชิงเทคนิค แต่มันก็มีประโยชน์มากกว่าในทางปฏิบัติ หากต้องการคาดการณ์พฤติกรรมของระบบและใช้งานมันอย่างมีประสิทธิภาพ
ในทางกลับกัน เวลาพูดถึงมนุษย์ก็แค่กันประเด็นว่ามนุษย์ต่างจากฟังก์ชันอย่างไรออกไป
คนอาจพูดว่า "มนุษย์ต่างจากฟังก์ชันอย่างมหาศาล... คุณไม่สามารถคำนวณความน่าจะเป็นที่มนุษย์จะสร้างลำดับนี้ได้" แต่ยกตัวอย่างเช่น ถ้าคุณโยนวลีป๊อปคัลเจอร์บางอย่างออกมา ก็พอเดาได้ว่าชาวอเมริกันบางช่วงวัยจำนวนมากมีโอกาสจะร้องต่อประโยคถัดไปสูงมาก แปลว่าในเงื่อนไขบางอย่าง มนุษย์ก็ยังคำนวณเชิงความน่าจะเป็นได้เหมือนกัน
ผมคิดว่าอาจพูดได้แค่ว่า “มนุษย์ถูกจำลองการให้เหตุผลหรือกระบวนการคิดเชิงวิเคราะห์ได้ดีที่สุดด้วยพีชคณิตเชิงเส้น” เท่านั้น
สุดท้ายแล้วความคาดหวังว่า LLM จะเป็นมากกว่า “โมเดล” เป็นความหวังเชิงความเชื่อที่ถูกขับเคลื่อนโดยผลประโยชน์ในหลายวงการ หลายอาชีพ หลายเส้นทางชีวิต
ถึงอย่างนั้นก็ยังไม่มีหลักฐานที่เป็นรูปธรรมว่าเหตุใดโมเดลพีชคณิตเชิงเส้นจึงสามารถจำลอง “ชีวิต” หรือ “บางแง่มุมของความมีชีวิต” ได้อย่างครบถ้วน
ถ้าอาจมีกรณีแบบ Gödel อย่าง “แมวซอมบี้” ได้ ก็ไม่มีเหตุผลอะไรจะต้องมองโมเดลความน่าจะเป็นพื้นฐานนั้นว่าเป็นสิ่งเหนือชั้นเกินจริง
เมื่อมีการอ้างถึง “ทฤษฎีบท Universal Approximation” ผมก็มักตีความขยายไปว่า มันหมายถึงสามารถใช้ lookup table ที่ดีขึ้นเรื่อย ๆ สำหรับการประมาณค่าฟังก์ชันได้
ในบางสถานการณ์ การจำให้ชัดว่า LLM เป็นเครื่องสร้างคำแบบอิงความน่าจะเป็นนั้นสำคัญมาก
แต่สำหรับการใช้งานประจำวัน การปฏิบัติต่อมันแบบมนุษย์กลับใช้ได้ผลดีกว่ามากในทางปฏิบัติ
เมื่อปฏิบัติกับมันแบบมนุษย์ มันทำหน้าที่เป็นนามธรรมเชิงปฏิบัติที่ช่วยชักนำคำตอบที่ต้องการได้ง่าย
มันไม่ใช่อุปมาที่สมบูรณ์แบบ แต่ยกตัวอย่างเช่นกรณีที่มีคน “ขู่” ว่าถ้า LLM ส่งออก JSON ไม่ได้จะมีคนตาย นี่ไม่ใช่พฤติกรรมที่ใครจะนึกออกเลยถ้าคิดกับมันแบบ gradient descent อย่างเดียว
ผู้คนมีแนวโน้มจะใส่ความเป็นมนุษย์ให้ทุกสิ่งรอบตัว
ทั้งสิ่งไม่มีชีวิต (เรือ รถยนต์ ฯลฯ) สัตว์ หรือแม้แต่พืช หลายคนก็ยังพูดกับมัน และทำเช่นนั้นโดยสัญชาตญาณ
คนส่วนใหญ่ก็รู้ดีว่ารถของตัวเองไม่ได้รักตัวเอง แต่สำหรับ LLM แบบสนทนา ก็มีคนไม่น้อยที่เชื่อว่ามันมีสำนึกจริง ๆ
LLM ไม่ได้ “เรียนรู้” หรือ “ปรับตัว” เหมือนสมองมนุษย์ (อย่างน้อยก็ยังไม่ใช่ตอนนี้) มันถูกฝึกแล้วจากนั้นก็เป็นเอนทิตีแบบอ่านอย่างเดียว
ถึงอย่างนั้น LLM ก็ถูกออกแบบมาโดยเจตนาให้เลียนแบบการสื่อสารแบบมนุษย์
เพราะแบบนี้การฉายภาพและการทำให้เป็นมนุษย์จึงเกิดขึ้นอย่างหลีกเลี่ยงไม่ได้
มันอาจยังไม่ใช่ AGI แต่ก็ชัดเจนว่าได้แรงบันดาลใจจากวิธีการเรียนรู้ของมนุษย์ และแค่ไปได้ถึงจุดนี้ก็น่าสนใจมากแล้ว
ในระยะสั้น LLM ได้กลายเป็นเครื่องมือเชิงปฏิบัติที่ใช้งานง่ายกว่ามากในฐานะอินเทอร์เฟซแบบสนทนา และถูกออกแบบมาเป็นวิธีสื่อสารที่มนุษย์ใช้งานได้สะดวกจริง ๆ
ผลคือใคร ๆ ก็ใช้มันได้อย่างมีประสิทธิภาพทันทีโดยแทบไม่ต้องฝึกพิเศษ
ผมไม่เห็นด้วยกับคำว่า “ผู้คนใส่ความเป็นมนุษย์ให้สิ่งต่าง ๆ” นั่นเป็นการปนกันของคำศัพท์
การใช้สำนวนเชิงบุคลาธิษฐานกับสิ่งไม่มีชีวิต (personification) ต่างจากการฉายความเป็นมนุษย์และสำนึกลงไปจริง ๆ (anthropomorphism)
ในความเป็นจริงแทบไม่มีใครคิดว่ารถยนต์มีชีวิต
แต่กลับมีคนมากมายที่เชื่อว่า LLM มีสำนึก
คำอธิบายที่เกี่ยวข้อง: anthropomorphism vs personification
คำพูดที่ว่า “เหตุผลที่ LLM ไม่มีสำนึก เพราะมันไม่ได้เรียนรู้หรือปรับตัวเหมือนสมอง” ไม่ใช่ทั้งเงื่อนไขที่เพียงพอหรือจำเป็น
การมีสำนึกอาจไม่จำเป็นต้องมีการเรียนรู้ แต่จำเป็นต้องมีการรับรู้การไหลของเวลาและความจำระยะสั้น
แม้แต่ผู้ป่วยสมองเสื่อมรุนแรงก็แทบไม่มีความสามารถในการเรียนรู้แล้ว แต่ยังมีสำนึกเชิงอัตวิสัยว่า “ตอนนี้ฉันอยู่ที่นี่”
กล่าวคือ ถ้ายังมีความจำระยะสั้นเหลืออยู่นิดเดียว สำนึกก็ยังเป็นไปได้
และการเรียนรู้เองก็ไม่ได้ทำให้เกิดสำนึกโดยอัตโนมัติ
มีซอฟต์แวร์จำนวนมากที่เรียนรู้แบบเรียลไทม์ แต่ไม่มีภาวะอัตวิสัยใด ๆ เลย
คำถามของผมคือ หรือจริง ๆ แล้วสมองมนุษย์ก็อาจทำงานคล้าย LLM ก็ได้ไม่ใช่หรือ
สมองเองก็เกิดจากการเปลี่ยนแปลงเชิงวิวัฒนาการ การกลายพันธุ์ และอัลกอริทึมรางวัลเชิงวิวัฒนาการ ที่สร้างโครงสร้างเฉพาะขึ้นมา
โครงสร้างนั้นท้ายที่สุดก็เพิ่มโอกาสรอดและการสืบพันธุ์ให้สูงสุดผ่านการพยากรณ์/การกระทำ และเป้าหมายย่อยประกอบต่าง ๆ (ศีลธรรม คุณค่า สำนึก ฯลฯ) ก็วิวัฒน์แตกแขนงตามมาเป็นความซับซ้อน
สุดท้ายแล้ว ถ้ามีพลังคำนวณเพียงพอ โครงสร้างทั้งหมดนี้ (รวมทั้งโลกและการไหลของเวลา) ก็อาจเขียนให้อยู่ในรูปฟังก์ชันกำหนดแน่นอนได้ไม่ใช่หรือ
เมื่อคิดว่าการเกิดขึ้นของชีวิตเองก็เป็นความจริงที่เกิดจากความน่าจะเป็นที่ดูเหมือนแทบเป็นไปไม่ได้ “ความมหัศจรรย์” ทั้งหมดในตอนนี้ก็น่าจะลดรูปกลับไปเป็นระบบคณิตศาสตร์ได้ในที่สุด
สำหรับคำถามว่า "สมองมนุษย์อาจเหมือน LLM หรือเปล่า" ผมอยากถามกลับว่าคุณลืมทุกอย่างจากบทสนทนาก่อนหน้าทุกครั้งหลังคุยจบไหม
ถ้าคุณคุยกับคนรอบตัวแล้วอีกฝ่ายต้องให้พูดทุกอย่างซ้ำอย่างแม่นยำทุกครั้งถึงจะรู้บริบท ผมคงแนะนำให้ไปพบผู้เชี่ยวชาญตั้งแต่ตอนนี้
คงต้องดูหนังความจำเสื่อมอย่าง Memento (2000) ประกอบด้วย แนะนำอย่างยิ่ง
สิ่งสำคัญคือเราไม่ควรยกอารมณ์ ศีลธรรม หรือแรงจูงใจให้เครื่องจักร
เพราะเครื่องจักรไม่มีสิ่งเหล่านี้เลย
ผมคิดว่ามีหลายจุดที่คล้ายสมองมนุษย์อยู่มาก
LLM คือผลลัพธ์ล่าสุดของงานวิจัยการสร้างแบบจำลองสมองมนุษย์ในเชิงคำนวณที่สืบเนื่องมาอย่างน้อย 80 ปี
จุดแข็งที่สุดของ LLM คือถึงจะล้มเหลวก็แทบไม่มีต้นทุนอะไร
แค่เปลี่ยน prompt แล้วลองใหม่ หรือไม่ก็ฝึกใหม่
แต่มนุษย์ถ้าพลาดครั้งหนึ่ง ชีวิตอาจตกอยู่ในอันตรายได้
ความผิดพลาดของ LLM ไม่มีผลตามมาร้ายแรง แค่เปลี่ยนคำสั่งก็พอ
มีคนบอกว่า “พอผู้คนเริ่มยัดสำนึก จริยธรรม คุณค่า ศีลธรรม ใส่ให้ LLM ก็เริ่มสับสนกันแล้ว”
แต่การถกเถียงแบบนี้จะเกิดประโยชน์ได้ก็ต่อเมื่อมีตัวอย่างที่เป็นรูปธรรมเพิ่มเข้ามา ทว่าในโลกจริงการสนทนากลับมักจะคุยกันคนละเรื่อง
ยกตัวอย่างเช่น เมื่อได้ยินประโยคอย่าง “โมเดลต้องการ X แต่รู้ว่า Y ผิด จึงเลือก Z” ฝ่ายหนึ่งจะตีความว่าเป็นการยกสำนึก/คุณค่าให้โมเดล แต่อีกฝ่ายมองว่าเป็นแค่การอธิบายพฤติกรรมภายนอกแบบอุปมาเท่านั้น (ประมาณ “น้ำอยากไหลลงต่ำ”)
สุดท้ายการเล่นคำแบบนี้ก็มักกลายเป็นเส้นขนานระหว่าง “ฉันจะอธิบายเชิงปรัชญา” กับ “ฉันอยากคุยแค่เรื่องเรือดำน้ำ”
เป็นโครงสร้างของการสนทนาที่พาไปสู่ข้อถกเถียงที่มีประสิทธิผลได้ยาก