เอกสารไวท์เปเปอร์ทางเทคนิคว่าด้วยความขัดแย้งเชิงโครงสร้างของการแก้ไขตัวเองแบบอัตโนมัติของ AI และสถาปัตยกรรมเชิงกำหนด
(drive.google.com)ไปเจอเอกสาร PDF ที่น่าสนใจฉบับหนึ่งระหว่างท่องอินเทอร์เน็ต พอลองอ่านดูแล้ว เนื้อหาสำหรับผมถือว่าค่อนข้างช็อกเลย เลยอยากเอามาแชร์ครับ
ช่วงนี้ในวงการ AI ดูเหมือนทุกคนกำลังผลักดันแนวทางแบบ multi-agent กันอยู่ แต่เนื้อหานี้เหมือนกำลังวิจารณ์แนวทางนั้น และบอกว่าไม่ควรให้ AI มีความเป็นอิสระ แต่ควรใช้มันเหมือนเป็น 'ชิ้นส่วนสำหรับเรนเดอร์' ไปเลยมากกว่า
แม้แต่ชื่อเอกสารก็ยังเป็นชื่อชั่วคราว และพอเห็นว่าช่วงท้ายมีการพูดถึงข้อมูลพิสูจน์เชิงประจักษ์ (PoC) บางอย่าง ก็เลยรู้สึกว่าอาจเป็นไวท์เปเปอร์ภายในที่เขียนไว้เพื่อใช้ระดมทุนจากบริษัทดีปเทคหรือสถาบันวิจัยแห่งไหนสักแห่ง แล้วหลุดออกมาก็ได้
พูดตามตรง ผมเองก็ไม่ได้เข้าใจเนื้อหาทั้งหมดแบบ 100% แต่โทนที่ออกมาประมาณว่าทิศทางที่บิ๊กเทคกำลังไปกันอยู่นั้นผิด มันค่อนข้างน่าสนใจมาก เลยเอามาโพสต์ครับ
ไม่ใช่บทความข่าวอย่างเป็นทางการนะครับ ผมเลยอัปขึ้น Google Drive ของตัวเองแล้วแชร์ลิงก์ไว้
5 ความคิดเห็น
สำหรับวิศวกรที่ทำงานกับ AI ข้อสมมติฐานพื้นฐานที่ชัดเจนอยู่แล้วและไม่เคยเป็นความลับเลยก็คือ ในโมเดลภาษาขนาดใหญ่ (LLM) ทั้ง 'ความคิดสร้างสรรค์' และ 'ภาพหลอน (Hallucination)' ท้ายที่สุดแล้วล้วนเป็นผลลัพธ์ของการทำนายโทเคนถัดไปแบบความน่าจะเป็น (Next-token prediction) เหมือนกัน แต่ไวต์เปเปอร์ฉบับนี้กลับพูดเกินจริงราวกับกำลังเปิดโปงความลับสำคัญอะไรบางอย่าง
ตรรกะที่จำกัดและวิจารณ์ 'การแก้ไขตนเองแบบอัตโนมัติ' ของ multi-agent ว่าเป็นเพียง 'การวนซ้ำแบบถ้อยคำเดิมในบริบทเดียวกัน (Homogeneous Iteration)' นั้นน่าเสียดายอยู่พอสมควร
หากลองผสาน intelligent agent เข้ากับ IDE ในสภาพแวดล้อมการพัฒนาจริง และทำ prompt engineering ขั้นสูง จะเห็นว่าธรรมชาติแบบความน่าจะเป็นของโมเดลเช่นนี้ ไม่ได้เป็น 'ข้อบกพร่องร้ายแรงที่ไม่อาจเอาชนะได้' แต่เป็นเพียง 'เงื่อนไขพื้นฐาน' ที่ต้องถือเป็นค่าคงที่เมื่อออกแบบระบบเท่านั้น แนวทางในภาคสนามคือเริ่มจากสมมติฐานอยู่แล้วว่าโมเดลอาจหลุดออกจากบริบทได้ แล้วจึงจัดเตรียมบริบทที่แยกจากกันอย่างชัดเจน หรือสร้างอำนาจควบคุมที่ใช้งานได้จริงผ่านบริบทคนละสเกล
แต่ไวต์เปเปอร์ฉบับนี้กลับนำข้อเท็จจริงพื้นๆ ที่ใครก็รู้นี้ไปห่อหุ้มด้วยศัพท์วิชาการใหญ่โตอย่าง 'categorical error' และ 'probabilistic detour' เพื่อสร้างความวิตกกังวล จุดประสงค์นั้นดูชัดเจน เพราะมีเพียงการลดทอนคุณค่าความเป็นอิสระของ LLM ลงอย่างสิ้นเชิงเท่านั้น จึงจะสามารถขยายคุณค่าของ 'เครือข่ายควบคุมเชิงกำหนดตายตัวที่มนุษย์ออกแบบเองโดยตรง (ระบบ SERA)' ที่พวกเขาเสนอได้สูงสุด
ท้ายที่สุด บทความนี้จึงใกล้เคียงกับ sales pitch ที่มีอคติมากกว่าไวต์เปเปอร์ที่มีดุลยภาพทางเทคนิค โดยมุ่งโน้มน้าวผู้มีอำนาจตัดสินใจในสภาพแวดล้อมองค์กรที่หวาดกลัวความเสี่ยงจากปรากฏการณ์ภาพหลอนว่า "แทนที่จะใช้ agent ที่ควบคุมไม่ได้ จงนำ deterministic pipeline แบบ hard-coded ของเรามาใช้"
เป็นบทความที่ไร้สาระ มีแต่การไล่เรียงข้อโต้แย้ง แต่ไม่มีทั้งหลักฐานชี้ขาดรองรับข้ออ้างและการทดลองโดยตรง
เหมือนเป็นแค่ภาคต่อที่น่าเบื่อของคำพูดของ Yann LeCun อย่าง "ต่อให้ไปถึง GPT-5000 โมเดลก็จะยังเรียนรู้ไม่ได้ว่า ถ้าวางของไว้บนโต๊ะแล้วผลักโต๊ะ ของก็จะถูกผลักไปด้วย" หรือ "โมเดลแบบอัตถถดถอยเมื่อไปถึงลำดับที่ยาวขึ้นก็จะพังทลายลงอย่างเลี่ยงไม่ได้เพราะความผิดพลาดสะสม" ...
พูดกันตรงๆ ก็อดสงสัยไม่ได้ว่านี่อาจไม่ใช่อัปโหลดเพื่อไวรัลให้บริษัทที่ถูกพูดถึงท้ายไวต์เปเปอร์
นี่มันไม่ใช่เรื่องล้อเล่นแล้วนะ..
ผมคิดว่านี่ก็เป็นเพียงวาทกรรมเกี่ยวกับ Neuro-Symbolic ที่สืบต่อกันมาตั้งแต่ก่อนอยู่แล้ว ช่วงหนึ่งเคยมีสมัยที่ให้ความหมายกับคำว่า "deterministic" มากกว่าตอนนี้เสียอีก แต่เมื่อประสิทธิภาพดีขึ้นจนโมเดลเชิงความน่าจะเป็นสามารถประมาณได้ใกล้ระดับ deterministic ประเด็นให้ถกเถียงหลายอย่างก็หายไป ท้ายที่สุดแล้ว สิ่งที่เราต้องการมาโดยตลอดไม่ใช่อะไรที่เป็น deterministic แต่เป็นความไม่แน่นอนที่ "ยอมรับได้" มากกว่า ในแง่นั้น อย่างน้อยถ้ามองจากฝั่ง "อุตสาหกรรม" ไม่ใช่ "แวดวงวิชาการ" ก็คงไม่จำเป็นต้องให้ความหมายกับ deterministic มากเกินไปนัก อย่างน้อยในจุดที่ความไม่แน่นอนของโมเดลเชิงกำเนิดปัจจุบันยังคงทรงตัวอยู่ การบูรณาการจะเกิดขึ้นภายหลังก็ไม่ได้สายเกินไปเลย
เขียนไว้ซับซ้อน แต่สุดท้ายสิ่งที่อยากพูดก็คือเป็นเรื่องที่ใช้กับมนุษย์ได้เหมือนกัน
ประเด็นคือ ถ้าบทความที่คนโง่ A เขียน ถูกคนโง่ A กลับมาอ่านอีกครั้ง มันจะกลายเป็นบทความที่ดีขึ้นจริงหรือ
แน่นอนว่าในบางกรณีก็มีโอกาสที่จะดีขึ้นได้ และก็มีความน่าจะเป็นที่จะเดาข้อสอบทุกข้อแล้วได้คะแนนเต็มสอบเข้ามหาวิทยาลัย แต่ในกรณีส่วนใหญ่ก็แค่ย้อนกลับไปสู่ระดับเฉลี่ยของคนโง่ A เมื่อนำมาทำซ้ำ N ครั้งเท่านั้น
(สำหรับ Chapter 2 ผมคงยังเห็นด้วยทั้งหมดไม่ได้)
แต่อย่างน้อยก็อยากให้เข้าใจกันหน่อยว่า what-ever Scaling Law อย่างที่บทความพูดถึงนั้น เป็นกฎการเพิ่มขึ้นชั่วคราว ไม่ใช่อะไรที่จะคงอยู่ตลอดไป
ถ้าอ่านบทความของ OpenAI อย่างถูกต้อง ก็คงไม่พูดอะไรแบบนี้หรอก
จริง ๆ แล้ว แทนที่จะมีบทความแบบนั้น 100 ฉบับ แค่พิสูจน์ให้ได้ว่าคนที่อ้างว่า "ทำได้" เป็นคนที่ทำได้จริง เรื่องก็คงจบแล้ว
ปัญหาคือเอาแต่เล่นแร่แปรธาตุแบบ "ทำได้" กันอยู่นั่นแหละ