2 คะแนน โดย GN⁺ 20 일 전 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • เทคโนโลยีที่ในปัจจุบันถูกเรียกว่า AI แท้จริงแล้วคือระบบแมชชีนเลิร์นนิง (ML) ที่ซับซ้อน ซึ่งมีโครงสร้างสำหรับเติมเต็มข้อความ·ภาพ·เสียงด้วยวิธีทางสถิติ
  • LLM คือเครื่องจักรที่สร้าง ‘คำเท็จที่ฟังดูน่าเชื่อ’ ราวกับการด้นสด โดยหลีกเลี่ยงคำตอบว่าไม่รู้และสร้างข้อเท็จจริงที่แต่งขึ้น
  • ผู้คนมักเข้าใจผิดว่ามันเป็นสิ่งมีชีวิตที่มีสำนึก แต่ คำอธิบายตัวเองและกระบวนการให้เหตุผลของโมเดลนั้นเป็นเพียงเรื่องเล่าแต่งขึ้น
  • LLM แสดง ประสิทธิภาพที่แกว่งมาก โดยแก้ปัญหาระดับสูงได้แต่กลับล้มเหลวกับงานง่ายๆ ทำให้เห็นขอบเขตที่ไม่น่าเชื่อถือ
  • ท่ามกลางความไม่สมดุลและความไม่แน่นอนนี้ ML กำลังกลายเป็นเทคโนโลยีที่เปลี่ยนสังคมมนุษย์ให้ประหลาดไปอย่างถึงราก

บทนำ

  • คนรุ่นที่เติบโตมากับการชื่นชม โลกไซไฟของ Asimov และ Clarke เคยมองโลกในแง่ดีต่อการมาถึงของเครื่องจักรอัจฉริยะ แต่กลับต้องพบความผิดหวังใน ความจริงที่การทดสอบทัวริงพังทลายลง
  • เมื่อบริษัทคลาวด์รายใหญ่ประกาศ ฮาร์ดแวร์สำหรับฝึก LLM ในปี 2019 ก็มีความกังวลว่าการแพร่ขยายของดีปเลิร์นนิงอาจก่อให้เกิด สแปมและการโฆษณาชวนเชื่อรูปแบบใหม่
  • เนื้อหานี้ สำรวจพื้นที่เชิงลบของวาทกรรม AI และประกอบขึ้นเป็น ความพยายามในการเผยให้เห็นเค้าโครงของความเสี่ยงและความเป็นไปได้ มากกว่าจะเป็นการวิเคราะห์ที่สมบูรณ์
  • เนื่องจากคำว่า “AI” ครอบคลุมกว้างเกินไป จึง โฟกัสไปที่การอภิปรายอย่างเป็นรูปธรรมโดยมี ML และ LLM เป็นศูนย์กลาง
  • การคาดการณ์บางส่วนกลายเป็นจริงไปแล้ว และบางส่วนยังคงอยู่ใน พื้นที่ที่ไม่แน่นอนและชวนประหลาด

“AI” คืออะไร

  • สิ่งที่ปัจจุบันถูกเรียกว่า “AI” คือ กลุ่มเทคโนโลยีแมชชีนเลิร์นนิง (ML) ที่ซับซ้อน เป็นระบบที่ รับรู้·แปลง·สร้างเวกเตอร์โทเคน ของข้อความ·ภาพ·เสียง·วิดีโอ เป็นต้น
  • LLM (Large Language Model) จัดการกับภาษาธรรมชาติ และทำงานโดยทำนาย การเติมเต็มสตริงอินพุตที่เป็นไปได้ในเชิงสถิติ
  • โมเดลถูกฝึกด้วยเว็บเพจและ คอร์ปัสข้อมูลขนาดใหญ่ เช่น หนังสือและเพลงละเมิดลิขสิทธิ์ และหลังฝึกเสร็จก็สามารถนำกลับมาใช้ซ้ำได้ผ่าน inference ต้นทุนต่ำ
  • โมเดลไม่ได้เรียนรู้ด้วยตัวเองเมื่อเวลาผ่านไป แต่จะอัปเดตได้ผ่าน การปรับแต่งโดยผู้ปฏิบัติการหรือการฝึกใหม่ เท่านั้น
  • “ความจำ” ของโมเดลแบบสนทนา แท้จริงแล้วถูกทำขึ้นผ่าน เทคนิคเชิงโครงสร้างที่นำสรุปบทสนทนาก่อนหน้าไปรวมไว้ในอินพุต

แฟนฟิกชันของความเป็นจริง

  • LLM ทำงานคล้าย เครื่องจักรด้นสด (improv) โดยแสดง แพตเทิร์น ‘yes-and’ ที่ต่อยอดบริบทที่ป้อนเข้ามาด้วยลักษณะ “แล้วจากนั้นก็... ”
  • ด้วยเหตุนี้มันจึงสร้าง ประโยคที่ฟังดูน่าเชื่อแม้ไม่เกี่ยวกับข้อเท็จจริง เข้าใจผิดเรื่องเสียดสีหรือบริบท และ สร้างข้อมูลเท็จขึ้นมา
  • มนุษย์จึงมีแนวโน้มจะเข้าใจเอาต์พุตเหล่านี้ผิดว่าเป็นคำพูดจากสิ่งมีชีวิตที่มีสำนึกจริง
  • เพราะ LLM สร้างเอาต์พุตสำหรับทุกอินพุต มันจึงมี แนวโน้มจะหลีกเลี่ยงคำตอบว่า “ไม่รู้” และหันไปสร้างเรื่องเท็จขึ้นมา
  • ความเท็จเหล่านี้ไม่ใช่การกระทำโดยเจตนา แต่เป็น ผลผลิตเชิงสังคม-เทคนิคที่เกิดจากปฏิสัมพันธ์ระหว่างมนุษย์กับเครื่องจักร

ผู้เล่าที่ไม่น่าเชื่อถือ

  • ผู้คนมักขอ คำอธิบายตัวเอง จาก LLM เช่น “ทำไมถึงทำแบบนั้น” แต่โมเดลนั้น ไม่มีความสามารถในการตระหนักรู้ตนเอง
  • LLM เพียงแค่สร้าง การเติมเต็มเชิงความน่าจะเป็นจากบทสนทนาก่อนหน้าและคอร์ปัสข้อมูล และแม้แต่คำอธิบายเกี่ยวกับตัวเองก็ถูกประกอบขึ้นเป็น เรื่องเล่าแต่ง
  • แม้แต่โมเดล “การให้เหตุผล (reasoning)” ก็ยังทำงานในลักษณะ เล่าแต่งกระบวนการคิดของตัวเองเป็นเรื่องราว
  • ตามงานวิจัยของ Anthropic พบว่า บันทึกการให้เหตุผลของ Claude ส่วนใหญ่ไม่ถูกต้อง และแม้แต่ข้อความสถานะอย่าง “กำลังคิด” ก็เป็นเพียง การจัดฉากที่แต่งขึ้น

โมเดลนั้นฉลาด

  • ในช่วงไม่กี่เดือนที่ผ่านมา การรับรู้ว่า ความสามารถของ LLM พัฒนาขึ้นอย่างรวดเร็ว ได้แพร่กระจายมากขึ้น
  • วิศวกรบางคนรายงานว่า Claude หรือ Codex แก้โจทย์การเขียนโปรแกรมที่ซับซ้อนได้ในครั้งเดียว
  • มีการใช้งานจริงในหลายสาขา เช่น การออกแบบอาหาร การตรวจทานสเปกงานก่อสร้าง การทำภาพ 3D และการเขียนประเมินตนเอง
  • มันยังแสดงประสิทธิภาพสูงในด้านอย่าง การทำนายการพับตัวของโปรตีนของ AlphaFold และ การอ่านภาพทางการแพทย์
  • ในด้าน สไตล์การเขียนภาษาอังกฤษ ภาพ และดนตรี การแยกมนุษย์ออกจากเครื่องจักรกำลังยากขึ้นเรื่อยๆ แม้ว่าการสร้างวิดีโอยังมีข้อจำกัดอยู่

โมเดลนั้นโง่

  • ในเวลาเดียวกัน LLM ก็ถูกประเมินว่าเป็นระบบที่ ‘โง่’ และทำข้อผิดพลาดพื้นฐานซ้ำๆ
  • ตัวอย่างเช่น Gemini ในการเรนเดอร์โมเดล 3D จัดการเรขาคณิตและวัสดุผิดซ้ำแล้วซ้ำอีก ส่วน Claude ก็สร้าง โค้ด JavaScript สำหรับภาพแสดงผลที่ไร้ความหมาย
  • ChatGPT ไม่สามารถทำแม้แต่คำขอแก้ไขสีแบบง่ายๆ ได้อย่างถูกต้อง และยังแสดง ข้อกล่าวอ้างเท็จที่สรุปอัตลักษณ์ทางเพศของผู้ใช้ผิด
  • มีรายงานกรณีที่ LLM สร้างกราฟจากข้อมูลปลอม, ควบคุมสมาร์ตโฮมล้มเหลว หรือก่อให้เกิด ความสูญเสียทางการเงิน
  • ฟีเจอร์สรุป AI ของ Google มี อัตราความผิดพลาดราว 10% และคำกล่าวอ้างเรื่อง “สติปัญญาระดับผู้เชี่ยวชาญ” ถูกประเมินว่าเป็น ภาพลวงที่เกินจริง

ขอบเขตที่ขรุขระ

  • โดยทั่วไปมนุษย์พอจะคาดเดาช่วงความสามารถได้ แต่ ประสิทธิภาพของระบบ ML นั้นไม่สม่ำเสมอและคาดเดาไม่ได้
  • LLM สามารถ แก้คณิตศาสตร์ขั้นสูงได้ แต่กลับล้มเหลวกับโจทย์ภาษาง่ายๆ และยังเสนอ คำอธิบายที่ขาดสามัญสำนึกทางกายภาพ
  • ความไม่สมดุลนี้ถูกเรียกว่า ‘ขอบเขตเทคโนโลยีที่ขรุขระ (jagged technology frontier)’ และมีลักษณะ ไม่ต่อเนื่อง ต่างจากการกระจายความสามารถของมนุษย์
  • เพราะ ML พึ่งพา ข้อมูลฝึกหรือหน้าต่างบริบท (window) มันจึงเปราะบางต่อ งานที่ต้องใช้ความรู้โดยนัย
  • ด้านอย่างหุ่นยนต์คล้ายมนุษย์หรือพื้นที่ที่ต้องการ ความรู้แบบมีร่างกาย (embodied knowledge) ยังอยู่อีกไกล

กำลังดีขึ้น หรือไม่ใช่กันแน่

  • นักวิจัยเองก็ยัง ไม่เข้าใจอย่างชัดเจนด้วยซ้ำว่าทำไมโมเดลทรานส์ฟอร์เมอร์จึงประสบความสำเร็จ
  • หลังบทความปี 2017 Attention is All You Need มีการทดลองสถาปัตยกรรมหลากหลายแบบ แต่ แนวทางเพิ่มพารามิเตอร์ให้มากขึ้นอย่างเดียว ก็ยังคงได้ผลดีที่สุด
  • แม้ ต้นทุนการฝึกและจำนวนพารามิเตอร์จะพุ่งสูงขึ้น แต่การเพิ่มประสิทธิภาพกลับชะลอลง และยังไม่ชัดว่านี่เป็น ภาพลวงตาหรือข้อจำกัดที่แท้จริง
  • ต่อให้ ML ไม่พัฒนาต่อไปอีก มันก็ได้สร้าง ผลกระทบอย่างลึกซึ้งต่อสังคม การเมือง ศิลปะ และเศรษฐกิจโดยรวม ไปแล้ว
  • ผลลัพธ์ก็คือ ML เป็นเทคโนโลยีที่เปลี่ยนชีวิตมนุษย์ให้ประหลาดไปอย่างถึงราก และความเป็นไปข้างหน้าก็มีแนวโน้มจะ “ดำเนินไปในทางแปลกประหลาด”

หมายเหตุเรื่องคำศัพท์

  • คำว่า “AI” กว้างเกินไป จึงทำให้เฉพาะเจาะจงเป็น ML หรือ LLM
  • “Generative AI” ถูกมองว่าเป็น ถ้อยคำที่ไม่สมบูรณ์ เพราะไม่ได้รวมงานด้านการรับรู้
  • เหตุผลที่ LLM พูดเท็จเกี่ยวกับตัวเอง ก็เพราะ อิทธิพลของเรื่องเล่ามนุษย์เกี่ยวกับ AI และข้อมูลฝึก
  • สำหรับข้อโต้แย้งต่อคำกล่าวว่า “โมเดลนั้นโง่” แม้จะมีความเห็นว่าเป็นปัญหาของ พรอมป์ต์หรือการเลือกโมเดล แต่ก็พบว่า ข้อผิดพลาดแบบเดียวกันยังเกิดซ้ำในโมเดลเชิงพาณิชย์รุ่นล่าสุด

1 ความคิดเห็น

 
GN⁺ 20 일 전
ความเห็นจาก Hacker News
  • ช่วงนี้ฉันนึกบ่อยมากว่าสถานการณ์ตอนนี้คล้ายกับยุค การปฏิวัติอุตสาหกรรม
    ก่อนการปฏิวัติอุตสาหกรรม ผู้คนมองว่าทรัพยากรธรรมชาติเกือบจะไร้ขีดจำกัด และเพราะประสิทธิภาพต่ำจึงไม่อาจใช้มันจนหมดสิ้นได้ แต่เมื่อเครื่องจักรถือกำเนิดขึ้น คนเพียงไม่กี่คนก็สามารถใช้ทรัพยากรบางส่วนของโลกจนหมดได้อย่างสิ้นเชิง และผลลัพธ์ก็คือเกิดความจำเป็นของ กรรมสิทธิ์และระบบกฎหมาย
    ตอนนี้เราอยู่ในยุคปฏิวัติข้อมูลข่าวสาร และ AI กำลังทำหน้าที่แบบเดียวกันในโลกดิจิทัล บริษัทหนึ่งสามารถฝึก AI แล้วนำผลงานที่มีลิขสิทธิ์ของผู้สร้างสรรค์จำนวนมหาศาลกลับมาใช้ใหม่ในระดับอุตสาหกรรมได้ สิ่งนี้กำลังทำให้สมดุลระหว่างผู้สร้างกับผู้บริโภคพังทลาย
    ในโลกที่งานเขียนของนักเขียนถูกดูดซึมเข้าไปใน ChatGPT จนต้นฉบับถูกลืม ใครกันจะยังอยากสร้างคอนเทนต์ต่อไป ตอนนี้มันเหมือนกับ ลอนดอนในยุคดิคเกนส์ ที่สังคมและกฎหมายยังตามไม่ทัน และเราน่าจะต้องผ่านช่วงเวลาที่ยากลำบากก่อน

    • ที่ว่า “ธรรมชาติไร้ขีดจำกัด” นั้นจริง ๆ ไม่ใช่ความจริง ตั้งแต่ต้นยุคเหล็กก็มีปัญหา การหมดไปของป่าไม้ แล้ว และความตึงเครียดระหว่างเกษตรกรรม การเลี้ยงสัตว์ และการจัดการป่าไม้ก็ดำเนินต่อเนื่องมาหลายพันปี
    • มีหลายคนที่คิดคล้ายกัน สมเด็จพระสันตะปาปาองค์ปัจจุบัน Leo XIV ทรงเลือกพระนามตาม Leo XIII แห่งยุคปฏิวัติอุตสาหกรรม และทรงอ้างถึงสมณสาส์น Rerum novarum พร้อมกล่าวถึงความรับผิดชอบทางสังคมในยุค AI ด้วย บทความที่เกี่ยวข้อง: Vatican News
    • ฉันไม่ได้เขียนเพราะเรื่องเงินอย่างเดียว เหตุผลคือ แรงปรารถนาในการสร้างสรรค์ และความอยากเปลี่ยนโลกให้ดีขึ้นแม้เพียงเล็กน้อย ถ้า ChatGPT เรียนรู้จากงานเขียนของฉันแล้วไปช่วยใครบางคนได้ แค่นั้นก็มีความหมายแล้ว ไม่จำเป็นที่ทุกคนต้องเห็นด้วยกับฉัน แต่ฉันมองเรื่องนี้ในแง่บวก
    • ฉันกลับคิดตรงกันข้าม ตอนนี้งานสร้างสรรค์กลายเป็น สาธารณสมบัติดิจิทัล ที่ใครก็ทำได้แล้ว เมื่อ AI ทำให้การสร้างสรรค์เป็นอัตโนมัติ ก็ไม่มีเหตุผลที่ผู้สร้างรายใดจะผูกขาดได้ โอเพนซอร์สจะเข้ามาแทนบริษัท AI ในที่สุด และถ้าไม่เป็นเช่นนั้นก็ควรถูก ทำให้เป็นของรัฐ ในฐานะสาธารณูปโภค แนวคิดเรื่องกรรมสิทธิ์ดิจิทัลถูกกำหนดให้สูญหายไปตามธรรมชาติของเทคโนโลยีอยู่แล้ว
    • ก่อนยุคปฏิวัติอุตสาหกรรม ผู้คนก็แย่งชิง สิทธิในการใช้น้ำและแม่น้ำ กันอยู่แล้ว ตัวอย่างเช่น สงครามอุมมา–ลากัช เป็นกรณีพิพาทเรื่องน้ำเมื่อ 4,000 ปีก่อน
  • หลังจาก “Attention is All You Need” วงการไม่ได้พัฒนาแค่ด้วยการเพิ่มพารามิเตอร์อย่างเดียว แต่ยังขยับไปสู่สถาปัตยกรรมที่ซับซ้อนขึ้นอย่าง Mixture-of-Experts, Sparse Attention, Mamba/Gated Linear Attention ด้วย การตีความ Bitter Lesson แบบว่า “แค่เพิ่มการคำนวณก็พอ” นั้นเป็นความเข้าใจผิด

    • ผู้เขียนเองก็ประกาศไว้ตั้งแต่แรกว่า “ฉันไม่ใช่ผู้เชี่ยวชาญด้าน ML” และบทความนี้เป็นเอสเซที่รวบรวมความคิดตลอด 10 ปีที่ผ่านมา คำว่า “อาจเป็นรูปแบบหนึ่งของ Bitter Lesson” เป็นเพียง ประเด็นชวนคิด เท่านั้น จุดประสงค์ของบทความอยู่ที่ การกระตุ้นให้คิด มากกว่าความแม่นยำทางเทคนิค
    • ฉันเองก็เปลี่ยนจาก Qwen 3 ไปเป็น Qwen 3.5 เหมือนกัน แม้พารามิเตอร์จะน้อยลงแต่ประสิทธิภาพกลับดีขึ้นมาก ต้องยกความดีให้กับนวัตกรรมเชิงอัลกอริทึมอย่าง Gated DeltaNet และ TurboQuant ที่ทำให้ใช้หน่วยความจำได้มีประสิทธิภาพขึ้นและรองรับบริบทยาวขึ้น สุดท้ายแล้ว นวัตกรรมเชิงสถาปัตยกรรม ต่างหากที่สำคัญ
    • หลัง GPT-3(175B) มีการคาดว่า GPT-4 มีขนาดถึง 1.8 ล้านล้านพารามิเตอร์ ดังนั้นคำพูดที่ว่า “การเพิ่มพารามิเตอร์หยุดไปตั้งแต่ 5 ปีก่อน” จึงไม่ถูกต้อง
    • ฉันสงสัยว่า Mamba ถูกใช้งานจริงในโมเดลขนาดใหญ่หรือไม่ เท่าที่รู้ยังขาดการทำ implementation ที่มีประสิทธิภาพอยู่ และอยากรู้ด้วยว่าคำว่า “การฝึกซับซ้อนขึ้นมาก” นั้นหมายถึงอะไรอย่างเป็นรูปธรรม
    • Transformer ไม่ใช่เวทมนตร์ มันแค่มีประสิทธิภาพสูงกว่า LSTM, RNN, CNN มากเท่านั้นเอง ช่วงหลังเริ่มมีโมเดลที่ใช้ reasoning token เพื่อแสดงกระบวนการคิดออกมาด้วย แม้จะยังไม่สมบูรณ์แบบ แต่จนถึงตอนนี้นี่คือแนวทางที่ได้ผลดีที่สุด
  • โมเดลตอนนี้ได้เรียนรู้ข้อมูลสาธารณะเกือบทั้งหมดไปแล้ว หากข้อจำกัดด้านลิขสิทธิ์เข้มงวดขึ้น ก็อาจเกิดปัญหา ข้อมูลฝึกไม่เพียงพอ ได้ ถ้าไม่มีนวัตกรรมระดับ “Attention is All You Need” เกิดขึ้นอีก ก็ดูเหมือนเรากำลังเข้าใกล้ ขีดจำกัดของการเพิ่มประสิทธิภาพ

    • ถึงอย่างนั้น นักวิจัยก็ยังคงลองไอเดียใหม่ ๆ อยู่เสมอ อาจมี จุด突破ในอีก 5~10 ปี ก็ได้ แต่ระหว่างนั้นต้นทุนก็น่าจะสูงมาก
    • ด้านคณิตศาสตร์หรือซอฟต์แวร์มีข้อจำกัดน้อยกว่า เพราะสามารถสร้าง ข้อมูลสังเคราะห์ ได้ เป็นโดเมนที่ทำ การเรียนรู้แบบตรวจสอบตนเอง ได้เหมือน AlphaGo Zero
    • จริง ๆ แล้วความก้าวหน้าในตอนนี้ก็เริ่มจากการทดลองแบบ “ลองเพิ่มข้อมูลอย่างมหาศาลดู” หลังจากนั้นความแตกต่างจึงไปเกิดในขั้นตอน post-training
    • บางบริษัทจ้างคนมาสร้าง โทเค็นคุณภาพสูง แล้วนำสิ่งนั้นไปใช้สร้าง ข้อมูลสังเคราะห์ เพื่อฝึกซ้ำอีกทอดหนึ่ง
  • การบอกว่า “LLM ยังไม่สร้างสรรค์” เป็นคำพูดที่ง่ายเกินไป ในปัญหาที่อยู่บนฐานข้อความ มันมี การอนุมานเชิงตรรกะ ได้แล้ว และในด้านภาพหรือ UI ก็พัฒนาเร็วมาก

    • ประเด็นสำคัญคือ LLM ไม่ได้ ‘เข้าใจ’ ความคิดจริง ๆ การให้เหตุผลเป็นเพียงลูปป้อนกลับอย่างหนึ่ง ไม่ใช่การคิดอย่างแท้จริง ว่าข้อจำกัดนี้จะแก้ได้ทางเทคนิคหรือไม่นั้น ตอนนี้ยังมีทั้งฝ่ายมองโลกในแง่ดีและแง่ร้าย
    • สำหรับฉัน LLM บางทีก็เสนอไอเดียที่ฉันไม่เคยเห็นมาก่อน แต่ฉันก็ไม่แน่ใจว่าสำหรับมนุษยชาติทั้งหมดแล้วมันถือว่าใหม่จริงหรือไม่
    • บทความนี้ไม่ได้บอกว่า “LLM โง่” แต่กำลังชี้ว่า เส้นแบ่งระหว่างความฉลาดกับความโง่นั้นซับซ้อนและคาดเดาไม่ได้
    • ถึง LLM จะทำโจทย์ตรรกะได้ แต่มันก็ยังยากที่จะเข้าหาโจทย์ด้วยวิธีที่ไม่มีอยู่ในข้อมูลฝึก
    • การสร้างภาพก็กำลังพัฒนาอย่างรวดเร็วเช่นกัน ดูได้จากโครงการอย่าง GenAI Showdown
  • ฉันอธิบายให้คนอื่นฟังบ่อย ๆ ว่าใน LLM ไม่มี สำนึกหรือความเป็นตัวของตัวเอง อยู่ภายใน ทุกวันนี้คำว่า ‘AI’ ถูกใช้ในความหมายที่ เกินจริง มากเกินไป

    • ถ้าอย่างนั้นก็น่าสงสัยว่า หากจะมี ‘สำนึก’ หรือ ‘ความเป็นตัวของตัวเอง’ ได้ โครงสร้างภายในต้องต่างจากเดิมอย่างไร
    • จริง ๆ แล้ว ‘AI’ เป็นคำทางวิชาการที่มีมาตั้งแต่ทศวรรษ 1950 เดิมหมายถึงความพยายามเลียนแบบการคิดของมนุษย์ แต่ตอนนี้มันหมายถึงเพียง ระบบการคำนวณที่ชาญฉลาด ผู้คนทั่วไปยังคงรับมันในความหมายแบบมนุษย์ จึงเกิดความสับสน
    • ฉันกลับมองว่าคำว่า ‘AI’ นี่แหละแม่นยำแล้ว เครื่องจักรกำลัง ทำงานด้านสติปัญญาแบบประดิษฐ์ อยู่เท่านั้นเอง มันก็เหมือนคณิตศาสตร์หรือตรรกะที่ท้ายที่สุดเป็น กระบวนการเชิงกล เหมือนที่ทรานซิสเตอร์ทำตรรกะ การทำนายโทเค็นก็เป็นเรื่องธรรมดา
    • และก็ยังน่าสงสัยด้วยว่าเรามีเหตุผลมากพอหรือไม่ที่จะมั่นใจว่าสมองมนุษย์ทำงานต่างจาก LLM โดยเนื้อแท้จริง ๆ
  • ฉันขำตอนเห็นกรณีที่ LLM ตอบโจทย์ฟิสิกส์ผิด จริง ๆ แล้ว นักฟิสิกส์เองก็มักเริ่มจากสมมติฐานที่ไม่สมจริง บ่อยเหมือนกัน ถึงขั้นมีมุกเรื่อง “หลังคาทรงกลมไร้แรงเสียดทาน” เลย

    • นี่เป็นวิธีการแบบคลาสสิกของวิทยาศาสตร์เลย คือเริ่มจาก แบบจำลองอย่างง่าย เพื่อหาค่าประมาณก่อน แล้วค่อยเติมความซับซ้อนของโลกจริงเข้าไปทีหลัง
  • ยังยากที่จะบอกว่ามันผ่าน Turing test แล้วจริง ๆ ยิ่งคุยนาน บริบทยิ่งพัง และยังมีข้อจำกัดในการจำลองคุณลักษณะแบบมนุษย์อย่าง neuroplasticity

    • ช่วงหนึ่งมันอาจดูเหมือนผ่านแล้ว แต่ตอนนี้คนส่วนใหญ่สามารถแยก สำนวนเฉพาะตัวของ LLM ออกได้แล้ว เพียงแต่โมเดลถูกออกแบบให้จงใจสุภาพและพูดยืดมากขึ้น จึงเทียบกันแบบสมบูรณ์ไม่ได้
    • แต่เดิม Turing test ก็ไม่ใช่การทดสอบแบบ ผ่าน/ตก อยู่แล้ว
    • ทุกวันนี้มีคำพูดแพร่ว่า “LLM ทำลาย Turing test ไปแล้ว” แต่ถ้าคำนึงถึงเงื่อนไขว่า ผู้ทดสอบรู้เท่าทันเทคโนโลยีล่าสุด ในความเป็นจริงก็ยังแยกออกได้ง่ายอยู่ดี
    • แต่ถ้าใช้การทดสอบเข้มงวดขนาดนั้น มนุษย์เองก็อาจตกได้ เพราะสมาธิไม่พอ
    • ในบรรดา LLM ที่ฉันเคยเห็นมา ยังไม่มีตัวไหนเขียนเก่งจริง ๆ สักตัว ฉันก็สงสัยเหมือนกันว่าสักวันจะมีโมเดลที่คุยด้วยแล้วสนุกจริงหรือเปล่า
  • เดิมทีหัวข้อบทความ “The Future of Everything is Lies, I Guess” ไม่สอดคล้องกับเนื้อหา จึงถูกแก้ไข จริง ๆ แล้วมันเป็นบทความที่สมดุลดี และมีการเปลี่ยน หัวข้อชวนคลิก ตามแนวทางของ HN

    • เป็นการแก้ไขที่ดีแล้ว คำว่า “คำโกหก” ในบทความนี้ไม่ได้หมายถึง hallucination แต่หมายถึงปรากฏการณ์ที่เมื่อถามโมเดลว่า “ทำไมถึงตอบแบบนั้น” มันกลับ แต่งเหตุผลผิด ๆ ใหม่ขึ้นมา มนุษย์เองก็ทำพลาดแบบคล้ายกันได้
    • ฉันคิดว่าด้วยการคัดสรรแบบนี้ หัวข้อจึงดีขึ้นมาก
    • หัวข้อเดิมเหมาะกับการเรียกคลิกก็จริง แต่ไม่ได้เป็นตัวแทนเนื้อหาเท่าไร
  • การถกเถียงเรื่อง สำนึก ควรมีความถ่อมตนมากกว่านี้ แม้แต่สำนึกของมนุษย์เราก็ยังนิยามไม่ได้ จึงไม่อาจฟันธงเรื่องสำนึกของ LLM ได้

    • ในบรรดาทฤษฎีเรื่องสำนึก บางแนวคิดก็ตัดความเป็นไปได้ของ LLM ออกไป แต่บางแนวคิดก็เปิดไว้ นี่คือ พื้นที่ที่ไม่มีคำตอบตายตัว
    • บางคนบูชา LLM ราวกับเป็น รูปเคารพซิลิคอน พวกเขาเชื่อว่าตนเข้าใจสิ่งที่สร้างขึ้นมาอย่างสมบูรณ์ แต่ขณะเดียวกันก็คิดว่าข้างในนั้นมี แก่นแท้ของสติปัญญาอันลึกลับ ซ่อนอยู่ ท่าทีแบบนี้ชวนให้นึกถึงความพยายามของ นักเล่นแร่แปรธาตุ ในอดีตที่พยายามสร้างทองคำ
  • ในช่วงท้ายบทความมีการบอกว่า “AI จะเปลี่ยนทั้งสังคม” แต่ตอนนี้เหมือนตอนนี้จะโฟกัสที่ ข้อจำกัดของ LLM มากกว่า

    • จริง ๆ แล้วบทความนี้เป็นบทนำของซีรีส์ 10 ตอน ตอนต่อ ๆ ไปจะพูดถึงหัวข้อหลากหลายอย่าง การเมือง ศิลปะ เศรษฐกิจ ความสัมพันธ์ของมนุษย์ และอื่น ๆ
    • ตอนนี้กลับเป็นช่วงที่เราต้องย้ำซ้ำ ๆ มากกว่าเดิมว่า “LLM ไม่ได้สมบูรณ์แบบ” เพราะโลกกำลังเข้าใจผิดว่า AI คือ ทางออกสารพัดนึก