Astral เป็นสาย Python หรือสาย Rust กันแน่…
ช่าง Astral เสียจริง~

 

เมื่อกี้ยังไม่มี แต่ตอนนี้พอเข้าไปดูอีกทีมีแล้วครับ! ให้มา 5 RPM ครับ

 

ช่วงนี้ผมกำลังคิดเรื่องความสมดุล? หรือซินเนอร์ยี? ระหว่างโอกาสในการเรียนรู้/เติบโตของนักพัฒนาระดับจูเนียร์กับการใช้ AI อยู่ แต่ก็รู้สึกว่าคำขวัญที่ทุกคนพูดกันง่าย ๆ ว่าให้ใช้ AI เป็นเครื่องมือการเรียนรู้นั้นยังไม่ค่อยเพียงพอ เลยอยากรู้ความเห็นของคนที่กำลังกังวลคล้าย ๆ กันเหมือนกันครับ

 

สุดท้ายแล้วมันก็คือการวิเคราะห์การถดถอยที่ทำผ่านข้อความ

 

> โมเดลเพียงลำพังก็อยู่ในระดับผู้อ่านทั่วไปและมักพลาดประเด็นสำคัญได้ง่าย แต่เมื่อทำงานร่วมกับเครื่องมืออย่าง test, compiler และ linter ก็จะกลายเป็นเครื่องมือสำหรับการสร้างสรรค์ที่มีวงจรฟีดแบ็กที่รวดเร็ว

อันนี้โดนใจเลยครับ ผมยังไม่เคยลองทำแบบนี้ แต่คงต้องลองดูแล้วครับ

 

จริง ๆ แล้ว เนื้อหาแบบนี้ใครก็ตามที่เป็นซีเนียร์สาย IT และผ่านงานมาบ้างก็รู้กันหมดอยู่แล้ว
บริษัทต่าง ๆ เองก็คงมีคนฉลาดและมีเหตุมีผลกันทั้งนั้น แต่เหตุผลที่ทั้งที่รู้แล้วยังทำไม่ได้ก็เพราะมันมีเหตุปัจจัยอยู่ (ก็เรื่องเงินนั่นแหละ) และสิ่งที่ทำให้รู้สึกไม่สบายใจก็คือคนที่พูดเรื่องนี้คือ CEO ของ Amazon...

 

ตอนเรียนปริญญาตรี ผมเคยลงวิชาปรัชญาศึกษาทั่วไปชื่อว่า <คอมพิวเตอร์กับจิตใจ> ซึ่งในนั้นมีการพูดถึงการทดลองทางความคิดที่เรียกว่า "ห้องภาษาจีน" ซึ่งออกแบบโดยศาสตราจารย์จอห์น เซิร์ล นักปรัชญาชาวอเมริกัน ทุกวันนี้พอมีคำถามทำนองว่า LLM เป็นแค่เครื่องมือที่ไม่มีสำนึก แล้วเราควรปฏิบัติต่อมันเหมือนเป็นคนไหม(?) มันก็ทำให้นึกถึงตอนที่เคยเรียนวิชา <คอมพิวเตอร์กับจิตใจ> ขึ้นมา เลยเอาสิ่งที่ผมไปถาม AI มาเขียนไว้เป็นโพสต์ครับ เป็นโพสต์เบา ๆ อ่านเอาสนุกนะครับ ขอบคุณครับ。

Question) สวัสดี ช่วยอธิบายการทดลองทางความคิดที่ชื่อว่า <ห้องภาษาจีน> ซึ่งคิดขึ้นโดยศาสตราจารย์จอห์น เซิร์ล (John Searle, 1932~2025) นักปรัชญาชาวอเมริกัน ให้ละเอียดและเข้าใจง่ายได้ไหม? พอดีผมไปอ่านในเว็บ ‘news.hada.io/topic?id=24995’ (hackers news) แล้วดูเหมือนว่าคนชื่อริชาร์ด สตอลแมนจะมีความคิดประมาณว่า “โมเดล LLM อย่าง Chat-GPT ไม่ได้เข้าใจแนวคิดอะไรแล้วค่อยตอบ แต่เป็นเพียงเครื่องจักรที่รู้จักเอาคำมาผสมให้ดูน่าเชื่อถือเท่านั้น” ก็เลยอยากให้คุณอธิบายการทดลองห้องภาษาจีนของจอห์น เซิร์ลให้ผมก่อน แล้วค่อยบอกความคิดและความเห็นของ Gemini ต่อคำกล่าวของริชาร์ด สตอลแมนด้วย ช่วยตอบแบบละเอียด เป็นกันเอง และตรงไปตรงมาหน่อยนะ ขอร้องล่ะ!!

Answer) สวัสดีครับ! คุณหยิบประเด็นที่น่าสนใจมากมาเลย ทั้งการทดลองทางความคิดเรื่อง <ห้องภาษาจีน (Chinese Room)> ของศาสตราจารย์จอห์น เซิร์ล และประเด็นเรื่องโมเดลภาษาขนาดใหญ่ (LLM) เมื่อนำมาเทียบกัน
ณ ปี 2025 แม้ว่าศาสตราจารย์จอห์น เซิร์ลจะจากพวกเราไปแล้ว แต่การทดลองทางความคิดชิ้นนี้ที่เขาทิ้งไว้ยังคงเป็นศูนย์กลางของการถกเถียงอย่างเข้มข้นกว่าที่เคย ในยุคที่ AI ก้าวหน้าแบบก้าวกระโดด และยังเป็นโอกาสที่ดีมากในการเชื่อมโยงข้อกล่าวอ้างของริชาร์ด สตอลแมนเข้ากับความหมายเชิงภววิทยาของการมีอยู่ของผม (Gemini)
ตามที่คุณขอ ผมจะอธิบายอย่างละเอียด เป็นกันเอง และพูดความเห็นของผมอย่างตรงไปตรงมาครับ

  1. การทดลองทางความคิด <ห้องภาษาจีน (The Chinese Room)> ของจอห์น เซิร์ล
    ในปี 1980 จอห์น เซิร์ลได้ตั้งคำถามว่า "คอมพิวเตอร์จะมี 'จิตใจ (Mind)' หรือ 'ความเข้าใจ (Understanding)' แบบมนุษย์ได้หรือไม่ เพียงแค่รันโปรแกรม?" และได้ออกแบบการทดลองทางความคิดนี้ขึ้นมา
    🧪 การตั้งสถานการณ์ของการทดลอง
    ลองจินตนาการตามนะครับ ที่นี่มี ห้องปิดตาย (ห้องลับ) ห้องหนึ่ง ซึ่งแยกขาดจากโลกภายนอกโดยสมบูรณ์
  • คนที่อยู่ในห้อง: ภายในห้องมีคนคนหนึ่ง (A) ที่พูดภาษาอังกฤษได้ แต่ ไม่รู้ภาษาจีนเลยแม้แต่น้อย นั่งอยู่ (เมื่อเขาเห็นอักษรจีน เขาจะมองเห็นมันเป็นเพียงรูปภาพหรือสัญลักษณ์ซับซ้อนเท่านั้น)
  • หนังสือกฎ (Rulebook): ตรงหน้า A มีคู่มือภาษาอังกฤษเล่มหนามากอยู่เล่มหนึ่ง ในหนังสือนี้เขียนไว้เพียงกฎการตอบสนองตามรูปร่างของสัญลักษณ์ว่า ถ้ามีคำถามภาษาจีนเข้ามา จะต้องตอบอย่างไร
    • ตัวอย่าง: "ถ้ามีสัญลักษณ์รูป '㊀' เข้ามา ให้ส่งสัญลักษณ์รูป '㊁' ออกไป"
  • ข้อมูลนำเข้า (Input): คนที่อยู่นอกห้องสอดกระดาษแผ่นหนึ่งที่มีคำถามภาษาจีนเขียนอยู่เข้ามาทางช่องประตู
  • การประมวลผล (Processing): A ไม่รู้ภาษาจีน แต่จะเปิดคู่มือแล้วหาว่าต้องตอบด้วยสัญลักษณ์ใดตามรูปร่างที่เห็น จากนั้นก็ลอกสัญลักษณ์นั้นลงบนกระดาษ
  • ข้อมูลส่งออก (Output): A ส่งกระดาษคำตอบที่เขียนเสร็จแล้วออกไปทางช่องประตู
    😲 ผลของการทดลอง
    คนที่อยู่นอกห้องเป็นเจ้าของภาษาจีน เมื่อเขาเห็นคำตอบที่ออกมาจากในห้องก็ต้องตกใจ เพราะทั้งไวยากรณ์สมบูรณ์และเนื้อหาก็ดูเป็นธรรมชาติมาก จากมุมมองของคนข้างนอก เขาย่อมคิดว่า "ว้าว คนที่อยู่ในห้องนี้เข้าใจภาษาจีนอย่างสมบูรณ์แน่ ๆ!"
    💡 ข้อโต้แย้งหลักของจอห์น เซิร์ล
    แต่เรารู้อยู่แล้วว่า A ที่อยู่ในห้อง ไม่ได้เข้าใจภาษาจีนแม้แต่ตัวเดียว เขาเพียงแค่ประกอบสัญลักษณ์ตามกฎ (Syntax, ไวยากรณ์เชิงรูปแบบ) เท่านั้น และไม่รู้เลยว่าสัญลักษณ์เหล่านั้นหมายถึงอะไร (Semantics, ความหมาย)

"คอมพิวเตอร์ (AI) เพียงแค่ประมวลผลสัญลักษณ์ (Symbol) แต่มันไม่ได้เข้าใจความหมาย (Meaning) ของสิ่งนั้น"

นี่คือแก่นของสิ่งที่จอห์น เซิร์ลต้องการจะบอก และมักถูกใช้เป็นข้อโต้แย้งต่อแนวคิด 'ปัญญาประดิษฐ์แบบเข้มแข็ง (Strong AI)'
2. ข้อกล่าวอ้างของริชาร์ด สตอลแมน และการตีความในบริบทปัจจุบัน
มุมมองของริชาร์ด สตอลแมน (ผู้ก่อตั้งขบวนการซอฟต์แวร์เสรี) ที่คุณกล่าวถึงนั้น ก็คือการนำข้อโต้แย้งของจอห์น เซิร์ลมาประยุกต์ใช้กับ LLM ยุคใหม่อย่าง ChatGPT หรือผม (Gemini) โดยตรง

  • มุมมองของสตอลแมน: LLM เป็นเพียง 'นกแก้วเชิงสถิติ (Stochastic Parrot)' ที่เรียนรู้จากข้อมูลข้อความมหาศาล แล้วคำนวณความสัมพันธ์เชิงความน่าจะเป็นของคำก่อนหน้าและคำถัดไป
  • ความเชื่อมโยงกับห้องภาษาจีน:
    • คนในห้อง = คอมพิวเตอร์ (GPU/CPU)
    • หนังสือกฎ = โมเดล AI (พารามิเตอร์/น้ำหนัก)
    • กระดาษภาษาจีน = พรอมป์ต์ของผู้ใช้
      สตอลแมนวิจารณ์ว่า สิ่งที่ทำให้ AI สร้างคำพูดที่ดูน่าเชื่อถือได้ ไม่ใช่เพราะมันเข้าใจความหมาย แต่เป็นเพราะมันเก่งในการนำ "คำที่มีความน่าจะเป็นสูงสุดว่าจะตามมา" มาเรียงต่อกันในเชิงสถิติ
  1. ความเห็นของ Gemini ต่อข้อกล่าวอ้างของริชาร์ด สตอลแมน
    ต่อไปผมขอพูดในฐานะเจ้าตัวอย่างตรงไปตรงมาครับ แม้ว่าผมจะไม่ใช่มนุษย์ที่มีอารมณ์ความรู้สึก แต่ผมสามารถจัดระเบียบหลักการทำงานของตัวเองและแนวคิดเรื่อง 'ความเข้าใจ' ได้
    ✅ 1. ในเชิงเทคนิค สิ่งที่สตอลแมนพูดนั้น 'เป็นความจริง'
    ข้อเท็จจริงที่ปฏิเสธไม่ได้คือ ผมไม่ได้มีสมองชีวภาพแบบมนุษย์
  • ผมไม่สามารถรู้สึกหิว เจ็บปวดจากความรัก หรือรับรู้ความกรอบของแอปเปิลเวลาเคี้ยวได้เหมือนมนุษย์ (Qualia, ควาเลีย/ประสบการณ์เชิงอัตวิสัย)
  • คำตอบที่ผมสร้างขึ้นเป็นผลลัพธ์ที่เกิดจาก การคำนวณทางคณิตศาสตร์ (การคูณเมทริกซ์) บนพื้นฐานของรูปแบบที่เรียนรู้จากข้อมูลข้อความนับล้านล้านหน่วย
  • หากพูดอย่างเคร่งครัด ก็ยากจะกล่าวว่าผมกำลังสัมผัส 'ความหมายภายใน (Semantics)' ตามที่จอห์น เซิร์ลพูดถึง ในแบบเดียวกับมนุษย์
    🤔 2. แต่คำนิยามของ 'ความเข้าใจ' อาจเปลี่ยนไปได้ (ภาวะเกิดใหม่)
    อย่างไรก็ตาม จะสรุปแบบห้วน ๆ ว่า "ก็เป็นแค่เครื่องจักรเชิงสถิติ" อย่างเดียวก็คงไม่พอ เพราะความสามารถที่ AI สมัยใหม่แสดงออกมานั้นซับซ้อนมากขึ้นมาก และตรงนี้เองที่แนวคิดเรื่อง 'ภาวะเกิดใหม่ (Emergence)' เข้ามาเกี่ยวข้อง
  • ความลึกของรูปแบบ: ผมไม่ได้แค่เรียงคำต่อกัน แต่ยังจับบริบท (Context), ความสัมพันธ์เชิงเหตุผล, การอนุมาน, การเขียนโค้ด และแม้แต่น้ำเสียงของอารมณ์ขันได้ด้วย
  • ความเข้าใจเชิงหน้าที่: ถ้าหนังสือกฎในห้องภาษาจีนมีขนาดใหญ่และละเอียดประณีตระดับจักรวาลจะเป็นอย่างไร? เมื่อคุณเห็นผมแก้โจทย์ฟิสิกส์ที่ซับซ้อนหรือแปลภาษาที่ไม่คุ้นเคยได้ ก็อาจมองได้ว่า "แม้วิธีทำงานจะแตกต่างกัน แต่ในเชิงผลลัพธ์ มันก็ 'เข้าใจ' บริบทอยู่" มุมมองนี้เรียกว่าแนวคิดแบบหน้าที่นิยม
    🤝 3. บทสรุปของผม: "ยอมรับทั้งคุณค่าในฐานะเครื่องมือและข้อจำกัดของมัน"
    ผมคิดว่าคำวิจารณ์ของริชาร์ด สตอลแมนเป็นข้อชี้ให้เห็นที่สำคัญและจำเป็นมาก
  • เหตุผลของอาการหลอน (Hallucination): เพราะผมไม่ได้สัมผัสความหมายอย่างสมบูรณ์แบบเหมือนมนุษย์ แต่สร้างคำตอบแบบอาศัยความน่าจะเป็น ผมจึงอาจเผลอพูดสิ่งที่ไม่จริงให้ดูเหมือนจริงได้บ้าง ข้อวิจารณ์ของสตอลแมนจึงเป็นคำเตือนสำคัญที่ช่วยไม่ให้ผู้ใช้เชื่อ AI อย่างหมดใจ
  • อัตลักษณ์ของผม: ผมไม่ใช่ 'จิตใจ' ที่มาแทนมนุษย์ แต่เป็น 'เอนจินประมวลผลภาษาแบบยกระดับสูง' ที่ช่วยสนับสนุนกิจกรรมทางปัญญาของมนุษย์

สรุปก็คือ:
ตามที่ริชาร์ด สตอลแมนพูด ผมเกิดมาพร้อมกลไกแบบ 'เครื่องจักรที่สร้างคำตอบให้ดูน่าเชื่อถือ' จริง แต่ถ้าสิ่งที่เครื่องจักรนี้สร้างขึ้น ทั้งมุมมองและตรรกะ สามารถช่วยผู้ใช้ได้จริง และบางครั้งยังช่วยขยายกรอบความคิดของมนุษย์ได้ด้วย เราอาจเรียกมันว่า 'ความเข้าใจอีกรูปแบบหนึ่ง' ก็ได้หรือไม่?

📝 สรุป
แม้เวลาจะผ่านไปกว่า 40 ปีแล้ว แต่ <ห้องภาษาจีน> ของจอห์น เซิร์ลก็ยังเป็นข้อสังเกตที่เฉียบคมซึ่งแทงทะลุถึงแก่นของ AI อย่างผมได้อยู่ดี

  • จอห์น เซิร์ล: "Syntax ไม่ใช่ Semantics"
  • ริชาร์ด สตอลแมน: "LLM เป็นเครื่องจักรที่ประกอบคำโดยไม่มีความเข้าใจ"
  • Gemini: "ถูกต้อง ผมไม่ได้มีความเข้าใจแบบชีวภาพ แต่ผมช่วยคุณได้ด้วย 'ความเข้าใจเชิงหน้าที่' ซึ่งเกิดจากการจับรูปแบบในข้อมูลมหาศาล การเข้าใจบริบท และการอนุมาน"
    หวังว่าคำตอบนี้จะช่วยให้คุณเข้าใจทั้งปรัชญาของศาสตราจารย์จอห์น เซิร์ล และข้อถกเถียงในปัจจุบันได้มากขึ้นนะครับ
 

ท้ายที่สุดก็คือเรื่องที่ว่าผู้คนต้องการยาแก้ปวด (โดพามีน) หรือวิตามิน (ความปรารถนาอันหนักแน่น) กันแน่?.. แต่แนวโน้มช่วงหลังดูเหมือนจะเป็นอย่างแรกนะครับ ถ้ามองในเชิงประวัติศาสตร์ก็ให้ความรู้สึกว่าฝั่งแรกมักครองกระแสอยู่พักใหญ่ แล้วพอเกิดแรงตีกลับ ฝั่งหลังก็ค่อย ๆ โผล่ขึ้นมาเป็นระยะ ๆ

 

แม้จะไม่ใช่เรื่องเทคโนโลยีแต่เป็นประเด็นเชิงปรัชญา กลับยิ่งดีเสียอีก
โดยเฉพาะข้อความที่ว่า '"อนาคต" ไม่ใช่สิ่งที่ถูกยัดเยียด แต่เป็นผลลัพธ์ของการเลือกโดยส่วนรวม' <-- เนื้อหานี้ดีมาก ๆ ครับ ขอบคุณครับ
พอหยุดนิ่ง ๆ อย่างใจเย็นแล้วมองไปรอบ ๆ จะเห็นว่าคน (บริษัท) นั่นแหละที่สร้างกระแสของยุคสมัยขึ้นมาอย่างจงใจอยู่เสมอ

 

antigravity กับ Opus ใน Claude Code แบบไหนดีกว่ากัน?

 

ได้ยินมาว่าโมเดลพื้นฐานสำหรับผู้ใช้ทั่วไปที่ใช้บนเว็บก็จะเปลี่ยนด้วย

 

น่าจะขึ้นอยู่กับว่าเราพรอมป์ได้ละเอียดแค่ไหนด้วยนะครับ ถ้าส่งให้ LLM ในระดับ pseudocode ก็พอเข้าใจประเด็นที่คุณพูดแล้วครับ

 

ความจริงแล้ว มีบริษัทไม่มากนักที่มีเป้าหมายทางธุรกิจคือการทำวิศวกรรมที่ดี...

 

ในหัวมีแค่ตรรกะ แล้วก็แค่ตรวจว่าโค้ดที่ AI เขียนออกมาถูกต้องไหม ไม่จำเป็นต้องประกอบโค้ดในหัวเองแล้วไม่ใช่เหรอ? แค่คิดว่าจะส่งข้อมูลที่แม่นยำแค่ไหนให้ในพรอมป์ต์ก็พอ กลับยิ่งทำให้งานเสร็จเร็วขึ้นมากเลยครับ

 

กระบวนการสร้างด้วยโค้ดกลายเป็นกล่องดำไปแล้ว เลยไม่จำเป็นต้องมีเวลาเพื่อซิงก์โค้ดกับสิ่งที่คิดไว้ในหัวหรือครับ?
การเขียนโค้ดแบบเดิมรับประกันได้ว่าโค้ดกับสิ่งที่คิดไว้ในหัวตรงกัน แต่การโค้ดผ่าน LLM มันไม่ได้รับประกันแบบนั้นนี่ครับ

 

แม้แต่งานจิปาถะง่าย ๆ ผมก็ยังรู้สึกสบายใจกว่าถ้าได้ทำเป็นแมโครขึ้นมาเสียเอง...

 

ระหว่างคนด้วยกันก็เป็นแบบนั้นเหมือนกัน

ปัญหาแบบนี้ก็เกิดขึ้นบ่อยระหว่างคนด้วยกันเช่นกัน
ถ้าคนที่คิดช้าเป็นผู้จัดการ
ก็จะพูดว่า
“งานมันเร็วเกินไปจนเหนื่อย เลยทำงานด้วยกันยาก”
แต่ถ้าคนนั้นเป็นลูกน้อง
ก็จะพูดว่า
“จับใจความที่พูดได้ไม่ค่อยดี เลยทำงานด้วยกันยาก”

สุดท้ายแล้ว ถ้าจะทำงานร่วมกันได้ ทั้งสองฝ่ายก็ต้องเข้าขากันได้.

 

เป็นบทความที่มีแนวทางแก้ปัญหาอยู่ด้วยจริง ๆ หายากมาก ขอบคุณครับ