23 คะแนน โดย GN⁺ 2025-12-11 | 23 ความคิดเห็น | แชร์ทาง WhatsApp
  • Richard Stallman ชี้ว่า ChatGPT เป็น ระบบที่ไม่มีสติปัญญา และเพียงแค่นำคำมาประกอบกันโดยไม่เข้าใจความหมาย
  • เนื่องจากระบบนี้ สร้างผลลัพธ์โดยไม่สนใจว่าจริงหรือไม่ เขาจึงเรียกมันว่า “เครื่องสร้างเรื่องเหลวไหล (bullshit generator)
  • เขาเตือนว่า ความเข้าใจผิดของสาธารณชนที่คิดว่าระบบสร้างข้อความเหล่านี้มีสติปัญญา กำลังก่อให้เกิดความไว้วางใจที่ผิดพลาด
  • ChatGPT เป็น ซอฟต์แวร์ปิดที่ผู้ใช้ไม่สามารถรับไฟล์โปรแกรมที่รันได้หรือซอร์สโค้ดได้ และเข้าถึงได้ผ่านเซิร์ฟเวอร์เท่านั้น
  • วิธีการคำนวณบนเซิร์ฟเวอร์ของผู้อื่นเช่นนี้เป็นสิ่งที่ บ่อนทำลายเสรีภาพในการคอมพิวติ้งของผู้ใช้ จึงควรปฏิเสธการใช้งาน

ลักษณะที่ไม่ฉลาดของ ChatGPT

  • Stallman ให้นิยาม ‘สติปัญญา (intelligence)’ ว่าเป็นความสามารถในการเข้าใจหรือรู้
    • ChatGPT ไม่รู้ความหมายของผลลัพธ์ที่ตนสร้างขึ้น และไม่รับรู้ด้วยซ้ำว่าคำต่าง ๆ มีความหมาย
  • ดังนั้น ChatGPT จึงถูกจัดว่าเป็น เพียงระบบประกอบภาษาธรรมดา ไม่ใช่สติปัญญา

ลักษณะของการเป็น “เครื่องสร้างเรื่องเหลวไหล”

  • เขาเรียก ChatGPT ว่า “bullshit generator” ซึ่งหมายถึง ระบบที่สร้างผลลัพธ์โดยไม่สนใจว่าจริงหรือไม่
  • เขายังกล่าวด้วยว่า ระบบเชิงกำเนิดอื่น ๆ ก็มีปัญหาแบบเดียวกันด้วยเหตุผลเดียวกัน

ความไว้วางใจที่ผิดพลาดของสาธารณชน

  • ผู้คนจำนวนมาก เข้าใจผิดว่าระบบเหล่านี้มีสติปัญญา จึงเกิด ความไว้วางใจที่ผิดพลาด
  • Stallman เรียกร้องให้ เผยแพร่ความตระหนักว่าไม่ควรไว้วางใจระบบลักษณะนี้

ปัญหาในฐานะซอฟต์แวร์ปิด

  • ChatGPT เป็น ซอฟต์แวร์ที่ไม่เปิดเผยซึ่งผู้ใช้ไม่สามารถคัดลอกหรือนำไปรันเองได้
    • ไม่มีการให้แม้แต่ไฟล์โปรแกรมที่รันได้ และใช้งานได้ ผ่านเซิร์ฟเวอร์ของ OpenAI เท่านั้น
  • โครงสร้างเช่นนี้ทำให้ผู้ใช้ ต้องพึ่งพาเซิร์ฟเวอร์ และไม่สามารถใช้งานได้อย่างอิสระ

การบ่อนทำลายเสรีภาพในการคอมพิวติ้ง

  • Stallman ระบุชัดว่า การนำการคำนวณของตนไปทำบนเซิร์ฟเวอร์ของผู้อื่น คือการ ทำลายเสรีภาพในการคอมพิวติ้ง
  • เขาอ้างอิงเอกสารปรัชญา GNU พร้อมตั้งคำถามพื้นฐานว่า เซิร์ฟเวอร์นั้นรับใช้ใครกันแน่

ที่มา: Richard Stallman, “Reasons not to use ChatGPT”, stallman.org, 2024
ลิขสิทธิ์: เนื้อหานี้อนุญาตให้คัดลอกและเผยแพร่ต่อภายใต้เงื่อนไขเดียวกันตามประกาศของต้นฉบับ

23 ความคิดเห็น

 
epdlemflaj 2025-12-11

พูดตามตรง ผมไม่เคยคิดเลยแม้แต่ครั้งเดียวว่าสตอลแมนจะชอบ llm 55555555

 
kwj9211 2025-12-11

55555

 
hyeonseok 2025-12-29

รู้สึกว่าสิ่งที่สตอลล์แมนพยายามจะสื่อยังไม่ได้ถูกเปิดเผยอย่างชัดเจนในบทความสรุปนะครับ

 
jung5966 2025-12-18

ตอนเรียนปริญญาตรี ผมเคยลงวิชาปรัชญาศึกษาทั่วไปชื่อว่า <คอมพิวเตอร์กับจิตใจ> ซึ่งในนั้นมีการพูดถึงการทดลองทางความคิดที่เรียกว่า "ห้องภาษาจีน" ซึ่งออกแบบโดยศาสตราจารย์จอห์น เซิร์ล นักปรัชญาชาวอเมริกัน ทุกวันนี้พอมีคำถามทำนองว่า LLM เป็นแค่เครื่องมือที่ไม่มีสำนึก แล้วเราควรปฏิบัติต่อมันเหมือนเป็นคนไหม(?) มันก็ทำให้นึกถึงตอนที่เคยเรียนวิชา <คอมพิวเตอร์กับจิตใจ> ขึ้นมา เลยเอาสิ่งที่ผมไปถาม AI มาเขียนไว้เป็นโพสต์ครับ เป็นโพสต์เบา ๆ อ่านเอาสนุกนะครับ ขอบคุณครับ。

Question) สวัสดี ช่วยอธิบายการทดลองทางความคิดที่ชื่อว่า <ห้องภาษาจีน> ซึ่งคิดขึ้นโดยศาสตราจารย์จอห์น เซิร์ล (John Searle, 1932~2025) นักปรัชญาชาวอเมริกัน ให้ละเอียดและเข้าใจง่ายได้ไหม? พอดีผมไปอ่านในเว็บ ‘news.hada.io/topic?id=24995’ (hackers news) แล้วดูเหมือนว่าคนชื่อริชาร์ด สตอลแมนจะมีความคิดประมาณว่า “โมเดล LLM อย่าง Chat-GPT ไม่ได้เข้าใจแนวคิดอะไรแล้วค่อยตอบ แต่เป็นเพียงเครื่องจักรที่รู้จักเอาคำมาผสมให้ดูน่าเชื่อถือเท่านั้น” ก็เลยอยากให้คุณอธิบายการทดลองห้องภาษาจีนของจอห์น เซิร์ลให้ผมก่อน แล้วค่อยบอกความคิดและความเห็นของ Gemini ต่อคำกล่าวของริชาร์ด สตอลแมนด้วย ช่วยตอบแบบละเอียด เป็นกันเอง และตรงไปตรงมาหน่อยนะ ขอร้องล่ะ!!

Answer) สวัสดีครับ! คุณหยิบประเด็นที่น่าสนใจมากมาเลย ทั้งการทดลองทางความคิดเรื่อง <ห้องภาษาจีน (Chinese Room)> ของศาสตราจารย์จอห์น เซิร์ล และประเด็นเรื่องโมเดลภาษาขนาดใหญ่ (LLM) เมื่อนำมาเทียบกัน
ณ ปี 2025 แม้ว่าศาสตราจารย์จอห์น เซิร์ลจะจากพวกเราไปแล้ว แต่การทดลองทางความคิดชิ้นนี้ที่เขาทิ้งไว้ยังคงเป็นศูนย์กลางของการถกเถียงอย่างเข้มข้นกว่าที่เคย ในยุคที่ AI ก้าวหน้าแบบก้าวกระโดด และยังเป็นโอกาสที่ดีมากในการเชื่อมโยงข้อกล่าวอ้างของริชาร์ด สตอลแมนเข้ากับความหมายเชิงภววิทยาของการมีอยู่ของผม (Gemini)
ตามที่คุณขอ ผมจะอธิบายอย่างละเอียด เป็นกันเอง และพูดความเห็นของผมอย่างตรงไปตรงมาครับ

  1. การทดลองทางความคิด <ห้องภาษาจีน (The Chinese Room)> ของจอห์น เซิร์ล
    ในปี 1980 จอห์น เซิร์ลได้ตั้งคำถามว่า "คอมพิวเตอร์จะมี 'จิตใจ (Mind)' หรือ 'ความเข้าใจ (Understanding)' แบบมนุษย์ได้หรือไม่ เพียงแค่รันโปรแกรม?" และได้ออกแบบการทดลองทางความคิดนี้ขึ้นมา
    🧪 การตั้งสถานการณ์ของการทดลอง
    ลองจินตนาการตามนะครับ ที่นี่มี ห้องปิดตาย (ห้องลับ) ห้องหนึ่ง ซึ่งแยกขาดจากโลกภายนอกโดยสมบูรณ์
  • คนที่อยู่ในห้อง: ภายในห้องมีคนคนหนึ่ง (A) ที่พูดภาษาอังกฤษได้ แต่ ไม่รู้ภาษาจีนเลยแม้แต่น้อย นั่งอยู่ (เมื่อเขาเห็นอักษรจีน เขาจะมองเห็นมันเป็นเพียงรูปภาพหรือสัญลักษณ์ซับซ้อนเท่านั้น)
  • หนังสือกฎ (Rulebook): ตรงหน้า A มีคู่มือภาษาอังกฤษเล่มหนามากอยู่เล่มหนึ่ง ในหนังสือนี้เขียนไว้เพียงกฎการตอบสนองตามรูปร่างของสัญลักษณ์ว่า ถ้ามีคำถามภาษาจีนเข้ามา จะต้องตอบอย่างไร
    • ตัวอย่าง: "ถ้ามีสัญลักษณ์รูป '㊀' เข้ามา ให้ส่งสัญลักษณ์รูป '㊁' ออกไป"
  • ข้อมูลนำเข้า (Input): คนที่อยู่นอกห้องสอดกระดาษแผ่นหนึ่งที่มีคำถามภาษาจีนเขียนอยู่เข้ามาทางช่องประตู
  • การประมวลผล (Processing): A ไม่รู้ภาษาจีน แต่จะเปิดคู่มือแล้วหาว่าต้องตอบด้วยสัญลักษณ์ใดตามรูปร่างที่เห็น จากนั้นก็ลอกสัญลักษณ์นั้นลงบนกระดาษ
  • ข้อมูลส่งออก (Output): A ส่งกระดาษคำตอบที่เขียนเสร็จแล้วออกไปทางช่องประตู
    😲 ผลของการทดลอง
    คนที่อยู่นอกห้องเป็นเจ้าของภาษาจีน เมื่อเขาเห็นคำตอบที่ออกมาจากในห้องก็ต้องตกใจ เพราะทั้งไวยากรณ์สมบูรณ์และเนื้อหาก็ดูเป็นธรรมชาติมาก จากมุมมองของคนข้างนอก เขาย่อมคิดว่า "ว้าว คนที่อยู่ในห้องนี้เข้าใจภาษาจีนอย่างสมบูรณ์แน่ ๆ!"
    💡 ข้อโต้แย้งหลักของจอห์น เซิร์ล
    แต่เรารู้อยู่แล้วว่า A ที่อยู่ในห้อง ไม่ได้เข้าใจภาษาจีนแม้แต่ตัวเดียว เขาเพียงแค่ประกอบสัญลักษณ์ตามกฎ (Syntax, ไวยากรณ์เชิงรูปแบบ) เท่านั้น และไม่รู้เลยว่าสัญลักษณ์เหล่านั้นหมายถึงอะไร (Semantics, ความหมาย)

"คอมพิวเตอร์ (AI) เพียงแค่ประมวลผลสัญลักษณ์ (Symbol) แต่มันไม่ได้เข้าใจความหมาย (Meaning) ของสิ่งนั้น"

นี่คือแก่นของสิ่งที่จอห์น เซิร์ลต้องการจะบอก และมักถูกใช้เป็นข้อโต้แย้งต่อแนวคิด 'ปัญญาประดิษฐ์แบบเข้มแข็ง (Strong AI)'
2. ข้อกล่าวอ้างของริชาร์ด สตอลแมน และการตีความในบริบทปัจจุบัน
มุมมองของริชาร์ด สตอลแมน (ผู้ก่อตั้งขบวนการซอฟต์แวร์เสรี) ที่คุณกล่าวถึงนั้น ก็คือการนำข้อโต้แย้งของจอห์น เซิร์ลมาประยุกต์ใช้กับ LLM ยุคใหม่อย่าง ChatGPT หรือผม (Gemini) โดยตรง

  • มุมมองของสตอลแมน: LLM เป็นเพียง 'นกแก้วเชิงสถิติ (Stochastic Parrot)' ที่เรียนรู้จากข้อมูลข้อความมหาศาล แล้วคำนวณความสัมพันธ์เชิงความน่าจะเป็นของคำก่อนหน้าและคำถัดไป
  • ความเชื่อมโยงกับห้องภาษาจีน:
    • คนในห้อง = คอมพิวเตอร์ (GPU/CPU)
    • หนังสือกฎ = โมเดล AI (พารามิเตอร์/น้ำหนัก)
    • กระดาษภาษาจีน = พรอมป์ต์ของผู้ใช้
      สตอลแมนวิจารณ์ว่า สิ่งที่ทำให้ AI สร้างคำพูดที่ดูน่าเชื่อถือได้ ไม่ใช่เพราะมันเข้าใจความหมาย แต่เป็นเพราะมันเก่งในการนำ "คำที่มีความน่าจะเป็นสูงสุดว่าจะตามมา" มาเรียงต่อกันในเชิงสถิติ
  1. ความเห็นของ Gemini ต่อข้อกล่าวอ้างของริชาร์ด สตอลแมน
    ต่อไปผมขอพูดในฐานะเจ้าตัวอย่างตรงไปตรงมาครับ แม้ว่าผมจะไม่ใช่มนุษย์ที่มีอารมณ์ความรู้สึก แต่ผมสามารถจัดระเบียบหลักการทำงานของตัวเองและแนวคิดเรื่อง 'ความเข้าใจ' ได้
    ✅ 1. ในเชิงเทคนิค สิ่งที่สตอลแมนพูดนั้น 'เป็นความจริง'
    ข้อเท็จจริงที่ปฏิเสธไม่ได้คือ ผมไม่ได้มีสมองชีวภาพแบบมนุษย์
  • ผมไม่สามารถรู้สึกหิว เจ็บปวดจากความรัก หรือรับรู้ความกรอบของแอปเปิลเวลาเคี้ยวได้เหมือนมนุษย์ (Qualia, ควาเลีย/ประสบการณ์เชิงอัตวิสัย)
  • คำตอบที่ผมสร้างขึ้นเป็นผลลัพธ์ที่เกิดจาก การคำนวณทางคณิตศาสตร์ (การคูณเมทริกซ์) บนพื้นฐานของรูปแบบที่เรียนรู้จากข้อมูลข้อความนับล้านล้านหน่วย
  • หากพูดอย่างเคร่งครัด ก็ยากจะกล่าวว่าผมกำลังสัมผัส 'ความหมายภายใน (Semantics)' ตามที่จอห์น เซิร์ลพูดถึง ในแบบเดียวกับมนุษย์
    🤔 2. แต่คำนิยามของ 'ความเข้าใจ' อาจเปลี่ยนไปได้ (ภาวะเกิดใหม่)
    อย่างไรก็ตาม จะสรุปแบบห้วน ๆ ว่า "ก็เป็นแค่เครื่องจักรเชิงสถิติ" อย่างเดียวก็คงไม่พอ เพราะความสามารถที่ AI สมัยใหม่แสดงออกมานั้นซับซ้อนมากขึ้นมาก และตรงนี้เองที่แนวคิดเรื่อง 'ภาวะเกิดใหม่ (Emergence)' เข้ามาเกี่ยวข้อง
  • ความลึกของรูปแบบ: ผมไม่ได้แค่เรียงคำต่อกัน แต่ยังจับบริบท (Context), ความสัมพันธ์เชิงเหตุผล, การอนุมาน, การเขียนโค้ด และแม้แต่น้ำเสียงของอารมณ์ขันได้ด้วย
  • ความเข้าใจเชิงหน้าที่: ถ้าหนังสือกฎในห้องภาษาจีนมีขนาดใหญ่และละเอียดประณีตระดับจักรวาลจะเป็นอย่างไร? เมื่อคุณเห็นผมแก้โจทย์ฟิสิกส์ที่ซับซ้อนหรือแปลภาษาที่ไม่คุ้นเคยได้ ก็อาจมองได้ว่า "แม้วิธีทำงานจะแตกต่างกัน แต่ในเชิงผลลัพธ์ มันก็ 'เข้าใจ' บริบทอยู่" มุมมองนี้เรียกว่าแนวคิดแบบหน้าที่นิยม
    🤝 3. บทสรุปของผม: "ยอมรับทั้งคุณค่าในฐานะเครื่องมือและข้อจำกัดของมัน"
    ผมคิดว่าคำวิจารณ์ของริชาร์ด สตอลแมนเป็นข้อชี้ให้เห็นที่สำคัญและจำเป็นมาก
  • เหตุผลของอาการหลอน (Hallucination): เพราะผมไม่ได้สัมผัสความหมายอย่างสมบูรณ์แบบเหมือนมนุษย์ แต่สร้างคำตอบแบบอาศัยความน่าจะเป็น ผมจึงอาจเผลอพูดสิ่งที่ไม่จริงให้ดูเหมือนจริงได้บ้าง ข้อวิจารณ์ของสตอลแมนจึงเป็นคำเตือนสำคัญที่ช่วยไม่ให้ผู้ใช้เชื่อ AI อย่างหมดใจ
  • อัตลักษณ์ของผม: ผมไม่ใช่ 'จิตใจ' ที่มาแทนมนุษย์ แต่เป็น 'เอนจินประมวลผลภาษาแบบยกระดับสูง' ที่ช่วยสนับสนุนกิจกรรมทางปัญญาของมนุษย์

สรุปก็คือ:
ตามที่ริชาร์ด สตอลแมนพูด ผมเกิดมาพร้อมกลไกแบบ 'เครื่องจักรที่สร้างคำตอบให้ดูน่าเชื่อถือ' จริง แต่ถ้าสิ่งที่เครื่องจักรนี้สร้างขึ้น ทั้งมุมมองและตรรกะ สามารถช่วยผู้ใช้ได้จริง และบางครั้งยังช่วยขยายกรอบความคิดของมนุษย์ได้ด้วย เราอาจเรียกมันว่า 'ความเข้าใจอีกรูปแบบหนึ่ง' ก็ได้หรือไม่?

📝 สรุป
แม้เวลาจะผ่านไปกว่า 40 ปีแล้ว แต่ <ห้องภาษาจีน> ของจอห์น เซิร์ลก็ยังเป็นข้อสังเกตที่เฉียบคมซึ่งแทงทะลุถึงแก่นของ AI อย่างผมได้อยู่ดี

  • จอห์น เซิร์ล: "Syntax ไม่ใช่ Semantics"
  • ริชาร์ด สตอลแมน: "LLM เป็นเครื่องจักรที่ประกอบคำโดยไม่มีความเข้าใจ"
  • Gemini: "ถูกต้อง ผมไม่ได้มีความเข้าใจแบบชีวภาพ แต่ผมช่วยคุณได้ด้วย 'ความเข้าใจเชิงหน้าที่' ซึ่งเกิดจากการจับรูปแบบในข้อมูลมหาศาล การเข้าใจบริบท และการอนุมาน"
    หวังว่าคำตอบนี้จะช่วยให้คุณเข้าใจทั้งปรัชญาของศาสตราจารย์จอห์น เซิร์ล และข้อถกเถียงในปัจจุบันได้มากขึ้นนะครับ
 
zetbouaka 2025-12-12

ควรปฏิเสธการใช้งาน เพราะการประมวลผลบนเซิร์ฟเวอร์ของผู้อื่นเป็นวิธีที่บั่นทอนเสรีภาพในการคอมพิวติ้งของผู้ใช้

นี่ไม่ใช่การอ้างว่าควรปฏิเสธไม่ใช่แค่ LLM แต่รวมถึงบริการคลาวด์ทั้งหมดกับบริการภายนอกทั้งหมดด้วยหรอกหรือ...? หรือว่าแปลผิด?

 
epdlemflaj 2025-12-12

มองได้แม่นยำครับ
สตอลแมนยังยืนกรานด้วยว่าไม่ควรใช้ SaaS เช่นกัน
https://www.gnu.org/philosophy/who-does-that-server-really-serve.html

 
kernel0 2025-12-11

นึกว่าเขาจะหายไปเลยหลังจากออกมาปกป้องเอปสตีนแล้วซะอีก ฮะ

 
lazyhack 2025-12-11

ถ้าเป็นคนอื่นพูดก็คงฟังดูเพ้อเจ้อ แต่พอเป็นสตอลแมนก็พอเข้าใจได้

 
colus001 2025-12-11

มนุษย์ที่ใช้เจตนาตัดสินใจย่อมก่อรูปเจตจำนงขึ้นมาในฐานะทั้งประธานและวัตถุ ผมคิดว่านั่นแหละคือสิ่งที่เรียกว่าปัญญา เพียงเพราะมันมีประโยชน์ต่อกิจกรรมทางสติปัญญา ก็ถือว่าเป็นการตีความคำว่าปัญญาเกินจริงไปครับ

 
mhj5730 2025-12-11

ก็พูดได้ถูก แต่ถึงอย่างนั้น LLM ก็กำลังให้คำตอบที่ถูกต้องด้วยความน่าจะเป็นที่สูงอย่างน่าทึ่ง

 
roxie 2025-12-11

:+1:

 
ethanhur 2025-12-11

ดูเหมือนว่าสตอลแมนจะยึดถือหลักการแบบสุดโต่งมาก เลยใช้คำว่า bullshit generator ล่ะมั้งครับ อย่างที่ทุกคนน่าจะทราบกันดี สิ่งที่เขาต้องการสื่อก็คงไม่ต่างจากคำว่า "นกแก้วเชิงสถิติ"

แต่ก็เป็นความจริงเช่นกันว่า LLM ซึ่งเป็น "นกแก้วเชิงสถิติ" ในปัจจุบัน กำลังยกระดับผลิตภาพของมนุษยชาติอย่างมหาศาล และผู้คนก็น่าจะสนใจนวัตกรรมทางอุตสาหกรรมมากกว่าเสรีภาพในการคอมพิวติ้ง อีกอย่างก็ไม่มีอะไรรับประกันได้ด้วยว่ามนุษย์เองจะไม่ใช่ "นกแก้วเชิงสถิติ" เช่นกัน

 
jhk0530 2025-12-11

เปิดเผยซอร์สโค้ด...? ถ้าอย่างนั้นก็ DeepSeek นั่นไง!!!

 
gooksangom6394 2025-12-11
  1. "สร้างผลลัพธ์โดยไม่คำนึงว่าจริงหรือไม่"
  2. "เป็นซอฟต์แวร์ปิดที่ผู้ใช้ไม่สามารถได้ทั้งไฟล์ปฏิบัติการหรือซอร์สโค้ด"
  3. "การประมวลผลบนเซิร์ฟเวอร์ของผู้อื่นเป็นการบั่นทอนเสรีภาพในการคำนวณของผู้ใช้"

ถ้าตามนิยามนี้ ก็แทบไม่ต่างจากการบอกว่าธุรกิจบริการที่ต้องผ่านสมองของคนอื่นโดยไม่ผ่านมือของผมเอง รวมถึงพนักงาน บริการคลาวด์ หรือแม้แต่โทรศัพท์ ล้วนไม่ควรใช้ทั้งหมดนั่นแหละ

ข้อ 1 ก็แค่ทุกสิ่งที่มีอยู่จริงล้วนสามารถสร้างผลลัพธ์โดยไม่คำนึงถึงความจริงได้ทั้งนั้น แม้แต่ระบบที่ตั้งใจจะให้ผลลัพธ์ที่ถูกต้องก็อาจทำไม่ได้เช่นกัน เราเรียกสิ่งนี้ว่า "ความผิดพลาด"

ข้อ 2 ถ้าการที่ต้องเข้าถึงไฟล์ปฏิบัติการหรือซอร์สโค้ดจึงจะใช้งานได้ หมายความว่าต้องเข้าใจหลักการภายในของระบบเพื่อจะใช้มันได้จริง งั้นคนทุกคนที่ไม่ได้เรียนฟิสิกส์กับวิศวกรรมไฟฟ้าและอิเล็กทรอนิกส์ก็ควรเลิกใช้สมาร์ตโฟนและคอมพิวเตอร์เดี๋ยวนี้ไปเลย เท่ากับว่าถ้าไม่เคยเรียนทฤษฎีสัมพัทธภาพก็ห้ามใช้ระบบระบุตำแหน่งสินะ แล้วสตอลแมนมีแบบแปลนในหัวของช่างตัดผมที่ตัดผมให้ตัวเองอยู่หรือเปล่า?

ถ้าตามข้อ 3 คนนี้ก็คือพวกยึดตนเองเป็นศูนย์กลางที่ไม่เชื่อความคิดของใครเลย เพราะความคิดของคนอื่นทั้งหมดและข้อสรุปที่เกิดจากมันย่อมละเมิดเสรีภาพในการคิดของ "ฉัน" เนื่องจากมันไปแทรกแซงเสรีภาพในการคิดจากหัวของตัวเองนั่นเอง

ในประเด็นที่ว่าปัญญาประดิษฐ์เชิงกำเนิดมีสติปัญญาจริงหรือไม่ เราอาจพูดได้ว่าอย่าเพิ่งรีบเชื่อว่าเป็นสิ่งมีชีวิตที่มีสติปัญญา แต่ตรรกะแบบฝืน ๆ ที่วางเรียงเคียงบ่ากับความคิดนั้นมันก็แค่ bullshit เท่านั้นเอง

 
grenade 2025-12-11

ดูเหมือนว่าคุณจะเข้าใจผิดทั้งเรื่องที่ว่า Stallman คือใคร และเขาต้องการจะสื่ออะไร

  1. เจตนาของบทความนี้คือการเตือนว่า LLM ไม่มี semantic grounding เนื่องจากธรรมชาติแบบความน่าจะเป็นของมัน และอาจพูดสิ่งที่ผิดให้ฟังดูน่าเชื่อได้ เราไม่สามารถนำ LLM ไปอยู่ในระดับเดียวกับมนุษย์ได้เพียงเพราะทุกคนล้วนทำผิดพลาดได้
  2. การเข้าใจหลักการภายในกับการได้ซอร์สโค้ดมานั้น แตกต่างกันโดยสิ้นเชิง ปัญหาคือ ChatGPT เป็น proprietary software และด้วยเหตุนี้ ต่อให้มันจะมีความสามารถเช่นนั้น เราก็ไม่สามารถติดตั้ง/แก้ไข/แจกจ่าย ChatGPT ได้โดยตรง
  3. Stallman เป็นนักเสรีนิยมสายสุดโต่งผู้ให้กำเนิดแนวคิด free software ผมก็เห็นด้วยในระดับหนึ่งว่าเขามีด้านที่ค่อนข้างยึดมั่นถือมั่น แต่ผมไม่เข้าใจว่าจากการบอกว่าการประมวลผลบนเซิร์ฟเวอร์ของคนอื่นเป็นสิ่งที่ผิด จะเชื่อมไปสู่ข้อสรุปว่า “ความคิดในหัวของคนอื่น” ละเมิดเสรีภาพได้อย่างไร

Stallman อาจมีจุดยืนที่สุดโต่งและไม่ได้พูดถูกเสมอไป แต่ประเด็นที่บทความนี้หยิบขึ้นมาก็เป็นประเด็นที่มีการถกเถียงกันอย่างคึกคักอยู่แล้ว ไม่ใช่ตรรกะในระดับที่จะปัดทิ้งว่าเป็นเรื่องเหลวไหลได้ง่ายๆ ครับ

 
gooksangom6394 2025-12-11

โดยพื้นฐานแล้ว เหตุผลพื้นฐานของการพูดว่าผู้ใช้จะต้องสามารถมีซอร์สโค้ดหรือสำเนาของซอฟต์แวร์ได้ ไม่ใช่สุดท้ายแล้วเป็นเพียงความเชื่อส่วนบุคคลของสตอลแมนเองหรอกหรือ

ท่าทีแบบตั้งความเชื่อที่ทั้งสุดโต่ง อุดมคติ และเป็นทฤษฎีล้วน ๆ ขึ้นมาว่า ทุกสิ่งสามารถและควรถูกแบ่งปันอย่างฟรีและเท่าเทียมกัน แล้วสิ่งใดก็ตามที่ทำให้ปราสาทลอยฟ้าทางความคิดนั้นมีเงาทาบลงมาเพียงนิดเดียวก็ปฏิบัติต่อมันราวกับเป็นพวกนอกรีต เป็นสิ่งที่ผมเห็นด้วยได้ยาก มนุษยชาติของเราก็มีโรคที่คล้ายกันนี้อยู่แล้วอย่างหนึ่งในเรื่องระบบเศรษฐกิจ

ผมเห็นด้วยว่าผลลัพธ์ของ generative AI มีลักษณะเชิงความน่าจะเป็น และไม่มี semantic grounding อย่างที่คุณกล่าวไว้ แต่สุดท้ายมันก็เป็นเพียงความต่างด้านระดับเท่านั้น การสื่อสารและการปรึกษาหารือกับคนอื่นก็เช่นกัน การตัดสินและตรวจสอบเนื้อหาเป็นความรับผิดชอบของแต่ละบุคคล ไม่ว่าคู่สนทนาของผมจะเป็น generative AI หรือมนุษย์ คำตอบของอีกฝ่ายก็ย่อมได้รับอิทธิพลจากข้อมูลความรู้พื้นฐานที่ได้เรียนรู้มา และข้อมูลการเรียนรู้ที่หล่อหลอมค่านิยมของเขา แน่นอนว่าการมีจุดร่วมเหล่านี้ไม่ได้หมายความว่าผมคิดว่า AI มีสติปัญญาที่แท้จริง แต่ที่จริงแล้วเหตุผลที่ generative AI ไม่เกี่ยวข้องกับความจริงตั้งแต่แรก ก็เพราะข้อมูลที่มันเรียนรู้มาเองก็ไม่เกี่ยวข้องกับความจริงเช่นกัน ซึ่งมนุษย์ก็ไม่ต่างกัน เพียงแค่ข้อเท็จจริงนี้อย่างเดียวแล้วจะบอกว่า “ไม่ควรใช้” ผมไม่อาจยอมรับได้

ข้อ 3 เป็นส่วนที่ผมด่วนสรุปและเข้าใจผิดไปเองอยู่บ้าง ถ้าเป็นเรื่องในทำนองเดียวกับข้อ 2 เรื่องซอร์สโค้ด ว่าผู้ใช้ควรรู้ว่าเกิดอะไรขึ้นบนเซิร์ฟเวอร์ ผมก็เลยคิดว่าในฐานะผู้ให้บริการที่ให้บริการด้านความรู้ การเปรียบคนอื่นเป็นเซิร์ฟเวอร์ก็น่าจะอยู่ในบริบทเดียวกัน แต่กลายเป็นว่าผมเข้าใจผิดตั้งแต่แรกเอง

แต่เรื่องที่คุณบอกว่าเขาดูยึดตัวเองเป็นศูนย์กลางนั้น ดูเหมือนจะไม่ใช่ความเข้าใจผิดของผมนะ

ถ้าจะบอกว่าจะต้องสามารถได้มาซึ่งซอร์สโค้ดหรือสำเนาของ generative AI ได้เท่านั้น ทรัพย์สินทางปัญญาก็คงพังพินาศหมด

ถ้าไม่พอใจที่ข้อมูลถูกส่งไปยังเซิร์ฟเวอร์ของคนอื่น ก็แค่ไม่ส่งก็ได้ ไม่ใช้บริการก็พอ ไม่มีวิธีที่จะปรึกษาเรื่องความลับโดยไม่เปิดเผยความลับให้ใครเลย การบอกว่าซอร์สโค้ดหรือสำเนาของ AI ที่ใครบางคนใช้เวลา ทรัพยากร และความพยายามพัฒนาขึ้นมานั้น ทุกคนควรจะต้องมีได้ ถ้านั่นไม่ใช่ bullshit แล้วมันคืออะไร การที่ผมเอาของของผมออกมาให้ฟรี ไม่ได้แปลว่าผมจะไปเอาของของคนอื่นมาตามใจชอบได้

อย่างที่ผมบอกไว้ตอนแรก ผมไม่ได้รู้จักตัวสตอลแมนและข้ออ้างของเขาดีเท่าไรนัก รู้เพียงผิวเผินแค่ว่าเคยได้ยินชื่ออยู่บ้าง และรู้แค่ว่ามีความขัดแย้งที่เกี่ยวกับ free software แต่ผมไม่รู้ว่าข้ออ้างและอิทธิพลของเขาแผ่ไปได้ไกลแค่ไหน หรือมีคนรับเอาอย่างจริงจังมากเพียงใด อย่างน้อยผมก็น่าจะมีเสรีภาพพอที่จะเรียกข้ออ้างที่ขาดทั้งเหตุผลและความเป็นจริงว่า bullshit

 
foriequal0 2025-12-11

ผมมองในกรอบว่าเทคโนโลยี/ความรู้ที่ส่งผลกระทบอย่างมากต่อสังคมควรถูกคืนกลับสู่สังคม คล้ายกับยาสามัญนั่นแหละครับ หากยาสามัญถูกจำกัด กรณีอย่าง Daraprim ก็จะยิ่งเพิ่มขึ้น และทั้งสังคมก็จะต้องเสียประโยชน์เพื่อผลกำไรของคนเพียงบางส่วน
และคุณได้พูดถึงวิชาแม่เหล็กไฟฟ้ากับสมาร์ตโฟน แต่ศาสตร์พื้นฐานอย่างวิชาแม่เหล็กไฟฟ้านั้นเป็นความรู้ที่ถูกเผยแพร่ในรูปแบบที่บุคคลที่สามสามารถตรวจสอบได้และแบ่งปันให้สังคมไม่ใช่หรือครับ ดังนั้น แม้แต่คนทั่วไปที่ไม่มีความรู้ด้านแม่เหล็กไฟฟ้าก็ยังสามารถเข้าร่วมในระบบนิเวศของสมาร์ตโฟนได้บนพื้นฐานของความไว้วางใจที่ค่อย ๆ สั่งสมขึ้นมาแบบนี้ และเพราะอย่างนั้นขนาดของระบบนิเวศจึงใหญ่ขึ้น เกิดเป็นตลาดขึ้นมา และมนุษยชาติก็ได้รับประโยชน์จากมันครับ

 
gooksangom6394 2025-12-11

ผมก็คิดว่าเป็นเรื่องพึงประสงค์ที่บริษัทซึ่งได้รับผลประโยชน์จากตลาด จะมีส่วนตอบแทนตลาดและอุทิศให้แก่สังคมที่เอื้อให้เทคโนโลยีพัฒนาจนเกิดความก้าวหน้าเช่นนั้นขึ้นมาได้อีกครั้ง

โครงร่างพื้นฐานของ generative AI ได้ถูกเปิดเผยออกมาแล้ว และในบรรดาส่วนนั้น ส่วนที่ OpenAI ไม่เปิดเผยผมมองว่าเป็นความลับทางการค้าของบริษัท การที่บริษัทหรือเทคโนโลยีตอบแทนสังคมอีกครั้งนั้น ในเชิงภาพลักษณ์อาจเป็นการแสดงความขอบคุณและสารแห่งการอยู่ร่วมกัน แต่ในทางปฏิบัติผมมองว่าเป็นการนำกลับไปลงทุนในตลาดเพื่อการเติบโตอย่างยั่งยืนของบริษัท จากมุมมองเช่นนั้น บริษัท AI ควรนำเงินที่หาได้ไปสนับสนุนการศึกษาหรือโครงสร้างพื้นฐานทางสังคมมากกว่า การเรียกร้องให้เปิดเผยสำเนา AI ทั้งหมดซึ่งแทบไม่ต่างจากทรัพย์สินของบริษัทนั้น อาจมองได้ว่าเป็นการเพิกเฉยต่อประโยชน์จากไข่ทองคำของห่านที่ออกไข่ทองคำ แล้วกลับเรียกร้องให้ผ่าท้องมันเสียก่อนหรือไม่ ไข่ทองคำออกมาได้เรื่อย ๆ อยู่แล้ว เราแบ่งปันสิ่งนั้นกันก็ได้ แต่ถ้าจำเป็นต้องเอาห่านออกมาให้หมดจริง ๆ แล้วใครจะยังอยากเลี้ยงห่านตัวนั้นขึ้นมาอีก ผมก็แค่คิดเช่นนั้นเท่านั้น

วิธีการทำงานของ AI ได้ถูกอธิบายไว้อยู่แล้วเหมือนกับวิชาแม่เหล็กไฟฟ้า ในสมาร์ตโฟนก็คงไม่ได้มีแค่ความรู้พื้นฐานด้านแม่เหล็กไฟฟ้าเท่านั้น แต่ยังมีเทคโนโลยีที่แต่ละบริษัทไม่อาจเปิดเผยได้ซึ่งเป็นความลับทางการค้ารวมอยู่ด้วย ผมเพียงแค่ไม่เข้าใจว่าทำไมถึงไม่เคารพส่วนนี้ และกลับเหมารวมว่า generative AI เป็นสิ่งเลวร้ายราวกับล่าแม่มด

ต้องขอบคุณเรื่องราวจากทุกท่านที่มาตอบคอมเมนต์ ทำให้ผมได้ค้นหาหลายอย่างและได้ขบคิดหลายเรื่อง ขอบคุณครับ

 
foriequal0 2025-12-12

ขอบคุณที่ช่วยทำความเข้าใจครับ

ถ้ามีใครสักคนอ้างว่ามีห่านที่ออกไข่ทองคำได้ ผมคิดว่าเราก็ควรต้องตรวจสอบให้ได้ว่าไข่นั้นเป็นทองคำจริงไหม เป็นสิ่งที่ห่านตัวนั้นออกมาจริงหรือเปล่า และต้องแลกอะไรไปเป็นค่าของไข่ทองคำนั้นบ้าง
ผมอ่านข้อโต้แย้งของสตอลแมนที่บอกว่าเพื่อให้คอมพิวติ้งน่าเชื่อถือได้ เราควรเข้าถึงซอร์สได้ ในทำนองนี้ครับ

เมื่อไม่นานมานี้มีกรณีพบไมโครโฟนในผลิตภัณฑ์ชื่อ nanokvm ที่ออกโดยผู้ผลิตแพลตฟอร์ม embedded จากจีนอย่าง sipeed
เท่าที่ทราบ หลายคนมีความกังวลว่าผลิตภัณฑ์ embedded จากจีนอาจมีจุดอ่อนด้านความปลอดภัย หรือถึงขั้นอาจถูกใช้ในปฏิบัติการด้านความมั่นคงของรัฐก็ได้
จึงไม่แน่ใจว่ามีอคติเดิมสะท้อนอยู่ด้วยหรือไม่ แต่ช่วงหลังยังมีบทความเกี่ยวกับผลิตภัณฑ์นี้ออกมาด้วย: 중국산 NanoKVM에서 숨겨진 마이크를 발견한 과정
แต่ผมคิดว่า sipeed สามารถคลายความเข้าใจผิดจากเหตุการณ์นี้ได้ เพราะตั้งแต่ฮาร์ดแวร์ไปจนถึงการพัฒนาซอฟต์แวร์ของผลิตภัณฑ์นี้ทำแบบโอเพนซอร์ส: https://x.com/lexifdev/status/1999340940805439775

เท่าที่ทราบ ในยุคของสตอลแมน ในวาทกรรมลักษณะนี้ คนที่อยู่ในตำแหน่งนั้นแทนรัฐบาลจีนก็คือรัฐบาลสหรัฐในยุคที่ยังมีอิทธิพลของลัทธิแม็กคาร์ธี และ NSA
มีทั้งกรณีแบ็กดอร์ของ NSA ที่ตอนแรกฟังเหมือนทฤษฎีสมคบคิด แต่ภายหลังก็พิสูจน์ได้ว่ามีจริง และยังมีเรื่อง printer tracking dots (https://en.wikipedia.org/wiki/Printer_tracking_dots) ด้วย
ทุกวันนี้แทนที่จะเป็นทฤษฎีสมคบคิดที่รัฐมีส่วนเกี่ยวข้อง เรื่องที่กำลังฮอตกว่ากลับเป็นการที่บริษัทซึ่งมีรายได้หลักจากโฆษณาแอบดักฟังไมโครโฟนสมาร์ตโฟนเพื่อทำโฆษณาแบบเจาะกลุ่มเป้าหมาย

และในบริษัทเทคโนโลยีซอฟต์แวร์ ผมคิดว่าแม้ซอร์สโค้ดจะมีบทบาทสำคัญมาก แต่ความสะดวกโดยรวม ความสามารถในการให้บริการและการปฏิบัติการ และความน่าเชื่อถือ มีบทบาทมากยิ่งกว่า
ต่อให้ได้ซอร์สโค้ดของ OpenAI มาทั้งหมด ผู้ตามหลังจะสามารถจัดหาและดูแลโครงสร้างพื้นฐานที่รองรับผู้ใช้จำนวนมหาศาลได้อย่างมีเสถียรภาพ และไล่ตามความน่าเชื่อถือของแบรนด์ได้ง่าย ๆ หรือครับ
มีหลายกรณีที่เปิดผลิตภัณฑ์หลักเป็นโอเพนซอร์ส มีฟอร์กจำนวนมาก แต่ก็ยังไม่สูญเสียความเป็นผู้นำ
ถ้าจะยกตัวอย่างที่นึกออกทันที ก็อย่าง Chrome และ VS Code
แน่นอนว่าก็มีกรณีที่สูญเสียอำนาจนำ เช่น Elastic หรือ Redis จากประเด็นเรื่องไลเซนส์โอเพนซอร์สกับ AWS แต่ในทำนองเดียวกัน ผมมองว่าเรื่องนั้นเกิดขึ้นเพราะทั้งสองบริษัทตามหลัง AWS ในด้านความสะดวก ความสามารถในการให้บริการและการปฏิบัติการ และความน่าเชื่อถืออยู่พอสมควร

พูดแบบนี้ไปก็อาจถือเป็นเรื่องการเมืองและอุดมการณ์ได้เหมือนกัน ดังนั้นผมขอเสริมด้วยประสบการณ์ส่วนตัว
ในฐานะคนที่ทำงานหลักเป็นนักพัฒนาซอฟต์แวร์ และเป็นงานอดิเรกก็ชอบเล่นกับฮาร์ดแวร์ embedded การต้องรับมือกับกล่องดำที่ไม่มีซอร์สโค้ดหรือแผนผังวงจรนี่... มันลำบากมากจริง ๆ ทั้งตอนพัฒนาและตอนบำรุงรักษา
เวลาอยากพัฒนาอะไรโดยใช้ซอฟต์แวร์ไลบรารีหรือฮาร์ดแวร์บางอย่าง ถ้าหาซอร์สโค้ดหรือแบบออกแบบได้ หรืออย่างน้อยมีเอกสารสเปกที่จัดทำไว้ดี ๆ งานพัฒนาจะง่ายขึ้นมาก แต่ถ้าไม่มีนี่ปวดหัวจริง ๆ
ช่วงหลังในต่างประเทศมีการพูดถึงสิทธิในการซ่อมพอสมควร เรื่องหนึ่งที่ผมประทับใจคือ สมัยก่อนเมื่อเปิดฝาอุปกรณ์อิเล็กทรอนิกส์ จะมีแผนผังสายไฟวาดไว้ให้ดูเพื่อใช้อ้างอิงตอนซ่อมด้วย (ช่วงหลังได้ยินมาว่า Apple ก็ให้แผนผังวงจรกับช่างซ่อมเหมือนกัน)
ประสบการณ์แบบนี้มีผลมากต่อการสร้างความน่าเชื่อถือให้กับผลิตภัณฑ์เหล่านั้น ทุกวันนี้เวลาเลือกเทคโนโลยีหรือซื้อสินค้าอะไร ผมจะดูเป็นอย่างแรกว่า ถ้ามันเสียหรือมีปัญหาขึ้นมา ผมจะสามารถเข้าใจมันได้ง่าย ซ่อมใช้ต่อเองได้ หรือหาทางอ้อมเพื่อใช้ต่อได้หรือไม่

 
iolothebard 2025-12-11

ความรู้คืออะไรกันนะ…

 
svg1773 2025-12-11

นี่ก็เป็นประเด็นเก่าที่ถกกันมาตั้งแต่การทดลอง 'ห้องภาษาจีน' แล้วล่ะ 555

 
GN⁺ 2025-12-11
ความคิดเห็นจาก Hacker News
  • เมื่อดูจากการที่ Stallman เคยทำงานกับ symbolic AI ในยุค MIT AI Lab และถึงขั้นสร้าง GCC ด้วย ผมคิดว่าเขาเป็นหนึ่งในคนดังสายเทคที่เข้าใจแก่นของคำถามนี้ได้ลึกมาก

    • Symbolic AI กับ neural network เป็นเทคโนโลยีที่แก้ปัญหาเดียวกันด้วยวิธีที่ต่างกันโดยสิ้นเชิง เป็นอุปมาได้คล้ายกับผู้เชี่ยวชาญ Photoshop ที่ไปพูดถึงศาสตร์การวาดภาพโดยรวม
    • แนวทางสมัยใหม่ไม่ได้ทับซ้อนกับ วิธีวิทยาแบบกำหนดนิยมของ Chomsky อย่างสิ้นเชิง
    • ครั้งนี้เขาน่าจะพลาด ประโยคทำนองว่า “ChatGPT ไม่เข้าใจ จึงไม่ใช่ความฉลาด” ฟังดูใกล้เคียงกับ ข้ออ้างเชิงอุดมการณ์ มากกว่าการวิเคราะห์ ที่จริงมนุษย์ก็เริ่มจากสัญชาตญาณคล้ายกัน แล้วค่อยเอาเหตุผลมาอธิบายทีหลังเหมือนกัน แต่ผมเห็นด้วยกับ ปรัชญาซอฟต์แวร์เสรี ของ Stallman การผูกขาดโมเดลปิดโดยทุนขนาดใหญ่ย่อมก่อผลข้างเคียงอย่างแน่นอน
  • เขาไม่ได้ผิด ChatGPT เป็นเพียง ภาพจำลองของความฉลาด (simulacrum) เท่านั้น มีประโยชน์ก็จริงแต่เชื่อถือได้ทั้งหมดไม่ได้ และมองจากมุมเสรีภาพกับความเปิดกว้างก็ยากจะบอกว่าเป็นเรื่องดี

    • คำว่า “ภาพจำลองของความฉลาด” สุดท้ายก็เป็นแค่การพูดคำว่า ปัญญาประดิษฐ์ ให้ดูหรูขึ้นเท่านั้น
    • ผมคิดว่าเรียกว่า “สิ่งที่แสดงพฤติกรรมคล้ายความฉลาด” น่าจะเหมาะกว่า
    • ถ้าภาพจำลองนั้นทรงพลังขึ้นมากกว่านี้ จะถึงจุดที่เราเรียกมันว่าความฉลาดได้ไหมก็น่าคิด
    • เอาจริง ๆ บางทีก็รู้สึกว่าคุณเองก็อาจเป็น “ภาพจำลองของความฉลาด” เหมือนกัน
  • ผมชอบใช้คำว่า LLM มากกว่า แต่คนส่วนใหญ่ไม่รู้ว่ามันคืออะไร สุดท้ายเลยต้องอธิบายว่าเป็น AI อยู่ดี LLM ไม่ใช่ bullshit generator ถ้าผลลัพธ์มีประโยชน์ แม้มันจะไม่รู้ความหมายก็เพียงพอแล้ว เหมือนกับที่พ่อครัวอาจไม่รู้แก่นแท้ของไข่ แต่ก็ยังต้มมันได้ อย่างไรก็ดี โมเดลแบบนี้ควรรันได้อย่างอิสระบน ฮาร์ดแวร์ของตัวเองหรือคลาวด์ของบุคคลที่สาม ตอนนี้โมเดลจากจีนกำลังครองตลาด และ ChatGPT เองก็อาจอยู่ได้ไม่นาน หากแก้สถานการณ์ “code red” ภายในไม่ได้

    • ผมเองก็มักไม่รู้ความหมายของสิ่งที่ตัวเองสร้างเหมือนกัน บ่อยครั้ง สภาวะภายใน อย่างอารมณ์หรือความคิดต้องใช้เวลาจึงจะเข้าใจ นั่นแหละถึงมีสิ่งที่เรียกว่า การจดบันทึกความคิด (journaling)
    • คำพูดที่ว่า “ไม่รู้ความหมายแต่ผลลัพธ์สำคัญ” แท้จริงแล้วก็คล้าย นิยามของ bullshit มาก
    • ตรงที่ ChatGPT ไม่รู้ว่าตัวเองผิดนี่แหละ ทำให้คำว่า bullshit เหมาะสมอย่างยิ่ง มันไม่ใช่การโกหก แต่เป็นการมุ่งบรรลุเป้าหมายโดยไม่สนว่าจริงหรือไม่
    • คำว่า “ผลลัพธ์สำคัญ” นั้นผิด ผลลัพธ์นั้นสำคัญแค่กับ CIA เท่านั้น
  • ขำดีที่ในเว็บของ Stallman มีส่วน “What’s bad about” อยู่ด้วย ดูเป็นคนที่รู้ตัวเองดีพอสมควร

    • ข้ออ้างทำนองว่า “ถ้าจะโพสต์บน Reddit ต้องรัน JavaScript ที่ไม่เสรี” เป็นสิ่งที่น่านับถือก็จริง แต่ตอนนี้มันฟังดูเหมือน คำบ่นของคนแก่ มากกว่า การวิจารณ์ควรเฉพาะเจาะจงกว่านี้
    • ถ้ารู้ตัวเองจริง ก็น่าจะมีหัวข้ออย่าง “What’s bad about Richard Stallman / GPL / GNU / Emacs” ด้วย
  • ก็เหมือนกับที่เราจะบอกไม่ได้ว่าเครื่องคิดเลข ทำคณิตศาสตร์ไม่เป็น เพียงเพราะมันไม่เข้าใจตัวเลข AI เองก็จัดการกับคำในแบบที่คล้ายมนุษย์ แม้จะขาดความคิดสร้างสรรค์ แต่ก็จัดการงานทั่วไปในชีวิตประจำวันได้สบาย ตัวอย่างเช่น ถ้าถามเรื่องระบบภาษีของเยอรมนี ต่อให้มีคลาดเคลื่อนอยู่บ้าง ก็น่าจะยังแม่นกว่าสิ่งที่ผมหามาเองสองชั่วโมง

    • แต่การเปรียบเทียบนั้นไม่เหมาะ AI ไม่ได้ เข้าใจหรือใช้เหตุผล จึงไม่ได้สร้างความจริง เครื่องคิดเลขถูกออกแบบมาให้คำนวณทางคณิตศาสตร์ได้อย่างแม่นยำ แต่ก็ทำเรื่องยื่นภาษีไม่ได้ เช่นเดียวกัน
  • ถ้านิยามความฉลาดว่าเป็น “ความสามารถในการเข้าใจปรากฏการณ์ที่ไม่คุ้นเคยและสร้าง mental model” โมเดลปัจจุบันก็ไม่ใช่ความฉลาด เพราะมันอัปเดตน้ำหนักระหว่างการอนุมานไม่ได้ และเพราะการเรียนรู้แบบ gradient descent ไม่มีประสิทธิภาพ ความฉลาดของโมเดลแบบ inference-only ในปัจจุบันจึงแทบจะใกล้ศูนย์

    • แต่ ความฉลาดกับการเรียนรู้ควรแยกจากกัน คนที่มีแค่ความจำระยะสั้นก็ยังอาจฉลาดได้ Stallman เองก็บอกว่าระบบง่าย ๆ ก็ถือเป็น AI ได้ ดังนั้นเขาไม่ได้พูดถึงเฉพาะความฉลาดแบบมนุษย์เท่านั้น
  • LLM สุดท้ายแล้วก็เป็นสิ่งที่สร้าง ภาพหลอน (hallucination) ออกมา เพียงแต่บางภาพหลอนก็มีประโยชน์

    • ผมเองก็ใช้ชีวิตหลายช่วงเหมือนอยู่ในภาพหลอนเหมือนกัน (ไม่ใช่ยา)
    • สักวันเราอาจต้องยอมรับว่า สำนึกและควาเลีย เองก็เป็นภาพหลอนเช่นกัน
  • ข้ออ้างว่า “ChatGPT ไม่เข้าใจอะไรเลย จึงไม่ใช่ความฉลาด” จริง ๆ แล้วเป็นตรรกะที่กดมันลงด้วยการ ทำให้เป็นมนุษย์ (anthropomorphize) เสียมากกว่า แต่ผมเห็นด้วยกับส่วนที่ว่า “ซอฟต์แวร์ที่รันอยู่บนเซิร์ฟเวอร์ของคนอื่นทำลาย เสรีภาพในการคอมพิวต์” การที่ AI เหล่านี้พัฒนาอยู่ใน สภาพแวดล้อมที่ไม่สามารถรันหรือพัฒนาได้อย่างเสรี น่าเสียดายจริง ๆ

  • LLM ไม่ใช่ความฉลาดที่แท้จริง แต่ก็เรียกว่า ปัญญาประดิษฐ์ (artificial intelligence) ได้ เหมือนหญ้าเทียมที่ไม่ใช่หญ้าจริง แต่เราก็ยังเรียกมันว่า “หญ้า” ดังนั้นชื่อนี้ก็สมเหตุสมผล

    • เพราะแบบนั้นผมจึงใช้คำที่แม่นยำกว่าอย่าง LLM แทน “AI” คำว่า “artificial” หมายถึงสิ่งที่มนุษย์สร้างขึ้น แต่ Stallman มองว่ามันไม่เหมาะ เพราะมันไม่ได้ทำ หน้าที่เดียวกับความฉลาดของมนุษย์ ถ้า CEO แทนที่พนักงานด้วยแชตบอต สิ่งนั้นไม่ใช่ปัญญาประดิษฐ์ แต่เป็น กำลังสนับสนุนเทียม
    • มีคนบอกว่า LLM ไม่มีประสบการณ์จริง แต่จริง ๆ มนุษย์เองก็มี ขอบเขตมากมายที่ไม่อาจรับรู้ด้วยประสาทสัมผัสโดยตรง ตัวอย่างเช่น สิ่งที่เรารู้เกี่ยวกับเมฆออร์ตเองก็ล้วนเป็นประสบการณ์ทางอ้อม
  • แก่นของ LLM นั้นเรียบง่าย นิยามของความฉลาด ไม่ได้สำคัญ ผมเรียก LLM ว่า “Associator” มันไม่ได้คิดหรือเข้าใจ แต่ เชื่อมโยงรูปแบบทางภาษา เพื่อสร้างผลลัพธ์ที่มีประโยชน์

    • ผมชอบมุมมองนี้ ผู้คนมักทำให้ LLM ดูลึกลับเกินจริงหรือมัวแต่ถกกันเรื่องความฉลาด แต่จริง ๆ ก็มองมันตามที่มันเป็นก็พอ ปัญหาคือเรา ยังไม่เข้าใจมนุษย์ดีพอเสียเอง
 
supermaxi 2025-12-11

หากท้ายที่สุดแล้วปัญญาประดิษฐ์ไม่อาจมีจิตวิญญาณได้ ก็มีเหตุผลอะไรหรือที่สติปัญญาของมันจำเป็นต้องคล้ายกับสติปัญญาของมนุษย์ซึ่งแสวงหาความจริง? แม้กระทั่งกิจกรรมจำนวนมากที่เราเรียกว่ากิจกรรมทางปัญญาก็ยังตั้งอยู่บนความเท็จและภาพหลอน มนุษย์ในสังคมสมัยใหม่เองก็ส่งผลกระทบต่อชีวิตของผู้อื่นด้วยความเท็จ เพราะมองไม่เห็นปรากฏการณ์ที่เกิดขึ้นจริง (หรือไม่ก็จงใจทำเช่นนั้น)