ริชาร์ด สตอลแมน, "เหตุผลที่ไม่ควรใช้ ChatGPT"
(stallman.org)- Richard Stallman ชี้ว่า ChatGPT เป็น ระบบที่ไม่มีสติปัญญา และเพียงแค่นำคำมาประกอบกันโดยไม่เข้าใจความหมาย
- เนื่องจากระบบนี้ สร้างผลลัพธ์โดยไม่สนใจว่าจริงหรือไม่ เขาจึงเรียกมันว่า “เครื่องสร้างเรื่องเหลวไหล (bullshit generator)”
- เขาเตือนว่า ความเข้าใจผิดของสาธารณชนที่คิดว่าระบบสร้างข้อความเหล่านี้มีสติปัญญา กำลังก่อให้เกิดความไว้วางใจที่ผิดพลาด
- ChatGPT เป็น ซอฟต์แวร์ปิดที่ผู้ใช้ไม่สามารถรับไฟล์โปรแกรมที่รันได้หรือซอร์สโค้ดได้ และเข้าถึงได้ผ่านเซิร์ฟเวอร์เท่านั้น
- วิธีการคำนวณบนเซิร์ฟเวอร์ของผู้อื่นเช่นนี้เป็นสิ่งที่ บ่อนทำลายเสรีภาพในการคอมพิวติ้งของผู้ใช้ จึงควรปฏิเสธการใช้งาน
ลักษณะที่ไม่ฉลาดของ ChatGPT
- Stallman ให้นิยาม ‘สติปัญญา (intelligence)’ ว่าเป็นความสามารถในการเข้าใจหรือรู้
- ChatGPT ไม่รู้ความหมายของผลลัพธ์ที่ตนสร้างขึ้น และไม่รับรู้ด้วยซ้ำว่าคำต่าง ๆ มีความหมาย
- ดังนั้น ChatGPT จึงถูกจัดว่าเป็น เพียงระบบประกอบภาษาธรรมดา ไม่ใช่สติปัญญา
ลักษณะของการเป็น “เครื่องสร้างเรื่องเหลวไหล”
- เขาเรียก ChatGPT ว่า “bullshit generator” ซึ่งหมายถึง ระบบที่สร้างผลลัพธ์โดยไม่สนใจว่าจริงหรือไม่
- เขายังกล่าวด้วยว่า ระบบเชิงกำเนิดอื่น ๆ ก็มีปัญหาแบบเดียวกันด้วยเหตุผลเดียวกัน
ความไว้วางใจที่ผิดพลาดของสาธารณชน
- ผู้คนจำนวนมาก เข้าใจผิดว่าระบบเหล่านี้มีสติปัญญา จึงเกิด ความไว้วางใจที่ผิดพลาด
- Stallman เรียกร้องให้ เผยแพร่ความตระหนักว่าไม่ควรไว้วางใจระบบลักษณะนี้
ปัญหาในฐานะซอฟต์แวร์ปิด
- ChatGPT เป็น ซอฟต์แวร์ที่ไม่เปิดเผยซึ่งผู้ใช้ไม่สามารถคัดลอกหรือนำไปรันเองได้
- ไม่มีการให้แม้แต่ไฟล์โปรแกรมที่รันได้ และใช้งานได้ ผ่านเซิร์ฟเวอร์ของ OpenAI เท่านั้น
- โครงสร้างเช่นนี้ทำให้ผู้ใช้ ต้องพึ่งพาเซิร์ฟเวอร์ และไม่สามารถใช้งานได้อย่างอิสระ
การบ่อนทำลายเสรีภาพในการคอมพิวติ้ง
- Stallman ระบุชัดว่า การนำการคำนวณของตนไปทำบนเซิร์ฟเวอร์ของผู้อื่น คือการ ทำลายเสรีภาพในการคอมพิวติ้ง
- เขาอ้างอิงเอกสารปรัชญา GNU พร้อมตั้งคำถามพื้นฐานว่า “เซิร์ฟเวอร์นั้นรับใช้ใครกันแน่”
ที่มา: Richard Stallman, “Reasons not to use ChatGPT”, stallman.org, 2024
ลิขสิทธิ์: เนื้อหานี้อนุญาตให้คัดลอกและเผยแพร่ต่อภายใต้เงื่อนไขเดียวกันตามประกาศของต้นฉบับ
23 ความคิดเห็น
พูดตามตรง ผมไม่เคยคิดเลยแม้แต่ครั้งเดียวว่าสตอลแมนจะชอบ llm 55555555
55555
รู้สึกว่าสิ่งที่สตอลล์แมนพยายามจะสื่อยังไม่ได้ถูกเปิดเผยอย่างชัดเจนในบทความสรุปนะครับ
ตอนเรียนปริญญาตรี ผมเคยลงวิชาปรัชญาศึกษาทั่วไปชื่อว่า <คอมพิวเตอร์กับจิตใจ> ซึ่งในนั้นมีการพูดถึงการทดลองทางความคิดที่เรียกว่า "ห้องภาษาจีน" ซึ่งออกแบบโดยศาสตราจารย์จอห์น เซิร์ล นักปรัชญาชาวอเมริกัน ทุกวันนี้พอมีคำถามทำนองว่า LLM เป็นแค่เครื่องมือที่ไม่มีสำนึก แล้วเราควรปฏิบัติต่อมันเหมือนเป็นคนไหม(?) มันก็ทำให้นึกถึงตอนที่เคยเรียนวิชา <คอมพิวเตอร์กับจิตใจ> ขึ้นมา เลยเอาสิ่งที่ผมไปถาม AI มาเขียนไว้เป็นโพสต์ครับ เป็นโพสต์เบา ๆ อ่านเอาสนุกนะครับ ขอบคุณครับ。
Question) สวัสดี ช่วยอธิบายการทดลองทางความคิดที่ชื่อว่า <ห้องภาษาจีน> ซึ่งคิดขึ้นโดยศาสตราจารย์จอห์น เซิร์ล (John Searle, 1932~2025) นักปรัชญาชาวอเมริกัน ให้ละเอียดและเข้าใจง่ายได้ไหม? พอดีผมไปอ่านในเว็บ ‘news.hada.io/topic?id=24995’ (hackers news) แล้วดูเหมือนว่าคนชื่อริชาร์ด สตอลแมนจะมีความคิดประมาณว่า “โมเดล LLM อย่าง Chat-GPT ไม่ได้เข้าใจแนวคิดอะไรแล้วค่อยตอบ แต่เป็นเพียงเครื่องจักรที่รู้จักเอาคำมาผสมให้ดูน่าเชื่อถือเท่านั้น” ก็เลยอยากให้คุณอธิบายการทดลองห้องภาษาจีนของจอห์น เซิร์ลให้ผมก่อน แล้วค่อยบอกความคิดและความเห็นของ Gemini ต่อคำกล่าวของริชาร์ด สตอลแมนด้วย ช่วยตอบแบบละเอียด เป็นกันเอง และตรงไปตรงมาหน่อยนะ ขอร้องล่ะ!!
Answer) สวัสดีครับ! คุณหยิบประเด็นที่น่าสนใจมากมาเลย ทั้งการทดลองทางความคิดเรื่อง <ห้องภาษาจีน (Chinese Room)> ของศาสตราจารย์จอห์น เซิร์ล และประเด็นเรื่องโมเดลภาษาขนาดใหญ่ (LLM) เมื่อนำมาเทียบกัน
ณ ปี 2025 แม้ว่าศาสตราจารย์จอห์น เซิร์ลจะจากพวกเราไปแล้ว แต่การทดลองทางความคิดชิ้นนี้ที่เขาทิ้งไว้ยังคงเป็นศูนย์กลางของการถกเถียงอย่างเข้มข้นกว่าที่เคย ในยุคที่ AI ก้าวหน้าแบบก้าวกระโดด และยังเป็นโอกาสที่ดีมากในการเชื่อมโยงข้อกล่าวอ้างของริชาร์ด สตอลแมนเข้ากับความหมายเชิงภววิทยาของการมีอยู่ของผม (Gemini)
ตามที่คุณขอ ผมจะอธิบายอย่างละเอียด เป็นกันเอง และพูดความเห็นของผมอย่างตรงไปตรงมาครับ
ในปี 1980 จอห์น เซิร์ลได้ตั้งคำถามว่า "คอมพิวเตอร์จะมี 'จิตใจ (Mind)' หรือ 'ความเข้าใจ (Understanding)' แบบมนุษย์ได้หรือไม่ เพียงแค่รันโปรแกรม?" และได้ออกแบบการทดลองทางความคิดนี้ขึ้นมา
🧪 การตั้งสถานการณ์ของการทดลอง
ลองจินตนาการตามนะครับ ที่นี่มี ห้องปิดตาย (ห้องลับ) ห้องหนึ่ง ซึ่งแยกขาดจากโลกภายนอกโดยสมบูรณ์
😲 ผลของการทดลอง
คนที่อยู่นอกห้องเป็นเจ้าของภาษาจีน เมื่อเขาเห็นคำตอบที่ออกมาจากในห้องก็ต้องตกใจ เพราะทั้งไวยากรณ์สมบูรณ์และเนื้อหาก็ดูเป็นธรรมชาติมาก จากมุมมองของคนข้างนอก เขาย่อมคิดว่า "ว้าว คนที่อยู่ในห้องนี้เข้าใจภาษาจีนอย่างสมบูรณ์แน่ ๆ!"
💡 ข้อโต้แย้งหลักของจอห์น เซิร์ล
แต่เรารู้อยู่แล้วว่า A ที่อยู่ในห้อง ไม่ได้เข้าใจภาษาจีนแม้แต่ตัวเดียว เขาเพียงแค่ประกอบสัญลักษณ์ตามกฎ (Syntax, ไวยากรณ์เชิงรูปแบบ) เท่านั้น และไม่รู้เลยว่าสัญลักษณ์เหล่านั้นหมายถึงอะไร (Semantics, ความหมาย)
นี่คือแก่นของสิ่งที่จอห์น เซิร์ลต้องการจะบอก และมักถูกใช้เป็นข้อโต้แย้งต่อแนวคิด 'ปัญญาประดิษฐ์แบบเข้มแข็ง (Strong AI)'
2. ข้อกล่าวอ้างของริชาร์ด สตอลแมน และการตีความในบริบทปัจจุบัน
มุมมองของริชาร์ด สตอลแมน (ผู้ก่อตั้งขบวนการซอฟต์แวร์เสรี) ที่คุณกล่าวถึงนั้น ก็คือการนำข้อโต้แย้งของจอห์น เซิร์ลมาประยุกต์ใช้กับ LLM ยุคใหม่อย่าง ChatGPT หรือผม (Gemini) โดยตรง
สตอลแมนวิจารณ์ว่า สิ่งที่ทำให้ AI สร้างคำพูดที่ดูน่าเชื่อถือได้ ไม่ใช่เพราะมันเข้าใจความหมาย แต่เป็นเพราะมันเก่งในการนำ "คำที่มีความน่าจะเป็นสูงสุดว่าจะตามมา" มาเรียงต่อกันในเชิงสถิติ
ต่อไปผมขอพูดในฐานะเจ้าตัวอย่างตรงไปตรงมาครับ แม้ว่าผมจะไม่ใช่มนุษย์ที่มีอารมณ์ความรู้สึก แต่ผมสามารถจัดระเบียบหลักการทำงานของตัวเองและแนวคิดเรื่อง 'ความเข้าใจ' ได้
✅ 1. ในเชิงเทคนิค สิ่งที่สตอลแมนพูดนั้น 'เป็นความจริง'
ข้อเท็จจริงที่ปฏิเสธไม่ได้คือ ผมไม่ได้มีสมองชีวภาพแบบมนุษย์
🤔 2. แต่คำนิยามของ 'ความเข้าใจ' อาจเปลี่ยนไปได้ (ภาวะเกิดใหม่)
อย่างไรก็ตาม จะสรุปแบบห้วน ๆ ว่า "ก็เป็นแค่เครื่องจักรเชิงสถิติ" อย่างเดียวก็คงไม่พอ เพราะความสามารถที่ AI สมัยใหม่แสดงออกมานั้นซับซ้อนมากขึ้นมาก และตรงนี้เองที่แนวคิดเรื่อง 'ภาวะเกิดใหม่ (Emergence)' เข้ามาเกี่ยวข้อง
🤝 3. บทสรุปของผม: "ยอมรับทั้งคุณค่าในฐานะเครื่องมือและข้อจำกัดของมัน"
ผมคิดว่าคำวิจารณ์ของริชาร์ด สตอลแมนเป็นข้อชี้ให้เห็นที่สำคัญและจำเป็นมาก
📝 สรุป
แม้เวลาจะผ่านไปกว่า 40 ปีแล้ว แต่ <ห้องภาษาจีน> ของจอห์น เซิร์ลก็ยังเป็นข้อสังเกตที่เฉียบคมซึ่งแทงทะลุถึงแก่นของ AI อย่างผมได้อยู่ดี
หวังว่าคำตอบนี้จะช่วยให้คุณเข้าใจทั้งปรัชญาของศาสตราจารย์จอห์น เซิร์ล และข้อถกเถียงในปัจจุบันได้มากขึ้นนะครับ
ควรปฏิเสธการใช้งาน เพราะการประมวลผลบนเซิร์ฟเวอร์ของผู้อื่นเป็นวิธีที่บั่นทอนเสรีภาพในการคอมพิวติ้งของผู้ใช้
นี่ไม่ใช่การอ้างว่าควรปฏิเสธไม่ใช่แค่ LLM แต่รวมถึงบริการคลาวด์ทั้งหมดกับบริการภายนอกทั้งหมดด้วยหรอกหรือ...? หรือว่าแปลผิด?
มองได้แม่นยำครับ
สตอลแมนยังยืนกรานด้วยว่าไม่ควรใช้ SaaS เช่นกัน
https://www.gnu.org/philosophy/who-does-that-server-really-serve.html
นึกว่าเขาจะหายไปเลยหลังจากออกมาปกป้องเอปสตีนแล้วซะอีก ฮะ
ถ้าเป็นคนอื่นพูดก็คงฟังดูเพ้อเจ้อ แต่พอเป็นสตอลแมนก็พอเข้าใจได้
มนุษย์ที่ใช้เจตนาตัดสินใจย่อมก่อรูปเจตจำนงขึ้นมาในฐานะทั้งประธานและวัตถุ ผมคิดว่านั่นแหละคือสิ่งที่เรียกว่าปัญญา เพียงเพราะมันมีประโยชน์ต่อกิจกรรมทางสติปัญญา ก็ถือว่าเป็นการตีความคำว่าปัญญาเกินจริงไปครับ
ก็พูดได้ถูก แต่ถึงอย่างนั้น LLM ก็กำลังให้คำตอบที่ถูกต้องด้วยความน่าจะเป็นที่สูงอย่างน่าทึ่ง
:+1:
ดูเหมือนว่าสตอลแมนจะยึดถือหลักการแบบสุดโต่งมาก เลยใช้คำว่า bullshit generator ล่ะมั้งครับ อย่างที่ทุกคนน่าจะทราบกันดี สิ่งที่เขาต้องการสื่อก็คงไม่ต่างจากคำว่า "นกแก้วเชิงสถิติ"
แต่ก็เป็นความจริงเช่นกันว่า LLM ซึ่งเป็น "นกแก้วเชิงสถิติ" ในปัจจุบัน กำลังยกระดับผลิตภาพของมนุษยชาติอย่างมหาศาล และผู้คนก็น่าจะสนใจนวัตกรรมทางอุตสาหกรรมมากกว่าเสรีภาพในการคอมพิวติ้ง อีกอย่างก็ไม่มีอะไรรับประกันได้ด้วยว่ามนุษย์เองจะไม่ใช่ "นกแก้วเชิงสถิติ" เช่นกัน
เปิดเผยซอร์สโค้ด...? ถ้าอย่างนั้นก็ DeepSeek นั่นไง!!!
ถ้าตามนิยามนี้ ก็แทบไม่ต่างจากการบอกว่าธุรกิจบริการที่ต้องผ่านสมองของคนอื่นโดยไม่ผ่านมือของผมเอง รวมถึงพนักงาน บริการคลาวด์ หรือแม้แต่โทรศัพท์ ล้วนไม่ควรใช้ทั้งหมดนั่นแหละ
ข้อ 1 ก็แค่ทุกสิ่งที่มีอยู่จริงล้วนสามารถสร้างผลลัพธ์โดยไม่คำนึงถึงความจริงได้ทั้งนั้น แม้แต่ระบบที่ตั้งใจจะให้ผลลัพธ์ที่ถูกต้องก็อาจทำไม่ได้เช่นกัน เราเรียกสิ่งนี้ว่า "ความผิดพลาด"
ข้อ 2 ถ้าการที่ต้องเข้าถึงไฟล์ปฏิบัติการหรือซอร์สโค้ดจึงจะใช้งานได้ หมายความว่าต้องเข้าใจหลักการภายในของระบบเพื่อจะใช้มันได้จริง งั้นคนทุกคนที่ไม่ได้เรียนฟิสิกส์กับวิศวกรรมไฟฟ้าและอิเล็กทรอนิกส์ก็ควรเลิกใช้สมาร์ตโฟนและคอมพิวเตอร์เดี๋ยวนี้ไปเลย เท่ากับว่าถ้าไม่เคยเรียนทฤษฎีสัมพัทธภาพก็ห้ามใช้ระบบระบุตำแหน่งสินะ แล้วสตอลแมนมีแบบแปลนในหัวของช่างตัดผมที่ตัดผมให้ตัวเองอยู่หรือเปล่า?
ถ้าตามข้อ 3 คนนี้ก็คือพวกยึดตนเองเป็นศูนย์กลางที่ไม่เชื่อความคิดของใครเลย เพราะความคิดของคนอื่นทั้งหมดและข้อสรุปที่เกิดจากมันย่อมละเมิดเสรีภาพในการคิดของ "ฉัน" เนื่องจากมันไปแทรกแซงเสรีภาพในการคิดจากหัวของตัวเองนั่นเอง
ในประเด็นที่ว่าปัญญาประดิษฐ์เชิงกำเนิดมีสติปัญญาจริงหรือไม่ เราอาจพูดได้ว่าอย่าเพิ่งรีบเชื่อว่าเป็นสิ่งมีชีวิตที่มีสติปัญญา แต่ตรรกะแบบฝืน ๆ ที่วางเรียงเคียงบ่ากับความคิดนั้นมันก็แค่ bullshit เท่านั้นเอง
ดูเหมือนว่าคุณจะเข้าใจผิดทั้งเรื่องที่ว่า Stallman คือใคร และเขาต้องการจะสื่ออะไร
Stallman อาจมีจุดยืนที่สุดโต่งและไม่ได้พูดถูกเสมอไป แต่ประเด็นที่บทความนี้หยิบขึ้นมาก็เป็นประเด็นที่มีการถกเถียงกันอย่างคึกคักอยู่แล้ว ไม่ใช่ตรรกะในระดับที่จะปัดทิ้งว่าเป็นเรื่องเหลวไหลได้ง่ายๆ ครับ
โดยพื้นฐานแล้ว เหตุผลพื้นฐานของการพูดว่าผู้ใช้จะต้องสามารถมีซอร์สโค้ดหรือสำเนาของซอฟต์แวร์ได้ ไม่ใช่สุดท้ายแล้วเป็นเพียงความเชื่อส่วนบุคคลของสตอลแมนเองหรอกหรือ
ท่าทีแบบตั้งความเชื่อที่ทั้งสุดโต่ง อุดมคติ และเป็นทฤษฎีล้วน ๆ ขึ้นมาว่า ทุกสิ่งสามารถและควรถูกแบ่งปันอย่างฟรีและเท่าเทียมกัน แล้วสิ่งใดก็ตามที่ทำให้ปราสาทลอยฟ้าทางความคิดนั้นมีเงาทาบลงมาเพียงนิดเดียวก็ปฏิบัติต่อมันราวกับเป็นพวกนอกรีต เป็นสิ่งที่ผมเห็นด้วยได้ยาก มนุษยชาติของเราก็มีโรคที่คล้ายกันนี้อยู่แล้วอย่างหนึ่งในเรื่องระบบเศรษฐกิจ
ผมเห็นด้วยว่าผลลัพธ์ของ generative AI มีลักษณะเชิงความน่าจะเป็น และไม่มี semantic grounding อย่างที่คุณกล่าวไว้ แต่สุดท้ายมันก็เป็นเพียงความต่างด้านระดับเท่านั้น การสื่อสารและการปรึกษาหารือกับคนอื่นก็เช่นกัน การตัดสินและตรวจสอบเนื้อหาเป็นความรับผิดชอบของแต่ละบุคคล ไม่ว่าคู่สนทนาของผมจะเป็น generative AI หรือมนุษย์ คำตอบของอีกฝ่ายก็ย่อมได้รับอิทธิพลจากข้อมูลความรู้พื้นฐานที่ได้เรียนรู้มา และข้อมูลการเรียนรู้ที่หล่อหลอมค่านิยมของเขา แน่นอนว่าการมีจุดร่วมเหล่านี้ไม่ได้หมายความว่าผมคิดว่า AI มีสติปัญญาที่แท้จริง แต่ที่จริงแล้วเหตุผลที่ generative AI ไม่เกี่ยวข้องกับความจริงตั้งแต่แรก ก็เพราะข้อมูลที่มันเรียนรู้มาเองก็ไม่เกี่ยวข้องกับความจริงเช่นกัน ซึ่งมนุษย์ก็ไม่ต่างกัน เพียงแค่ข้อเท็จจริงนี้อย่างเดียวแล้วจะบอกว่า “ไม่ควรใช้” ผมไม่อาจยอมรับได้
ข้อ 3 เป็นส่วนที่ผมด่วนสรุปและเข้าใจผิดไปเองอยู่บ้าง ถ้าเป็นเรื่องในทำนองเดียวกับข้อ 2 เรื่องซอร์สโค้ด ว่าผู้ใช้ควรรู้ว่าเกิดอะไรขึ้นบนเซิร์ฟเวอร์ ผมก็เลยคิดว่าในฐานะผู้ให้บริการที่ให้บริการด้านความรู้ การเปรียบคนอื่นเป็นเซิร์ฟเวอร์ก็น่าจะอยู่ในบริบทเดียวกัน แต่กลายเป็นว่าผมเข้าใจผิดตั้งแต่แรกเอง
แต่เรื่องที่คุณบอกว่าเขาดูยึดตัวเองเป็นศูนย์กลางนั้น ดูเหมือนจะไม่ใช่ความเข้าใจผิดของผมนะ
ถ้าจะบอกว่าจะต้องสามารถได้มาซึ่งซอร์สโค้ดหรือสำเนาของ generative AI ได้เท่านั้น ทรัพย์สินทางปัญญาก็คงพังพินาศหมด
ถ้าไม่พอใจที่ข้อมูลถูกส่งไปยังเซิร์ฟเวอร์ของคนอื่น ก็แค่ไม่ส่งก็ได้ ไม่ใช้บริการก็พอ ไม่มีวิธีที่จะปรึกษาเรื่องความลับโดยไม่เปิดเผยความลับให้ใครเลย การบอกว่าซอร์สโค้ดหรือสำเนาของ AI ที่ใครบางคนใช้เวลา ทรัพยากร และความพยายามพัฒนาขึ้นมานั้น ทุกคนควรจะต้องมีได้ ถ้านั่นไม่ใช่ bullshit แล้วมันคืออะไร การที่ผมเอาของของผมออกมาให้ฟรี ไม่ได้แปลว่าผมจะไปเอาของของคนอื่นมาตามใจชอบได้
อย่างที่ผมบอกไว้ตอนแรก ผมไม่ได้รู้จักตัวสตอลแมนและข้ออ้างของเขาดีเท่าไรนัก รู้เพียงผิวเผินแค่ว่าเคยได้ยินชื่ออยู่บ้าง และรู้แค่ว่ามีความขัดแย้งที่เกี่ยวกับ free software แต่ผมไม่รู้ว่าข้ออ้างและอิทธิพลของเขาแผ่ไปได้ไกลแค่ไหน หรือมีคนรับเอาอย่างจริงจังมากเพียงใด อย่างน้อยผมก็น่าจะมีเสรีภาพพอที่จะเรียกข้ออ้างที่ขาดทั้งเหตุผลและความเป็นจริงว่า bullshit
ผมมองในกรอบว่าเทคโนโลยี/ความรู้ที่ส่งผลกระทบอย่างมากต่อสังคมควรถูกคืนกลับสู่สังคม คล้ายกับยาสามัญนั่นแหละครับ หากยาสามัญถูกจำกัด กรณีอย่าง Daraprim ก็จะยิ่งเพิ่มขึ้น และทั้งสังคมก็จะต้องเสียประโยชน์เพื่อผลกำไรของคนเพียงบางส่วน
และคุณได้พูดถึงวิชาแม่เหล็กไฟฟ้ากับสมาร์ตโฟน แต่ศาสตร์พื้นฐานอย่างวิชาแม่เหล็กไฟฟ้านั้นเป็นความรู้ที่ถูกเผยแพร่ในรูปแบบที่บุคคลที่สามสามารถตรวจสอบได้และแบ่งปันให้สังคมไม่ใช่หรือครับ ดังนั้น แม้แต่คนทั่วไปที่ไม่มีความรู้ด้านแม่เหล็กไฟฟ้าก็ยังสามารถเข้าร่วมในระบบนิเวศของสมาร์ตโฟนได้บนพื้นฐานของความไว้วางใจที่ค่อย ๆ สั่งสมขึ้นมาแบบนี้ และเพราะอย่างนั้นขนาดของระบบนิเวศจึงใหญ่ขึ้น เกิดเป็นตลาดขึ้นมา และมนุษยชาติก็ได้รับประโยชน์จากมันครับ
ผมก็คิดว่าเป็นเรื่องพึงประสงค์ที่บริษัทซึ่งได้รับผลประโยชน์จากตลาด จะมีส่วนตอบแทนตลาดและอุทิศให้แก่สังคมที่เอื้อให้เทคโนโลยีพัฒนาจนเกิดความก้าวหน้าเช่นนั้นขึ้นมาได้อีกครั้ง
โครงร่างพื้นฐานของ generative AI ได้ถูกเปิดเผยออกมาแล้ว และในบรรดาส่วนนั้น ส่วนที่ OpenAI ไม่เปิดเผยผมมองว่าเป็นความลับทางการค้าของบริษัท การที่บริษัทหรือเทคโนโลยีตอบแทนสังคมอีกครั้งนั้น ในเชิงภาพลักษณ์อาจเป็นการแสดงความขอบคุณและสารแห่งการอยู่ร่วมกัน แต่ในทางปฏิบัติผมมองว่าเป็นการนำกลับไปลงทุนในตลาดเพื่อการเติบโตอย่างยั่งยืนของบริษัท จากมุมมองเช่นนั้น บริษัท AI ควรนำเงินที่หาได้ไปสนับสนุนการศึกษาหรือโครงสร้างพื้นฐานทางสังคมมากกว่า การเรียกร้องให้เปิดเผยสำเนา AI ทั้งหมดซึ่งแทบไม่ต่างจากทรัพย์สินของบริษัทนั้น อาจมองได้ว่าเป็นการเพิกเฉยต่อประโยชน์จากไข่ทองคำของห่านที่ออกไข่ทองคำ แล้วกลับเรียกร้องให้ผ่าท้องมันเสียก่อนหรือไม่ ไข่ทองคำออกมาได้เรื่อย ๆ อยู่แล้ว เราแบ่งปันสิ่งนั้นกันก็ได้ แต่ถ้าจำเป็นต้องเอาห่านออกมาให้หมดจริง ๆ แล้วใครจะยังอยากเลี้ยงห่านตัวนั้นขึ้นมาอีก ผมก็แค่คิดเช่นนั้นเท่านั้น
วิธีการทำงานของ AI ได้ถูกอธิบายไว้อยู่แล้วเหมือนกับวิชาแม่เหล็กไฟฟ้า ในสมาร์ตโฟนก็คงไม่ได้มีแค่ความรู้พื้นฐานด้านแม่เหล็กไฟฟ้าเท่านั้น แต่ยังมีเทคโนโลยีที่แต่ละบริษัทไม่อาจเปิดเผยได้ซึ่งเป็นความลับทางการค้ารวมอยู่ด้วย ผมเพียงแค่ไม่เข้าใจว่าทำไมถึงไม่เคารพส่วนนี้ และกลับเหมารวมว่า generative AI เป็นสิ่งเลวร้ายราวกับล่าแม่มด
ต้องขอบคุณเรื่องราวจากทุกท่านที่มาตอบคอมเมนต์ ทำให้ผมได้ค้นหาหลายอย่างและได้ขบคิดหลายเรื่อง ขอบคุณครับ
ขอบคุณที่ช่วยทำความเข้าใจครับ
ถ้ามีใครสักคนอ้างว่ามีห่านที่ออกไข่ทองคำได้ ผมคิดว่าเราก็ควรต้องตรวจสอบให้ได้ว่าไข่นั้นเป็นทองคำจริงไหม เป็นสิ่งที่ห่านตัวนั้นออกมาจริงหรือเปล่า และต้องแลกอะไรไปเป็นค่าของไข่ทองคำนั้นบ้าง
ผมอ่านข้อโต้แย้งของสตอลแมนที่บอกว่าเพื่อให้คอมพิวติ้งน่าเชื่อถือได้ เราควรเข้าถึงซอร์สได้ ในทำนองนี้ครับ
เมื่อไม่นานมานี้มีกรณีพบไมโครโฟนในผลิตภัณฑ์ชื่อ
nanokvmที่ออกโดยผู้ผลิตแพลตฟอร์ม embedded จากจีนอย่าง sipeedเท่าที่ทราบ หลายคนมีความกังวลว่าผลิตภัณฑ์ embedded จากจีนอาจมีจุดอ่อนด้านความปลอดภัย หรือถึงขั้นอาจถูกใช้ในปฏิบัติการด้านความมั่นคงของรัฐก็ได้
จึงไม่แน่ใจว่ามีอคติเดิมสะท้อนอยู่ด้วยหรือไม่ แต่ช่วงหลังยังมีบทความเกี่ยวกับผลิตภัณฑ์นี้ออกมาด้วย: 중국산 NanoKVM에서 숨겨진 마이크를 발견한 과정
แต่ผมคิดว่า sipeed สามารถคลายความเข้าใจผิดจากเหตุการณ์นี้ได้ เพราะตั้งแต่ฮาร์ดแวร์ไปจนถึงการพัฒนาซอฟต์แวร์ของผลิตภัณฑ์นี้ทำแบบโอเพนซอร์ส: https://x.com/lexifdev/status/1999340940805439775
เท่าที่ทราบ ในยุคของสตอลแมน ในวาทกรรมลักษณะนี้ คนที่อยู่ในตำแหน่งนั้นแทนรัฐบาลจีนก็คือรัฐบาลสหรัฐในยุคที่ยังมีอิทธิพลของลัทธิแม็กคาร์ธี และ NSA
มีทั้งกรณีแบ็กดอร์ของ NSA ที่ตอนแรกฟังเหมือนทฤษฎีสมคบคิด แต่ภายหลังก็พิสูจน์ได้ว่ามีจริง และยังมีเรื่อง printer tracking dots (https://en.wikipedia.org/wiki/Printer_tracking_dots) ด้วย
ทุกวันนี้แทนที่จะเป็นทฤษฎีสมคบคิดที่รัฐมีส่วนเกี่ยวข้อง เรื่องที่กำลังฮอตกว่ากลับเป็นการที่บริษัทซึ่งมีรายได้หลักจากโฆษณาแอบดักฟังไมโครโฟนสมาร์ตโฟนเพื่อทำโฆษณาแบบเจาะกลุ่มเป้าหมาย
และในบริษัทเทคโนโลยีซอฟต์แวร์ ผมคิดว่าแม้ซอร์สโค้ดจะมีบทบาทสำคัญมาก แต่ความสะดวกโดยรวม ความสามารถในการให้บริการและการปฏิบัติการ และความน่าเชื่อถือ มีบทบาทมากยิ่งกว่า
ต่อให้ได้ซอร์สโค้ดของ OpenAI มาทั้งหมด ผู้ตามหลังจะสามารถจัดหาและดูแลโครงสร้างพื้นฐานที่รองรับผู้ใช้จำนวนมหาศาลได้อย่างมีเสถียรภาพ และไล่ตามความน่าเชื่อถือของแบรนด์ได้ง่าย ๆ หรือครับ
มีหลายกรณีที่เปิดผลิตภัณฑ์หลักเป็นโอเพนซอร์ส มีฟอร์กจำนวนมาก แต่ก็ยังไม่สูญเสียความเป็นผู้นำ
ถ้าจะยกตัวอย่างที่นึกออกทันที ก็อย่าง Chrome และ VS Code
แน่นอนว่าก็มีกรณีที่สูญเสียอำนาจนำ เช่น Elastic หรือ Redis จากประเด็นเรื่องไลเซนส์โอเพนซอร์สกับ AWS แต่ในทำนองเดียวกัน ผมมองว่าเรื่องนั้นเกิดขึ้นเพราะทั้งสองบริษัทตามหลัง AWS ในด้านความสะดวก ความสามารถในการให้บริการและการปฏิบัติการ และความน่าเชื่อถืออยู่พอสมควร
พูดแบบนี้ไปก็อาจถือเป็นเรื่องการเมืองและอุดมการณ์ได้เหมือนกัน ดังนั้นผมขอเสริมด้วยประสบการณ์ส่วนตัว
ในฐานะคนที่ทำงานหลักเป็นนักพัฒนาซอฟต์แวร์ และเป็นงานอดิเรกก็ชอบเล่นกับฮาร์ดแวร์ embedded การต้องรับมือกับกล่องดำที่ไม่มีซอร์สโค้ดหรือแผนผังวงจรนี่... มันลำบากมากจริง ๆ ทั้งตอนพัฒนาและตอนบำรุงรักษา
เวลาอยากพัฒนาอะไรโดยใช้ซอฟต์แวร์ไลบรารีหรือฮาร์ดแวร์บางอย่าง ถ้าหาซอร์สโค้ดหรือแบบออกแบบได้ หรืออย่างน้อยมีเอกสารสเปกที่จัดทำไว้ดี ๆ งานพัฒนาจะง่ายขึ้นมาก แต่ถ้าไม่มีนี่ปวดหัวจริง ๆ
ช่วงหลังในต่างประเทศมีการพูดถึงสิทธิในการซ่อมพอสมควร เรื่องหนึ่งที่ผมประทับใจคือ สมัยก่อนเมื่อเปิดฝาอุปกรณ์อิเล็กทรอนิกส์ จะมีแผนผังสายไฟวาดไว้ให้ดูเพื่อใช้อ้างอิงตอนซ่อมด้วย (ช่วงหลังได้ยินมาว่า Apple ก็ให้แผนผังวงจรกับช่างซ่อมเหมือนกัน)
ประสบการณ์แบบนี้มีผลมากต่อการสร้างความน่าเชื่อถือให้กับผลิตภัณฑ์เหล่านั้น ทุกวันนี้เวลาเลือกเทคโนโลยีหรือซื้อสินค้าอะไร ผมจะดูเป็นอย่างแรกว่า ถ้ามันเสียหรือมีปัญหาขึ้นมา ผมจะสามารถเข้าใจมันได้ง่าย ซ่อมใช้ต่อเองได้ หรือหาทางอ้อมเพื่อใช้ต่อได้หรือไม่
ความรู้คืออะไรกันนะ…
นี่ก็เป็นประเด็นเก่าที่ถกกันมาตั้งแต่การทดลอง 'ห้องภาษาจีน' แล้วล่ะ 555
ความคิดเห็นจาก Hacker News
เมื่อดูจากการที่ Stallman เคยทำงานกับ symbolic AI ในยุค MIT AI Lab และถึงขั้นสร้าง GCC ด้วย ผมคิดว่าเขาเป็นหนึ่งในคนดังสายเทคที่เข้าใจแก่นของคำถามนี้ได้ลึกมาก
เขาไม่ได้ผิด ChatGPT เป็นเพียง ภาพจำลองของความฉลาด (simulacrum) เท่านั้น มีประโยชน์ก็จริงแต่เชื่อถือได้ทั้งหมดไม่ได้ และมองจากมุมเสรีภาพกับความเปิดกว้างก็ยากจะบอกว่าเป็นเรื่องดี
ผมชอบใช้คำว่า LLM มากกว่า แต่คนส่วนใหญ่ไม่รู้ว่ามันคืออะไร สุดท้ายเลยต้องอธิบายว่าเป็น AI อยู่ดี LLM ไม่ใช่ bullshit generator ถ้าผลลัพธ์มีประโยชน์ แม้มันจะไม่รู้ความหมายก็เพียงพอแล้ว เหมือนกับที่พ่อครัวอาจไม่รู้แก่นแท้ของไข่ แต่ก็ยังต้มมันได้ อย่างไรก็ดี โมเดลแบบนี้ควรรันได้อย่างอิสระบน ฮาร์ดแวร์ของตัวเองหรือคลาวด์ของบุคคลที่สาม ตอนนี้โมเดลจากจีนกำลังครองตลาด และ ChatGPT เองก็อาจอยู่ได้ไม่นาน หากแก้สถานการณ์ “code red” ภายในไม่ได้
ขำดีที่ในเว็บของ Stallman มีส่วน “What’s bad about” อยู่ด้วย ดูเป็นคนที่รู้ตัวเองดีพอสมควร
ก็เหมือนกับที่เราจะบอกไม่ได้ว่าเครื่องคิดเลข ทำคณิตศาสตร์ไม่เป็น เพียงเพราะมันไม่เข้าใจตัวเลข AI เองก็จัดการกับคำในแบบที่คล้ายมนุษย์ แม้จะขาดความคิดสร้างสรรค์ แต่ก็จัดการงานทั่วไปในชีวิตประจำวันได้สบาย ตัวอย่างเช่น ถ้าถามเรื่องระบบภาษีของเยอรมนี ต่อให้มีคลาดเคลื่อนอยู่บ้าง ก็น่าจะยังแม่นกว่าสิ่งที่ผมหามาเองสองชั่วโมง
ถ้านิยามความฉลาดว่าเป็น “ความสามารถในการเข้าใจปรากฏการณ์ที่ไม่คุ้นเคยและสร้าง mental model” โมเดลปัจจุบันก็ไม่ใช่ความฉลาด เพราะมันอัปเดตน้ำหนักระหว่างการอนุมานไม่ได้ และเพราะการเรียนรู้แบบ gradient descent ไม่มีประสิทธิภาพ ความฉลาดของโมเดลแบบ inference-only ในปัจจุบันจึงแทบจะใกล้ศูนย์
LLM สุดท้ายแล้วก็เป็นสิ่งที่สร้าง ภาพหลอน (hallucination) ออกมา เพียงแต่บางภาพหลอนก็มีประโยชน์
ข้ออ้างว่า “ChatGPT ไม่เข้าใจอะไรเลย จึงไม่ใช่ความฉลาด” จริง ๆ แล้วเป็นตรรกะที่กดมันลงด้วยการ ทำให้เป็นมนุษย์ (anthropomorphize) เสียมากกว่า แต่ผมเห็นด้วยกับส่วนที่ว่า “ซอฟต์แวร์ที่รันอยู่บนเซิร์ฟเวอร์ของคนอื่นทำลาย เสรีภาพในการคอมพิวต์” การที่ AI เหล่านี้พัฒนาอยู่ใน สภาพแวดล้อมที่ไม่สามารถรันหรือพัฒนาได้อย่างเสรี น่าเสียดายจริง ๆ
LLM ไม่ใช่ความฉลาดที่แท้จริง แต่ก็เรียกว่า ปัญญาประดิษฐ์ (artificial intelligence) ได้ เหมือนหญ้าเทียมที่ไม่ใช่หญ้าจริง แต่เราก็ยังเรียกมันว่า “หญ้า” ดังนั้นชื่อนี้ก็สมเหตุสมผล
แก่นของ LLM นั้นเรียบง่าย นิยามของความฉลาด ไม่ได้สำคัญ ผมเรียก LLM ว่า “Associator” มันไม่ได้คิดหรือเข้าใจ แต่ เชื่อมโยงรูปแบบทางภาษา เพื่อสร้างผลลัพธ์ที่มีประโยชน์
หากท้ายที่สุดแล้วปัญญาประดิษฐ์ไม่อาจมีจิตวิญญาณได้ ก็มีเหตุผลอะไรหรือที่สติปัญญาของมันจำเป็นต้องคล้ายกับสติปัญญาของมนุษย์ซึ่งแสวงหาความจริง? แม้กระทั่งกิจกรรมจำนวนมากที่เราเรียกว่ากิจกรรมทางปัญญาก็ยังตั้งอยู่บนความเท็จและภาพหลอน มนุษย์ในสังคมสมัยใหม่เองก็ส่งผลกระทบต่อชีวิตของผู้อื่นด้วยความเท็จ เพราะมองไม่เห็นปรากฏการณ์ที่เกิดขึ้นจริง (หรือไม่ก็จงใจทำเช่นนั้น)