nemorize 2025-12-11 | ความคิดเห็นหลัก | ใน: Utility First, Component Second (mytory.net) อ่านได้ดีมากครับ lazyhack 2025-12-11 | ความคิดเห็นหลัก | ใน: ริชาร์ด สตอลแมน, "เหตุผลที่ไม่ควรใช้ ChatGPT" (stallman.org) ถ้าเป็นคนอื่นพูดก็คงฟังดูเพ้อเจ้อ แต่พอเป็นสตอลแมนก็พอเข้าใจได้ colus001 2025-12-11 | ความคิดเห็นหลัก | ใน: ริชาร์ด สตอลแมน, "เหตุผลที่ไม่ควรใช้ ChatGPT" (stallman.org) มนุษย์ที่ใช้เจตนาตัดสินใจย่อมก่อรูปเจตจำนงขึ้นมาในฐานะทั้งประธานและวัตถุ ผมคิดว่านั่นแหละคือสิ่งที่เรียกว่าปัญญา เพียงเพราะมันมีประโยชน์ต่อกิจกรรมทางสติปัญญา ก็ถือว่าเป็นการตีความคำว่าปัญญาเกินจริงไปครับ girr311 2025-12-11 | ความคิดเห็นหลัก | ใน: เริ่มรณรงค์ล่ารายชื่อเรียกร้องให้หยุดเดินรถ หลังหุ่นยนต์ส่งของยึดทางเท้าในชิคาโก (blockclubchicago.org) ที่โซลก็มีเหมือนกัน แต่เจ้าตัวนี้ไม่ใช่แบบที่มันจะหลบคน กลับเป็นคนที่ต้องหลบมัน เลยรู้สึกว่าไม่ค่อยโอเคเท่าไหร่ barrelhouse 2025-12-11 | ความคิดเห็นหลัก | ใน: ถ้าคุณเป็นซีเนียร์ จงรับผิดชอบกราฟสักหนึ่งกราฟ (staysaasy.com) ฉันคิดว่าความสามารถในการแสดงผลงานหรือเป้าหมายออกมาเป็นตัวเลขนั้นสำคัญ แต่บทความนี้บอกว่าต้องแสดงออกมาเป็นกราฟด้วยเหมือนกันนะครับ เป็นประเด็นที่รู้สึกเห็นด้วยในแง่ของการทำให้อีกฝ่ายเข้าใจและเชื่อถือได้มากขึ้น mhj5730 2025-12-11 | ความคิดเห็นหลัก | ใน: ริชาร์ด สตอลแมน, "เหตุผลที่ไม่ควรใช้ ChatGPT" (stallman.org) ก็พูดได้ถูก แต่ถึงอย่างนั้น LLM ก็กำลังให้คำตอบที่ถูกต้องด้วยความน่าจะเป็นที่สูงอย่างน่าทึ่ง gooksangom6394 2025-12-11 | ความคิดเห็นหลัก | ใน: ริชาร์ด สตอลแมน, "เหตุผลที่ไม่ควรใช้ ChatGPT" (stallman.org) โดยพื้นฐานแล้ว เหตุผลพื้นฐานของการพูดว่าผู้ใช้จะต้องสามารถมีซอร์สโค้ดหรือสำเนาของซอฟต์แวร์ได้ ไม่ใช่สุดท้ายแล้วเป็นเพียงความเชื่อส่วนบุคคลของสตอลแมนเองหรอกหรือ ท่าทีแบบตั้งความเชื่อที่ทั้งสุดโต่ง อุดมคติ และเป็นทฤษฎีล้วน ๆ ขึ้นมาว่า ทุกสิ่งสามารถและควรถูกแบ่งปันอย่างฟรีและเท่าเทียมกัน แล้วสิ่งใดก็ตามที่ทำให้ปราสาทลอยฟ้าทางความคิดนั้นมีเงาทาบลงมาเพียงนิดเดียวก็ปฏิบัติต่อมันราวกับเป็นพวกนอกรีต เป็นสิ่งที่ผมเห็นด้วยได้ยาก มนุษยชาติของเราก็มีโรคที่คล้ายกันนี้อยู่แล้วอย่างหนึ่งในเรื่องระบบเศรษฐกิจ ผมเห็นด้วยว่าผลลัพธ์ของ generative AI มีลักษณะเชิงความน่าจะเป็น และไม่มี semantic grounding อย่างที่คุณกล่าวไว้ แต่สุดท้ายมันก็เป็นเพียงความต่างด้านระดับเท่านั้น การสื่อสารและการปรึกษาหารือกับคนอื่นก็เช่นกัน การตัดสินและตรวจสอบเนื้อหาเป็นความรับผิดชอบของแต่ละบุคคล ไม่ว่าคู่สนทนาของผมจะเป็น generative AI หรือมนุษย์ คำตอบของอีกฝ่ายก็ย่อมได้รับอิทธิพลจากข้อมูลความรู้พื้นฐานที่ได้เรียนรู้มา และข้อมูลการเรียนรู้ที่หล่อหลอมค่านิยมของเขา แน่นอนว่าการมีจุดร่วมเหล่านี้ไม่ได้หมายความว่าผมคิดว่า AI มีสติปัญญาที่แท้จริง แต่ที่จริงแล้วเหตุผลที่ generative AI ไม่เกี่ยวข้องกับความจริงตั้งแต่แรก ก็เพราะข้อมูลที่มันเรียนรู้มาเองก็ไม่เกี่ยวข้องกับความจริงเช่นกัน ซึ่งมนุษย์ก็ไม่ต่างกัน เพียงแค่ข้อเท็จจริงนี้อย่างเดียวแล้วจะบอกว่า “ไม่ควรใช้” ผมไม่อาจยอมรับได้ ข้อ 3 เป็นส่วนที่ผมด่วนสรุปและเข้าใจผิดไปเองอยู่บ้าง ถ้าเป็นเรื่องในทำนองเดียวกับข้อ 2 เรื่องซอร์สโค้ด ว่าผู้ใช้ควรรู้ว่าเกิดอะไรขึ้นบนเซิร์ฟเวอร์ ผมก็เลยคิดว่าในฐานะผู้ให้บริการที่ให้บริการด้านความรู้ การเปรียบคนอื่นเป็นเซิร์ฟเวอร์ก็น่าจะอยู่ในบริบทเดียวกัน แต่กลายเป็นว่าผมเข้าใจผิดตั้งแต่แรกเอง แต่เรื่องที่คุณบอกว่าเขาดูยึดตัวเองเป็นศูนย์กลางนั้น ดูเหมือนจะไม่ใช่ความเข้าใจผิดของผมนะ ถ้าจะบอกว่าจะต้องสามารถได้มาซึ่งซอร์สโค้ดหรือสำเนาของ generative AI ได้เท่านั้น ทรัพย์สินทางปัญญาก็คงพังพินาศหมด ถ้าไม่พอใจที่ข้อมูลถูกส่งไปยังเซิร์ฟเวอร์ของคนอื่น ก็แค่ไม่ส่งก็ได้ ไม่ใช้บริการก็พอ ไม่มีวิธีที่จะปรึกษาเรื่องความลับโดยไม่เปิดเผยความลับให้ใครเลย การบอกว่าซอร์สโค้ดหรือสำเนาของ AI ที่ใครบางคนใช้เวลา ทรัพยากร และความพยายามพัฒนาขึ้นมานั้น ทุกคนควรจะต้องมีได้ ถ้านั่นไม่ใช่ bullshit แล้วมันคืออะไร การที่ผมเอาของของผมออกมาให้ฟรี ไม่ได้แปลว่าผมจะไปเอาของของคนอื่นมาตามใจชอบได้ อย่างที่ผมบอกไว้ตอนแรก ผมไม่ได้รู้จักตัวสตอลแมนและข้ออ้างของเขาดีเท่าไรนัก รู้เพียงผิวเผินแค่ว่าเคยได้ยินชื่ออยู่บ้าง และรู้แค่ว่ามีความขัดแย้งที่เกี่ยวกับ free software แต่ผมไม่รู้ว่าข้ออ้างและอิทธิพลของเขาแผ่ไปได้ไกลแค่ไหน หรือมีคนรับเอาอย่างจริงจังมากเพียงใด อย่างน้อยผมก็น่าจะมีเสรีภาพพอที่จะเรียกข้ออ้างที่ขาดทั้งเหตุผลและความเป็นจริงว่า bullshit shakespeares 2025-12-11 | ความคิดเห็นหลัก | ใน: Tinybench - ไลบรารีเบนช์มาร์ก JavaScript แบบน้ำหนักเบา (github.com/tinylibs) ตอนนี้ก็แอบสงสัยเหมือนกันว่าของแบบนี้ยังจำเป็นอยู่ไหม เพราะ AI เขียนสคริปต์สำหรับวัด performance ให้เหมาะกับช่วงเวลานั้น ๆ ได้ดีมากอยู่แล้ว.. ethanhur 2025-12-11 | ความคิดเห็นหลัก | ใน: ริชาร์ด สตอลแมน, "เหตุผลที่ไม่ควรใช้ ChatGPT" (stallman.org) ดูเหมือนว่าสตอลแมนจะยึดถือหลักการแบบสุดโต่งมาก เลยใช้คำว่า bullshit generator ล่ะมั้งครับ อย่างที่ทุกคนน่าจะทราบกันดี สิ่งที่เขาต้องการสื่อก็คงไม่ต่างจากคำว่า "นกแก้วเชิงสถิติ" แต่ก็เป็นความจริงเช่นกันว่า LLM ซึ่งเป็น "นกแก้วเชิงสถิติ" ในปัจจุบัน กำลังยกระดับผลิตภาพของมนุษยชาติอย่างมหาศาล และผู้คนก็น่าจะสนใจนวัตกรรมทางอุตสาหกรรมมากกว่าเสรีภาพในการคอมพิวติ้ง อีกอย่างก็ไม่มีอะไรรับประกันได้ด้วยว่ามนุษย์เองจะไม่ใช่ "นกแก้วเชิงสถิติ" เช่นกัน dooboo 2025-12-11 | ความคิดเห็นหลัก | ใน: ถ้าจะทำ vibe coding ทำไมไม่ทำด้วย C ล่ะ? (stephenramsay.net) "แม้จะทำ vibe coding ก็เถอะ แต่ถ้าอยากตรวจทานผลลัพธ์ได้ ก็ควรทำด้วยภาษาที่ตัวเองรู้จักดี" ในคอมเมนต์มีประโยคที่สำคัญมากอยู่ครับ duswns12893 2025-12-11 | ความคิดเห็นหลัก | ใน: ออสเตรเลียเริ่มบังคับใช้การแบนโซเชียลมีเดียสำหรับผู้มีอายุต่ำกว่า 16 ปีทั่วประเทศ เป็นประเทศแรกของโลก (reuters.com) ถ้ามองจากมุมของประเทศที่เคยบังคับใช้แล้วก็ยกเลิกระบบเคอร์ฟิวเยาวชนไปแล้ว ก็แทบไม่ต่างอะไรกับระบบเคอร์ฟิวฉบับออสเตรเลียเลย การจะให้การกำกับแบบเหวี่ยงแหทำงานได้จริงก็ต้องเข้าถึงข้อมูลส่วนบุคคลด้วย แล้วรัฐบาลออสเตรเลียจะทำเรื่องแบบนั้นจริงหรือ jhk0530 2025-12-11 | ความคิดเห็นหลัก | ใน: ริชาร์ด สตอลแมน, "เหตุผลที่ไม่ควรใช้ ChatGPT" (stallman.org) เปิดเผยซอร์สโค้ด...? ถ้าอย่างนั้นก็ DeepSeek นั่นไง!!! grenade 2025-12-11 | ความคิดเห็นหลัก | ใน: ริชาร์ด สตอลแมน, "เหตุผลที่ไม่ควรใช้ ChatGPT" (stallman.org) ดูเหมือนว่าคุณจะเข้าใจผิดทั้งเรื่องที่ว่า Stallman คือใคร และเขาต้องการจะสื่ออะไร เจตนาของบทความนี้คือการเตือนว่า LLM ไม่มี semantic grounding เนื่องจากธรรมชาติแบบความน่าจะเป็นของมัน และอาจพูดสิ่งที่ผิดให้ฟังดูน่าเชื่อได้ เราไม่สามารถนำ LLM ไปอยู่ในระดับเดียวกับมนุษย์ได้เพียงเพราะทุกคนล้วนทำผิดพลาดได้ การเข้าใจหลักการภายในกับการได้ซอร์สโค้ดมานั้น แตกต่างกันโดยสิ้นเชิง ปัญหาคือ ChatGPT เป็น proprietary software และด้วยเหตุนี้ ต่อให้มันจะมีความสามารถเช่นนั้น เราก็ไม่สามารถติดตั้ง/แก้ไข/แจกจ่าย ChatGPT ได้โดยตรง Stallman เป็นนักเสรีนิยมสายสุดโต่งผู้ให้กำเนิดแนวคิด free software ผมก็เห็นด้วยในระดับหนึ่งว่าเขามีด้านที่ค่อนข้างยึดมั่นถือมั่น แต่ผมไม่เข้าใจว่าจากการบอกว่าการประมวลผลบนเซิร์ฟเวอร์ของคนอื่นเป็นสิ่งที่ผิด จะเชื่อมไปสู่ข้อสรุปว่า “ความคิดในหัวของคนอื่น” ละเมิดเสรีภาพได้อย่างไร Stallman อาจมีจุดยืนที่สุดโต่งและไม่ได้พูดถูกเสมอไป แต่ประเด็นที่บทความนี้หยิบขึ้นมาก็เป็นประเด็นที่มีการถกเถียงกันอย่างคึกคักอยู่แล้ว ไม่ใช่ตรรกะในระดับที่จะปัดทิ้งว่าเป็นเรื่องเหลวไหลได้ง่ายๆ ครับ kwj9211 2025-12-11 | ความคิดเห็นหลัก | ใน: ริชาร์ด สตอลแมน, "เหตุผลที่ไม่ควรใช้ ChatGPT" (stallman.org) 55555 gooksangom6394 2025-12-11 | ความคิดเห็นหลัก | ใน: ริชาร์ด สตอลแมน, "เหตุผลที่ไม่ควรใช้ ChatGPT" (stallman.org) "สร้างผลลัพธ์โดยไม่คำนึงว่าจริงหรือไม่" "เป็นซอฟต์แวร์ปิดที่ผู้ใช้ไม่สามารถได้ทั้งไฟล์ปฏิบัติการหรือซอร์สโค้ด" "การประมวลผลบนเซิร์ฟเวอร์ของผู้อื่นเป็นการบั่นทอนเสรีภาพในการคำนวณของผู้ใช้" ถ้าตามนิยามนี้ ก็แทบไม่ต่างจากการบอกว่าธุรกิจบริการที่ต้องผ่านสมองของคนอื่นโดยไม่ผ่านมือของผมเอง รวมถึงพนักงาน บริการคลาวด์ หรือแม้แต่โทรศัพท์ ล้วนไม่ควรใช้ทั้งหมดนั่นแหละ ข้อ 1 ก็แค่ทุกสิ่งที่มีอยู่จริงล้วนสามารถสร้างผลลัพธ์โดยไม่คำนึงถึงความจริงได้ทั้งนั้น แม้แต่ระบบที่ตั้งใจจะให้ผลลัพธ์ที่ถูกต้องก็อาจทำไม่ได้เช่นกัน เราเรียกสิ่งนี้ว่า "ความผิดพลาด" ข้อ 2 ถ้าการที่ต้องเข้าถึงไฟล์ปฏิบัติการหรือซอร์สโค้ดจึงจะใช้งานได้ หมายความว่าต้องเข้าใจหลักการภายในของระบบเพื่อจะใช้มันได้จริง งั้นคนทุกคนที่ไม่ได้เรียนฟิสิกส์กับวิศวกรรมไฟฟ้าและอิเล็กทรอนิกส์ก็ควรเลิกใช้สมาร์ตโฟนและคอมพิวเตอร์เดี๋ยวนี้ไปเลย เท่ากับว่าถ้าไม่เคยเรียนทฤษฎีสัมพัทธภาพก็ห้ามใช้ระบบระบุตำแหน่งสินะ แล้วสตอลแมนมีแบบแปลนในหัวของช่างตัดผมที่ตัดผมให้ตัวเองอยู่หรือเปล่า? ถ้าตามข้อ 3 คนนี้ก็คือพวกยึดตนเองเป็นศูนย์กลางที่ไม่เชื่อความคิดของใครเลย เพราะความคิดของคนอื่นทั้งหมดและข้อสรุปที่เกิดจากมันย่อมละเมิดเสรีภาพในการคิดของ "ฉัน" เนื่องจากมันไปแทรกแซงเสรีภาพในการคิดจากหัวของตัวเองนั่นเอง ในประเด็นที่ว่าปัญญาประดิษฐ์เชิงกำเนิดมีสติปัญญาจริงหรือไม่ เราอาจพูดได้ว่าอย่าเพิ่งรีบเชื่อว่าเป็นสิ่งมีชีวิตที่มีสติปัญญา แต่ตรรกะแบบฝืน ๆ ที่วางเรียงเคียงบ่ากับความคิดนั้นมันก็แค่ bullshit เท่านั้นเอง iolothebard 2025-12-11 | ความคิดเห็นหลัก | ใน: ริชาร์ด สตอลแมน, "เหตุผลที่ไม่ควรใช้ ChatGPT" (stallman.org) ความรู้คืออะไรกันนะ… supermaxi 2025-12-11 | ความคิดเห็นหลัก | ใน: ริชาร์ด สตอลแมน, "เหตุผลที่ไม่ควรใช้ ChatGPT" (stallman.org) หากท้ายที่สุดแล้วปัญญาประดิษฐ์ไม่อาจมีจิตวิญญาณได้ ก็มีเหตุผลอะไรหรือที่สติปัญญาของมันจำเป็นต้องคล้ายกับสติปัญญาของมนุษย์ซึ่งแสวงหาความจริง? แม้กระทั่งกิจกรรมจำนวนมากที่เราเรียกว่ากิจกรรมทางปัญญาก็ยังตั้งอยู่บนความเท็จและภาพหลอน มนุษย์ในสังคมสมัยใหม่เองก็ส่งผลกระทบต่อชีวิตของผู้อื่นด้วยความเท็จ เพราะมองไม่เห็นปรากฏการณ์ที่เกิดขึ้นจริง (หรือไม่ก็จงใจทำเช่นนั้น) epdlemflaj 2025-12-11 | ความคิดเห็นหลัก | ใน: ริชาร์ด สตอลแมน, "เหตุผลที่ไม่ควรใช้ ChatGPT" (stallman.org) พูดตามตรง ผมไม่เคยคิดเลยแม้แต่ครั้งเดียวว่าสตอลแมนจะชอบ llm 55555555 hidarite 2025-12-11 | ความคิดเห็นหลัก | ใน: เริ่มรณรงค์ล่ารายชื่อเรียกร้องให้หยุดเดินรถ หลังหุ่นยนต์ส่งของยึดทางเท้าในชิคาโก (blockclubchicago.org) ในเกาหลีก็มีปัญหาสังคมแบบเดียวกันจากสกู๊ตเตอร์ไฟฟ้าที่ยึดทางเท้าอยู่เหมือนกัน ดังนั้นหุ่นยนต์ส่งของก็น่าจะก่อปัญหาแบบนั้นได้เช่นกัน ถึงอย่างนั้นมันก็วิ่งช้าและคงไม่ถูกจอดทิ้งอย่างผิดกฎหมาย จึงดูน่าจะดีกว่าสกู๊ตเตอร์ไฟฟ้าอยู่บ้าง.. ดูเหมือนว่าการควบคุมสกู๊ตเตอร์ไฟฟ้าควรมาก่อน loblue 2025-12-11 | ความคิดเห็นหลัก | ใน: 21 บทเรียนที่ได้จาก 14 ปีที่ Google (addyo.substack.com) บทเรียนข้อ 1 สำคัญมากจริงๆ นะครับ ช่วงนี้กำลังรู้สึกอย่างแรงเลย 555 โหลดความคิดเห็นเพิ่มเติม
อ่านได้ดีมากครับ
ถ้าเป็นคนอื่นพูดก็คงฟังดูเพ้อเจ้อ แต่พอเป็นสตอลแมนก็พอเข้าใจได้
มนุษย์ที่ใช้เจตนาตัดสินใจย่อมก่อรูปเจตจำนงขึ้นมาในฐานะทั้งประธานและวัตถุ ผมคิดว่านั่นแหละคือสิ่งที่เรียกว่าปัญญา เพียงเพราะมันมีประโยชน์ต่อกิจกรรมทางสติปัญญา ก็ถือว่าเป็นการตีความคำว่าปัญญาเกินจริงไปครับ
ที่โซลก็มีเหมือนกัน แต่เจ้าตัวนี้ไม่ใช่แบบที่มันจะหลบคน กลับเป็นคนที่ต้องหลบมัน เลยรู้สึกว่าไม่ค่อยโอเคเท่าไหร่
ฉันคิดว่าความสามารถในการแสดงผลงานหรือเป้าหมายออกมาเป็นตัวเลขนั้นสำคัญ แต่บทความนี้บอกว่าต้องแสดงออกมาเป็นกราฟด้วยเหมือนกันนะครับ เป็นประเด็นที่รู้สึกเห็นด้วยในแง่ของการทำให้อีกฝ่ายเข้าใจและเชื่อถือได้มากขึ้น
ก็พูดได้ถูก แต่ถึงอย่างนั้น LLM ก็กำลังให้คำตอบที่ถูกต้องด้วยความน่าจะเป็นที่สูงอย่างน่าทึ่ง
โดยพื้นฐานแล้ว เหตุผลพื้นฐานของการพูดว่าผู้ใช้จะต้องสามารถมีซอร์สโค้ดหรือสำเนาของซอฟต์แวร์ได้ ไม่ใช่สุดท้ายแล้วเป็นเพียงความเชื่อส่วนบุคคลของสตอลแมนเองหรอกหรือ
ท่าทีแบบตั้งความเชื่อที่ทั้งสุดโต่ง อุดมคติ และเป็นทฤษฎีล้วน ๆ ขึ้นมาว่า ทุกสิ่งสามารถและควรถูกแบ่งปันอย่างฟรีและเท่าเทียมกัน แล้วสิ่งใดก็ตามที่ทำให้ปราสาทลอยฟ้าทางความคิดนั้นมีเงาทาบลงมาเพียงนิดเดียวก็ปฏิบัติต่อมันราวกับเป็นพวกนอกรีต เป็นสิ่งที่ผมเห็นด้วยได้ยาก มนุษยชาติของเราก็มีโรคที่คล้ายกันนี้อยู่แล้วอย่างหนึ่งในเรื่องระบบเศรษฐกิจ
ผมเห็นด้วยว่าผลลัพธ์ของ generative AI มีลักษณะเชิงความน่าจะเป็น และไม่มี semantic grounding อย่างที่คุณกล่าวไว้ แต่สุดท้ายมันก็เป็นเพียงความต่างด้านระดับเท่านั้น การสื่อสารและการปรึกษาหารือกับคนอื่นก็เช่นกัน การตัดสินและตรวจสอบเนื้อหาเป็นความรับผิดชอบของแต่ละบุคคล ไม่ว่าคู่สนทนาของผมจะเป็น generative AI หรือมนุษย์ คำตอบของอีกฝ่ายก็ย่อมได้รับอิทธิพลจากข้อมูลความรู้พื้นฐานที่ได้เรียนรู้มา และข้อมูลการเรียนรู้ที่หล่อหลอมค่านิยมของเขา แน่นอนว่าการมีจุดร่วมเหล่านี้ไม่ได้หมายความว่าผมคิดว่า AI มีสติปัญญาที่แท้จริง แต่ที่จริงแล้วเหตุผลที่ generative AI ไม่เกี่ยวข้องกับความจริงตั้งแต่แรก ก็เพราะข้อมูลที่มันเรียนรู้มาเองก็ไม่เกี่ยวข้องกับความจริงเช่นกัน ซึ่งมนุษย์ก็ไม่ต่างกัน เพียงแค่ข้อเท็จจริงนี้อย่างเดียวแล้วจะบอกว่า “ไม่ควรใช้” ผมไม่อาจยอมรับได้
ข้อ 3 เป็นส่วนที่ผมด่วนสรุปและเข้าใจผิดไปเองอยู่บ้าง ถ้าเป็นเรื่องในทำนองเดียวกับข้อ 2 เรื่องซอร์สโค้ด ว่าผู้ใช้ควรรู้ว่าเกิดอะไรขึ้นบนเซิร์ฟเวอร์ ผมก็เลยคิดว่าในฐานะผู้ให้บริการที่ให้บริการด้านความรู้ การเปรียบคนอื่นเป็นเซิร์ฟเวอร์ก็น่าจะอยู่ในบริบทเดียวกัน แต่กลายเป็นว่าผมเข้าใจผิดตั้งแต่แรกเอง
แต่เรื่องที่คุณบอกว่าเขาดูยึดตัวเองเป็นศูนย์กลางนั้น ดูเหมือนจะไม่ใช่ความเข้าใจผิดของผมนะ
ถ้าจะบอกว่าจะต้องสามารถได้มาซึ่งซอร์สโค้ดหรือสำเนาของ generative AI ได้เท่านั้น ทรัพย์สินทางปัญญาก็คงพังพินาศหมด
ถ้าไม่พอใจที่ข้อมูลถูกส่งไปยังเซิร์ฟเวอร์ของคนอื่น ก็แค่ไม่ส่งก็ได้ ไม่ใช้บริการก็พอ ไม่มีวิธีที่จะปรึกษาเรื่องความลับโดยไม่เปิดเผยความลับให้ใครเลย การบอกว่าซอร์สโค้ดหรือสำเนาของ AI ที่ใครบางคนใช้เวลา ทรัพยากร และความพยายามพัฒนาขึ้นมานั้น ทุกคนควรจะต้องมีได้ ถ้านั่นไม่ใช่ bullshit แล้วมันคืออะไร การที่ผมเอาของของผมออกมาให้ฟรี ไม่ได้แปลว่าผมจะไปเอาของของคนอื่นมาตามใจชอบได้
อย่างที่ผมบอกไว้ตอนแรก ผมไม่ได้รู้จักตัวสตอลแมนและข้ออ้างของเขาดีเท่าไรนัก รู้เพียงผิวเผินแค่ว่าเคยได้ยินชื่ออยู่บ้าง และรู้แค่ว่ามีความขัดแย้งที่เกี่ยวกับ free software แต่ผมไม่รู้ว่าข้ออ้างและอิทธิพลของเขาแผ่ไปได้ไกลแค่ไหน หรือมีคนรับเอาอย่างจริงจังมากเพียงใด อย่างน้อยผมก็น่าจะมีเสรีภาพพอที่จะเรียกข้ออ้างที่ขาดทั้งเหตุผลและความเป็นจริงว่า bullshit
ตอนนี้ก็แอบสงสัยเหมือนกันว่าของแบบนี้ยังจำเป็นอยู่ไหม เพราะ AI เขียนสคริปต์สำหรับวัด performance ให้เหมาะกับช่วงเวลานั้น ๆ ได้ดีมากอยู่แล้ว..
ดูเหมือนว่าสตอลแมนจะยึดถือหลักการแบบสุดโต่งมาก เลยใช้คำว่า bullshit generator ล่ะมั้งครับ อย่างที่ทุกคนน่าจะทราบกันดี สิ่งที่เขาต้องการสื่อก็คงไม่ต่างจากคำว่า "นกแก้วเชิงสถิติ"
แต่ก็เป็นความจริงเช่นกันว่า LLM ซึ่งเป็น "นกแก้วเชิงสถิติ" ในปัจจุบัน กำลังยกระดับผลิตภาพของมนุษยชาติอย่างมหาศาล และผู้คนก็น่าจะสนใจนวัตกรรมทางอุตสาหกรรมมากกว่าเสรีภาพในการคอมพิวติ้ง อีกอย่างก็ไม่มีอะไรรับประกันได้ด้วยว่ามนุษย์เองจะไม่ใช่ "นกแก้วเชิงสถิติ" เช่นกัน
"แม้จะทำ vibe coding ก็เถอะ แต่ถ้าอยากตรวจทานผลลัพธ์ได้ ก็ควรทำด้วยภาษาที่ตัวเองรู้จักดี"
ในคอมเมนต์มีประโยคที่สำคัญมากอยู่ครับ
ถ้ามองจากมุมของประเทศที่เคยบังคับใช้แล้วก็ยกเลิกระบบเคอร์ฟิวเยาวชนไปแล้ว ก็แทบไม่ต่างอะไรกับระบบเคอร์ฟิวฉบับออสเตรเลียเลย การจะให้การกำกับแบบเหวี่ยงแหทำงานได้จริงก็ต้องเข้าถึงข้อมูลส่วนบุคคลด้วย แล้วรัฐบาลออสเตรเลียจะทำเรื่องแบบนั้นจริงหรือ
เปิดเผยซอร์สโค้ด...? ถ้าอย่างนั้นก็ DeepSeek นั่นไง!!!
ดูเหมือนว่าคุณจะเข้าใจผิดทั้งเรื่องที่ว่า Stallman คือใคร และเขาต้องการจะสื่ออะไร
Stallman อาจมีจุดยืนที่สุดโต่งและไม่ได้พูดถูกเสมอไป แต่ประเด็นที่บทความนี้หยิบขึ้นมาก็เป็นประเด็นที่มีการถกเถียงกันอย่างคึกคักอยู่แล้ว ไม่ใช่ตรรกะในระดับที่จะปัดทิ้งว่าเป็นเรื่องเหลวไหลได้ง่ายๆ ครับ
55555
ถ้าตามนิยามนี้ ก็แทบไม่ต่างจากการบอกว่าธุรกิจบริการที่ต้องผ่านสมองของคนอื่นโดยไม่ผ่านมือของผมเอง รวมถึงพนักงาน บริการคลาวด์ หรือแม้แต่โทรศัพท์ ล้วนไม่ควรใช้ทั้งหมดนั่นแหละ
ข้อ 1 ก็แค่ทุกสิ่งที่มีอยู่จริงล้วนสามารถสร้างผลลัพธ์โดยไม่คำนึงถึงความจริงได้ทั้งนั้น แม้แต่ระบบที่ตั้งใจจะให้ผลลัพธ์ที่ถูกต้องก็อาจทำไม่ได้เช่นกัน เราเรียกสิ่งนี้ว่า "ความผิดพลาด"
ข้อ 2 ถ้าการที่ต้องเข้าถึงไฟล์ปฏิบัติการหรือซอร์สโค้ดจึงจะใช้งานได้ หมายความว่าต้องเข้าใจหลักการภายในของระบบเพื่อจะใช้มันได้จริง งั้นคนทุกคนที่ไม่ได้เรียนฟิสิกส์กับวิศวกรรมไฟฟ้าและอิเล็กทรอนิกส์ก็ควรเลิกใช้สมาร์ตโฟนและคอมพิวเตอร์เดี๋ยวนี้ไปเลย เท่ากับว่าถ้าไม่เคยเรียนทฤษฎีสัมพัทธภาพก็ห้ามใช้ระบบระบุตำแหน่งสินะ แล้วสตอลแมนมีแบบแปลนในหัวของช่างตัดผมที่ตัดผมให้ตัวเองอยู่หรือเปล่า?
ถ้าตามข้อ 3 คนนี้ก็คือพวกยึดตนเองเป็นศูนย์กลางที่ไม่เชื่อความคิดของใครเลย เพราะความคิดของคนอื่นทั้งหมดและข้อสรุปที่เกิดจากมันย่อมละเมิดเสรีภาพในการคิดของ "ฉัน" เนื่องจากมันไปแทรกแซงเสรีภาพในการคิดจากหัวของตัวเองนั่นเอง
ในประเด็นที่ว่าปัญญาประดิษฐ์เชิงกำเนิดมีสติปัญญาจริงหรือไม่ เราอาจพูดได้ว่าอย่าเพิ่งรีบเชื่อว่าเป็นสิ่งมีชีวิตที่มีสติปัญญา แต่ตรรกะแบบฝืน ๆ ที่วางเรียงเคียงบ่ากับความคิดนั้นมันก็แค่ bullshit เท่านั้นเอง
ความรู้คืออะไรกันนะ…
หากท้ายที่สุดแล้วปัญญาประดิษฐ์ไม่อาจมีจิตวิญญาณได้ ก็มีเหตุผลอะไรหรือที่สติปัญญาของมันจำเป็นต้องคล้ายกับสติปัญญาของมนุษย์ซึ่งแสวงหาความจริง? แม้กระทั่งกิจกรรมจำนวนมากที่เราเรียกว่ากิจกรรมทางปัญญาก็ยังตั้งอยู่บนความเท็จและภาพหลอน มนุษย์ในสังคมสมัยใหม่เองก็ส่งผลกระทบต่อชีวิตของผู้อื่นด้วยความเท็จ เพราะมองไม่เห็นปรากฏการณ์ที่เกิดขึ้นจริง (หรือไม่ก็จงใจทำเช่นนั้น)
พูดตามตรง ผมไม่เคยคิดเลยแม้แต่ครั้งเดียวว่าสตอลแมนจะชอบ llm 55555555
ในเกาหลีก็มีปัญหาสังคมแบบเดียวกันจากสกู๊ตเตอร์ไฟฟ้าที่ยึดทางเท้าอยู่เหมือนกัน ดังนั้นหุ่นยนต์ส่งของก็น่าจะก่อปัญหาแบบนั้นได้เช่นกัน ถึงอย่างนั้นมันก็วิ่งช้าและคงไม่ถูกจอดทิ้งอย่างผิดกฎหมาย จึงดูน่าจะดีกว่าสกู๊ตเตอร์ไฟฟ้าอยู่บ้าง.. ดูเหมือนว่าการควบคุมสกู๊ตเตอร์ไฟฟ้าควรมาก่อน
บทเรียนข้อ 1 สำคัญมากจริงๆ นะครับ
ช่วงนี้กำลังรู้สึกอย่างแรงเลย 555