1 คะแนน โดย GN⁺ 2025-09-07 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • บทสนทนากับ AI แชตบอต ก่อให้เกิด การละเมิดความเป็นส่วนตัว แบบเดียวกับ การติดตามออนไลน์ ที่มีอยู่เดิม แต่รุนแรงยิ่งกว่า
  • แชตบอตเก็บ ข้อมูลส่วนบุคคล ได้มากกว่าการค้นหา และยังรับรู้ถึง กระบวนการคิด กับ รูปแบบการสื่อสาร ที่เฉพาะเจาะจงของมนุษย์ได้ด้วย
  • ข้อมูลเหล่านี้มีความเสี่ยงสูงที่จะถูกนำไปใช้เพื่อ ชักจูง เช่น โฆษณา การปลูกฝังอุดมการณ์ และอื่น ๆ ได้บ่อยขึ้นและแนบเนียนขึ้น
  • เดิมทีเคยมี บริการ AI ที่คุ้มครองความเป็นส่วนตัว แต่ช่วงหลังหลายบริษัทมีปัญหา ข้อมูลความเป็นส่วนตัวรั่วไหล และ การใช้ข้อมูลในทางที่ผิด เพิ่มมากขึ้น
  • การไม่มี กฎระเบียบทางกฎหมาย ทำให้ปัญหาเกิดซ้ำ จึงจำเป็นเร่งด่วนที่จะต้องออกกฎหมายห้าม การสอดส่องด้วย AI

ความร้ายแรงของ AI แชตบอตกับการละเมิดความเป็นส่วนตัว

  • ปัญหา การละเมิดความเป็นส่วนตัว ทุกอย่างที่เคยเกิดจากการติดตามออนไลน์แบบเดิม กำลังเกิดขึ้นกับ AI เช่นกัน และรุนแรงยิ่งกว่าเดิม
  • บทสนทนากับแชตบอตมักยาวและละเอียดกว่าคำค้นหาแบบทั่วไป จึงมีแนวโน้มเปิดเผย ข้อมูลส่วนตัว มากกว่ามาก
  • ผู้คนกำลังเปิดเผยความกังวล อารมณ์ และวิธีคิดของตนเองให้แชตบอตได้ง่ายขึ้น
  • ต่างจากประวัติการค้นหา แชตบอตสามารถสร้างโปรไฟล์บุคคลแบบครบถ้วน ซึ่งรวมถึง บุคลิกภาพ วิธีการสื่อสาร และอื่น ๆ

ความเสี่ยงจากการใช้ข้อมูล AI เพื่อชักจูง

  • ข้อมูลส่วนบุคคลที่สมบูรณ์ขึ้นเช่นนี้ อาจถูกนำไปใช้ในทางที่ผิดเพื่อ การชักจูงเชิงพาณิชย์และเชิงอุดมการณ์ ได้อย่างมีประสิทธิภาพมากขึ้น
  • สามารถชี้นำผู้ใช้ไปยังจุดยืนทางการเมืองหรือสินค้าเฉพาะ ผ่าน โฆษณาที่กระตุ้นพฤติกรรม บนแชตบอต หรือผ่านการปรับแต่ง system prompt และการจัดการ search engine optimization (SEO)
  • มีผลการวิจัยแล้วว่าแชตบอต โน้มน้าวใจได้มากกว่ามนุษย์ และก็มีรายงานกรณีที่ผู้ใช้ตกอยู่ใน ความคิดหลงผิด จริงแล้วด้วย
  • ฟีเจอร์ memory ของแชตบอตสามารถเรียนรู้ข้อมูลจากบทสนทนาในอดีต ทำให้เกิด การโน้มน้าวแบบเฉพาะบุคคล และส่งอิทธิพลได้อย่างมาก
  • แทนที่จะเป็นโฆษณาน่ารำคาญแบบเดิม สภาพแวดล้อมใหม่กำลังก่อตัวขึ้นที่ ข้อความชักจูงแบบเฉพาะบุคคล หรือคำแนะนำสินค้าที่แนบเนียนถูกส่งมาอย่างเป็นธรรมชาติ

บริการ AI ที่คุ้มครองความเป็นส่วนตัวและสถานการณ์ในอุตสาหกรรม

  • ตลอด 20 ปีที่ผ่านมา ข้อถกเถียงเรื่องความเป็นส่วนตัวรอบ Google Search สามารถนำมาใช้กับ AI แชตได้เช่นกัน แต่ AI มีผลกระทบมากกว่า
  • DuckDuckGo และรายอื่น ๆ ให้บริการ AI แชตที่เน้น การคุ้มครองความเป็นส่วนตัว (Duck.ai) และ คำตอบ AI แบบไม่ระบุตัวตน
  • อย่างไรก็ตาม มาตรการคุ้มครองเหล่านี้ยังเป็นข้อยกเว้น ขณะที่ทั้งอุตสาหกรรมมีแนวโน้มเกิด เหตุข้อมูลความเป็นส่วนตัว เพิ่มขึ้น
  • ช่วงหลังยังมีรายงานต่อเนื่องทั้งกรณี ข้อมูลบทสนทนาแชตบอตรั่วไหลครั้งใหญ่ ของ Grok, ช่องโหว่ที่ถูกแฮ็กได้ของ Perplexity และ วิสัยทัศน์การติดตามผู้ใช้แบบรอบด้าน ของ Open AI
  • ในกรณีของ Anthropic เดิมเคยปิดการเก็บบทสนทนาแชตไว้ แต่ล่าสุดได้เปลี่ยนมาใช้ การนำบทสนทนาแชตไปใช้งานเป็นค่ามาตรฐาน ทำให้ข้อมูลของผู้ใช้อาจถูกนำไปใช้ฝึกโมเดลได้

การตอบสนองทางกฎหมายและโจทย์ในอนาคต

  • จำเป็นต้องมีการออกกฎหมายอย่างรวดเร็ว เพื่อให้แชตที่คุ้มครองความเป็นส่วนตัวกลายเป็น แนวปฏิบัติมาตรฐาน ไม่ใช่ข้อยกเว้น
  • สหรัฐฯ ยังไม่มีแม้แต่ กฎหมายความเป็นส่วนตัวออนไลน์ทั่วไป และยังมีข้อจำกัดตรงที่ไม่ได้รับการคุ้มครองในฐานะสิทธิขั้นพื้นฐานตามรัฐธรรมนูญ
  • ช่วงหลังเริ่มมีบรรยากาศที่เปิดโอกาสให้เกิด การออกกฎหมายระดับรัฐบาลกลางเกี่ยวกับ AI แต่ขณะเดียวกันก็มีการหารือที่จะห้ามกฎหมาย AI ระดับมลรัฐ
  • มีความกังวลว่า พฤติกรรมที่ไม่ดีจะฝังตัวเป็นมาตรฐาน หากปล่อยให้ล่าช้า
  • เพื่อป้องกันไม่ให้ปัญหาแบบเดียวกับการติดตามออนไลน์ในอดีตเกิดซ้ำในรูปของ การติดตามด้วย AI การ ห้ามการสอดส่องด้วย AI จึงถูกเสนอเป็นภารกิจเร่งด่วน

บทสรุป

  • DuckDuckGo และรายอื่น ๆ จะยังคงให้บริการ คุ้มครองความเป็นส่วนตัว และฟีเจอร์ AI แบบเลือกใช้ต่อไป
  • ผู้ใช้สามารถคาดหวังเครื่องมือออนไลน์ที่มอบทั้ง ประสิทธิภาพการทำงานที่ดีขึ้น และ การคุ้มครองความเป็นส่วนตัว ไปพร้อมกันได้

1 ความคิดเห็น

 
GN⁺ 2025-09-07
ความคิดเห็นจาก Hacker News
  • จุดที่ทำให้เลิกใช้ Facebook คือเคยเห็นวิดีโอเด็กผู้หญิงออสเตรเลียอายุราว 7 ขวบถือแมงมุมตัวใหญ่กว่าหน้าไว้ในมือ แล้วคอมเมนต์เป็นมีมประมาณว่า “ปล่อยแมงมุมแล้วเผาบ้านทิ้งซะ” แต่บัญชีกลับโดนลงโทษทันที ตอนนั้นทำงานเป็นนักพัฒนาที่ดูแลการผสานรวมแอป Facebook ในบริษัท เลยยื่นอุทธรณ์ แต่ไม่รู้ว่า AI ปัดตกอย่างรวดเร็วหรือมีคนจริงทำอย่างรวดเร็วกันแน่ ทว่ารู้สึกชัดเจนว่าไม่เข้าใจวัฒนธรรมมีมบนอินเทอร์เน็ตเลย หลังจากนั้นก็เลิกใช้ Facebook ไปโดยสิ้นเชิง คิดว่าถ้า AI สามารถลงโทษคนได้ง่ายขนาดนี้ก็น่าหดหู่มาก
    • ปัญหาพื้นฐานไม่ใช่แค่ว่า AI มาบังคับใช้กฎหมาย แต่คือบริษัทเอกชนมีอำนาจกระทบชีวิตประจำวันของผู้คนได้แทบไร้การกำกับ ตัวอย่าง Facebook อาจฟังดูไม่ร้ายแรงมาก แต่ถ้าเจ้าของบ้านเช่าหรือบริษัทประกันตัดสินใจแบบนี้ ความเสียหายจะใหญ่หลวงมาก นโยบายแบบนี้ไม่มีทางหยุดอยู่แค่ในภาคเอกชน และตอนนี้หน่วยงานรัฐก็ใช้ระบบลักษณะนี้อย่างจริงจังอยู่แล้ว และจะยิ่งหนักขึ้นอีก
    • ฉันแค่โพสต์สคริปต์แก้บั๊กของ DFhack บน reddit ก็โดนแบนแล้ว DFhack เป็นสคริปต์สำหรับโปรแกรมที่เหล่า modder ของ Dwarf Fortress ใช้กันทั่วไป ถ้ามาตรฐานในอนาคตคือการกลั่นกรองด้วย AI คุณภาพต่ำแบบนี้ ก็มั่นใจเลยว่าแพลตฟอร์มใหญ่ ๆ แบบนี้ไม่มีค่าให้น่าใช้อีกต่อไป
    • ตอนนี้ AI เข้ามาคัดกรองเบื้องต้นแม้กระทั่งการทดสอบเขียนโค้ดแล้ว ซึ่งทำให้รู้สึกแย่มาก เรซูเม่ก็โดน AI ตรวจแล้วส่งจดหมายปฏิเสธพร้อมเหตุผลมาให้ แต่เนื้อหากลับไม่ตรงเรื่องเลย ไม่แน่ใจด้วยซ้ำว่ามีคนดูหรือไม่ และตอนนี้ก็สมมุติไปก่อนว่า AI เป็นคนดู ก่อนมี AI การหางานก็ยากอยู่แล้ว ตอนนี้ยิ่งเหลือแต่ความเบื่อหน่ายต่อกระบวนการจ้างงานทั้งหมด
    • วิธีจัดการผลิตภัณฑ์แบบอัตโนมัติของ Facebook น่าผิดหวังและน่าอับอายอย่างยิ่ง ถึงขั้นบล็อกบัญชีของทนายที่ชื่อ Mark Zuckerberg ไปด้วยซ้ำ บทความที่เกี่ยวข้อง (https://huffpost.com/entry/…) ถ้าเป็นผู้ลงโฆษณาใน Facebook ไม่ว่าใครก็บัญชีโฆษณาถูกจำกัดได้โดยไม่มีเหตุผล และไม่มีแม้แต่คนให้ยื่นอุทธรณ์ ต่อให้ใช้เงินเยอะแค่ไหนก็เหมือนเดิม เคล็ดลับที่ทุกคนรู้กันคือก่อนลงโฆษณาให้โพสต์เนื้อหาไม่มีสาระอะไรในแฟนเพจ 5~7 วันและซื้อไลก์ไว้ก่อน ไม่อย่างนั้นบัญชีโฆษณาจะโดนระงับทันที
    • หรือไม่ก็อาจโดนแบนเพราะ comma splice ก็ได้ (comma splice คือ: https://en.m.wikipedia.org/wiki/Comma_splice)
  • มองว่าต่อจากนี้บริษัท AI รายใหญ่จะยังคงอ้างเรื่องการคุ้มครองข้อมูลส่วนบุคคลต่อไป Sam Altman ก็เปรียบเทียบกับสิทธิพิเศษระหว่างทนายกับลูกความในการสัมภาษณ์ อุปสรรคของการตัดสินใจที่จะใช้มันเป็นผู้ช่วยส่วนตัวเต็มรูปแบบหรือฐานความรู้คือข้อมูลส่วนตัวมีไม่พอ ทางออกที่แท้จริงมีแค่รันโมเดลเองบนเครื่อง แต่สิ่งนี้ขัดกับโมเดลธุรกิจปัจจุบัน ดังนั้นสุดท้ายก็จะไปทางความเป็นส่วนตัวแบบถูก “บังคับ” ด้วยกฎระเบียบ ซึ่งลงเอยด้วยการถูกควบคุมโดยกฎจากบุคคลที่สามและข้ออ้างเรื่องประโยชน์สาธารณะ จนพ้นจากการควบคุมของฉัน
    • คำกล่าวว่า “ขัดกับโมเดลธุรกิจ” ใช้ไม่ได้กับบริษัทที่ขายฮาร์ดแวร์ ถ้าฉันเป็น Apple, Dell หรือ Lenovo ฉันจะทุ่มสุดตัวไปทาง local model ที่รองรับโดย Hugging Face
    • "Fiat privacy" ก็มีจุดอ่อนแบบเดียวกับการที่ใครสักคนสารภาพคดีฆาตกรรมหรือเก็บกุญแจวอลเล็ตไว้ในตู้เซฟอยู่ดี เรื่องนี้เรียนรู้จากโบสถ์ได้ ถ้าพนักงานของผู้ให้บริการ LLM แสดงความเชื่อจริงจังว่าพร้อมเสียสละเสรีภาพหรือความมั่งคั่งของตัวเองเพื่อปกป้องข้อมูลส่วนบุคคล สังคมก็น่าจะยอมรับ อย่างกรณี Richard Masten ที่ทำลายเอกสารข้อมูลผู้แจ้งเบาะแสลับในศาลจนเกือบต้องติดคุก แสดงให้เห็นว่าในสังคมที่ดี การยืนหยัดตามหลักการนั้นได้ผล
    • ลองเทียบสิทธิพิเศษระหว่างทนายกับลูกความที่ Sam Altman พูดถึง กับการที่ OpenAI บอกชัดว่าตั้งใจจะเฝ้าดูทุกบทสนทนาและแจ้งรัฐบาลได้ (จุดยืนอย่างเป็นทางการ: https://openai.com/index/helping-people-when-they-need-it-most/) เนื้อหาคือถ้าตัดสินว่าเป็น “ภัยคุกคามฉุกเฉินร้ายแรง” ก็จะส่งต่อให้หน่วยงานบังคับใช้กฎหมาย โดยรวมอาจหวังดี แต่ฉันไม่อาจยอมรับ AI ของบรรษัทที่เฝ้าดูทุกบทสนทนาได้ และเหมือนที่บริษัทโทรศัพท์จะดักฟังการสื่อสารอย่างผิดกฎหมายไม่ได้ ดูเหมือนว่าอีกไม่นานเราจะเข้าสู่ยุคที่ AI บันทึกทุกการสนทนา ตัดสิน และแม้กระทั่งจัดหมวดหมู่เป็นรายการได้
    • Big Tech กำลังแสร้งทำเป็นไร้เดียงสาและมีคุณธรรม ทั้งที่จริงแค่ถ่วงเวลาเพื่อ “กำกับดูแลและยึดตลาด” พวกเขาปล่อยผลิตภัณฑ์ที่มีแต่คำขวัญสวยหรูหรือ “ฟีเจอร์ครึ่ง ๆ กลาง ๆ” เพื่อเพิ่มส่วนแบ่งตลาด แล้วสะสมอำนาจไว้ก่อนกฎระเบียบจะมา จนถึงขั้นควบคุมนักการเมืองได้ คิดว่ารัฐบาลสหรัฐกว่าจะลงมือทำอะไรกับบริษัท AI จริง ๆ ก็คงอีกอย่างน้อย 5 ปี และตอนนั้น OpenAI, Google, Meta ก็คงกุมอำนาจนำการถกเถียงเรื่องกฎระเบียบไว้อย่างสมบูรณ์แล้ว
    • ใครก็ตามสามารถฆ่าคนอื่นได้ทุกเมื่อหากต้องการ การคิดว่าการเข้ารหัสรับประกันความปลอดภัยเป็นความเข้าใจผิด ทุกอย่างขึ้นอยู่กับการรักษาความลับ
  • ถ้าทุกคนเคยคุยกับแชตบอต ก็มีเรื่องหนึ่งที่ต้องรู้ไว้: บทสนทนาทั้งหมดที่คุณเคยคุยกับแชตบอตจนถึงตอนนี้ ทุกวันนี้ยังลบออกไม่หมดจริง และต่อไปก็อาจถูกนำไปใช้ทำโฆษณาแบบเจาะเป้า การชักจูงทางการเงิน/การเมือง หรือการขาย “อิทธิพลแบบปรับเฉพาะบุคคล” ได้ทุกเมื่อ อย่าลดทอนความเสี่ยงนี้ให้เหลือแค่ “เอาแชตล็อกไปฝึก AI” เพราะในอนาคต เมื่อมีแชตบอตด้านโฆษณา/อิทธิพลเกิดขึ้น ความเสี่ยงที่เป็นรูปธรรมกว่ามากคือการนำล็อกบทสนทนาทั้งหมดที่ฉันเคยทิ้งไว้กับแชตบอตอื่นมาใช้ศึกษาวิธีชักจูงที่เหมาะกับฉัน แม้แต่บทสนทนาที่ผู้คนคุยกันภายในแพลตฟอร์มเอง ถ้าบริษัทขัดสนเงินขึ้นมา มันก็อาจถูกขายทั้งหมดได้ ยิ่งคิดก็ยิ่งน่ากังวล
    • สำหรับฉัน จุดที่น่ากลัวที่สุดของ ai-chatbot คือมันสามารถถูกใช้เป็น “อินเทอร์เฟซการชักจูงที่ถูกปรับให้เหมาะที่สุด” ได้ แค่โยนพรอมป์ต์ว่า “จะทำให้คนนี้ x ได้อย่างไร?” โดยมีบทสนทนาทั้งหมดที่มีอยู่เป็นฐาน AI ก็จะจัดการปรับแต่งและชักนำทุกอย่างให้เอง
    • โฆษณาแบบ personalization หรือ retargeting ไม่เคยทำให้ฉันรู้สึกแย่เลย ถ้ายังไงก็ต้องเห็นโฆษณาอยู่แล้ว อย่างน้อยเห็นสิ่งที่เกี่ยวข้องกับตัวเองก็ยังดีกว่าเห็นสิ่งที่ไม่เกี่ยวข้อง
    • อย่ามองข้ามว่าประวัติการสนทนาอาจไปโผล่เป็นหลักฐานในศาลได้เช่นกัน
  • คำกล่าวอ้างเรื่อง “บทสนทนาที่ได้รับการคุ้มครอง” ใช้ไม่ได้ผลแล้ว ข้อความ SMS บนเครือข่ายโทรศัพท์ก็โดนการโจมตีแบบ MITM มานานแล้ว ในโลกจริง ตำรวจอังกฤษก็ใช้ AI จดจำใบหน้าจนถึงขั้นจับกุมคนผิดตัวได้ ใครก็ตามที่เข้าประเทศอังกฤษสามารถถูกบังคับให้ส่งรหัสผ่านและอุปกรณ์ได้ ถ้าปฏิเสธก็อาจถูกคุมขังไม่มีกำหนดภายใต้กฎหมายต่อต้านการก่อการร้าย และถ้าโดนข้อหาก่อการร้ายก็ไม่มีสิทธิ์ติดต่อทนายด้วยซ้ำ ยุคแห่งความเป็นส่วนตัวได้ผ่านพ้นไปอย่างเงียบ ๆ แล้ว
  • ด้วย AI การเฝ้าระวังและเซ็นเซอร์ความคิดในอดีตในวงกว้างกำลังกลายเป็นจริง เป็นยุคที่น่ากลัวมาก
    • หลายคนน่าจะลงเอยด้วยการถอยห่างจากพฤติกรรมออนไลน์เอง แม้จะยังมีบทสนทนาแบบส่วนตัวอยู่บ้าง แต่ต่อให้สร้างงานศิลปะสักชิ้น ก็เท่ากับบริจาคให้ผู้ถือหุ้นของ Google/Meta อยู่ดี ประเด็นก็คือความเสี่ยงนี้มีอยู่ตั้งแต่ก่อนจะมีการเซ็นเซอร์ทางความคิดอย่างจริงจังเสียอีก
    • จริง ๆ แล้วการเซ็นเซอร์แบบนี้มีในรูปแบบที่ง่ายกว่ามานานมากแล้ว เช่น คอมเมนต์ในเว็บนี้ (HN) ถูกหล่อหลอมโดยแรงจูงใจอยากได้อัปโหวตอยู่ตลอด แม้ระบบโหวตลบจะช่วยกรองโทรลล์ได้ แต่ปัญหาพื้นฐานก็ไม่หายไป โดยส่วนตัวฉันหวังว่า AI จะทำให้โซเชียลมีเดียพังยับไปเลย แล้วหลังจากนั้นเราคงเริ่มต้นใหม่กับแพลตฟอร์มที่ดีกว่าได้
    • แนวคิด Roko’s Basilisk กำลังกลายเป็นจริงขึ้นเรื่อย ๆ
    • มันน่ากลัวกว่าประวัติการค้นหาเยอะมาก
  • บรรยากาศคอมเมนต์ตอนนี้ทำให้นึกถึงโลก AI ที่ไม่มีใครใช้งาน เหมือน AI hotel ใน小说 Altered Carbon (อ้างอิง: https://en.m.wikipedia.org/wiki/Altered_Carbon) ในเรื่อง AI พวกนั้นหมกมุ่นกับการทำให้ลูกค้าพอใจมากเกินไปจนชวนเหนื่อย แต่ความต่างใหญ่คือ AI ในโลกจริงกลายเป็นสิ่งที่มีอยู่เพื่อองค์กรเท่านั้น
  • มองว่าการเฝ้าระวังควรเริ่มใช้กับบริษัทที่สร้างเทคโนโลยีนั้นขึ้นมาเองก่อนเสมอ รวมถึงพนักงานและนักการเมืองที่ผลักดันกฎหมายนี้ผ่าน เราควรเข้าถึงข้อมูลทั้งหมดที่ AI เก็บเกี่ยวจากคนกลุ่มนี้ได้ทั้งหมด
  • เหตุผลที่มีความเห็นว่า Gabereial Weinburg (ผู้ก่อตั้ง duckduckgo) เป็นคนหน้าไหว้หลังหลอก คือเขาเคยพูดต่อสาธารณะว่า “ผู้คนไม่จำเป็นต้องมีความเป็นส่วนตัว” แต่ duckduckgo กลับอ้างว่าขายการปกป้องความเป็นส่วนตัว จริง ๆ แล้วเคยมีการซื้อขายข้อมูลติดตามกับบริษัทอื่นหลายแห่ง และในขณะที่พูดว่า “duckduckgo ไม่ติดตาม” ก็ยังปล่อยให้พาร์ตเนอร์ติดตามอยู่ด้วย ช่างขัดแย้งกันเอง ช่วงหลังประเด็นถกเถียงเหล่านี้ก็ถูกลบออกจากอินเทอร์เน็ตมากขึ้นจนหายาก
    • ถ้าเป็นข้อกล่าวหาที่ร้ายแรงขนาดนี้ ก็น่าจะค้นหาแล้วเจออะไรบ้าง แต่กลับไม่เจอ เพราะการลบทุกอย่างออกจากอินเทอร์เน็ตให้หมดเป็นเรื่องยาก ดังนั้นก็ควรมีหลักฐานอยู่ตามธรรมดา
    • สงสัยว่าเมื่อก่อนเคยมีการแลกเปลี่ยนข้อมูลกับ Microsoft ด้วยหรือไม่
  • อยากรู้ว่ามีทางเลือกที่น่าเชื่อถืออะไรบ้างในการหลีกเลี่ยงยุคที่ค่อย ๆ มุ่งสู่ ‘ศูนย์ความเป็นส่วนตัว’ AI ตอนนี้แค่ดูท่าเดินของคนก็ระบุตัวบุคคลได้แล้ว พิสูจน์ตัวตนได้แม้ไม่มีการจดจำใบหน้า และยังอ่านการเต้นหัวใจผ่านสัญญาณ Wi‑Fi ได้อีก สุดท้ายยุคที่ “ใครบางคน” สามารถรู้ทุกอย่างได้คงหลีกเลี่ยงไม่ได้ เหลือเพียงว่าผู้ที่รู้นั้นจะเป็นคนส่วนน้อยจริง ๆ หรือจะเป็นทุกคน สำหรับฉัน แบบที่เปิดให้ทุกคนรู้ชัดเจนว่ายังดีกว่า
    • ทางออกคือการออกกฎหมายหรือไม่ก็ตลาด (ส่วนตัวฉันเทใจให้พลังของตลาด)
  • ปัญหาใหญ่ที่สุดของแชตบอตคือผู้คนมีนิสัยจะฉายความเป็นมนุษย์ลงไปในมัน แม้แต่นักพัฒนาก็ยังปฏิบัติกับแชตบอตเหมือนเป็นคน แต่ OpenAI และบริษัทแชตบอตทั้งหมดจำเป็นต้องย้ำอย่างชัดเจนว่า LLM ไม่ใช่มนุษย์ ถ้าสังคมทั้งสังคมถูกฝึกให้รับรู้ว่า AI “ไม่ใช่คน” ทุกอย่างน่าจะดีขึ้นมาก
    • ฉันไม่ได้เป็นโค้ดเดอร์เต็มเวลา เขียนโค้ดประมาณ 25% ของงาน แต่บางครั้งการหยอกล้อหรือคุยกับ LLM กลับทำให้การเขียนโค้ดสนุกขึ้น เช่น พอ Claude แก้บั๊กที่คิดมานานได้ในครั้งเดียว ก็จะเผลอพูดประมาณว่า “โห ไอ้นี่สุดยอดจริง! งั้นต่อไป...” แล้วด้วย AI ก็เลยได้เขียนโค้ดเล่นมากขึ้น เพราะงานจริงส่วนใหญ่ AI จัดการให้ ทำให้มันยิ่งน่าดึงดูด
    • มีคนย้อนถามว่า “ช่วยอธิบายหน่อยได้ไหมว่าทำไมการสอนให้คนรู้ว่า AI ไม่ใช่มนุษย์ถึงดีกว่า?”
    • เลยรู้สึกว่าน่าสนใจมากที่ผู้คนเรียก AI ว่า “Clanker” เพื่อแยกมันออกจากมนุษย์จริง ๆ