1 คะแนน โดย GN⁺ 2025-08-30 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • Anthropic ได้อัปเดต ข้อกำหนดการใช้งานสำหรับผู้บริโภค และ นโยบายความเป็นส่วนตัว
  • ผู้ใช้สามารถเลือกได้ด้วยตนเองว่าจะ อนุญาตให้นำข้อมูลของตนไปใช้เพื่อปรับปรุงโมเดลหรือไม่
  • มีผลกับแพ็กเกจ Claude Free, Pro และ Max โดย ไม่รวมผู้ใช้บริการเชิงพาณิชย์และ API เดิม
  • หากอนุญาตให้ใช้ข้อมูล ก็จะช่วย เสริมความปลอดภัยของโมเดล และช่วย พัฒนาความสามารถ ของโมเดลในอนาคต เช่น ด้านการเขียนโค้ด
  • สามารถจัดการการยินยอมให้ใช้ข้อมูล ระยะเวลาเก็บรักษา และการเปลี่ยนแปลงต่าง ๆ ได้ ใน Settings ตลอดเวลา

เนื้อหาสำคัญของการอัปเดต

  • Anthropic ได้อัปเดต ข้อกำหนดการใช้งานสำหรับผู้บริโภคและนโยบายความเป็นส่วนตัว เพื่อยกระดับประสิทธิภาพของ Claude AI และเพิ่มการคุ้มครองผู้ใช้
  • ผู้ใช้สามารถเลือกได้ว่าจะให้ข้อมูลของตนถูกนำไปใช้เพื่อ ปรับปรุงโมเดลของ Claude และเสริมมาตรการความปลอดภัย หรือไม่
  • สามารถ ปรับการอนุญาตให้ใช้ข้อมูลได้ตลอดเวลา ในการตั้งค่า

ขอบเขตการใช้งานและข้อยกเว้น

  • การอัปเดตครั้งนี้มีผลเฉพาะกับผู้ใช้แพ็กเกจ Claude Free, Pro, Max และผู้ใช้ Claude Code ภายใต้แพ็กเกจดังกล่าวเท่านั้น
  • บริการภายใต้ข้อกำหนดเชิงพาณิชย์ ได้แก่ Claude for Work, Claude Gov, Claude for Education และการใช้งาน API (รวมถึงผ่านผู้ให้บริการภายนอก เช่น Amazon Bedrock, Google Cloud Vertex AI) จะไม่ได้รับผลกระทบ

ผลของการยินยอมให้ใช้ข้อมูล

  • หากยินยอมให้ใช้ข้อมูล จะช่วย เพิ่มความปลอดภัยของโมเดล และทำให้ระบบ ป้องกันอันตรายและการใช้งานในทางที่ผิด มีความแม่นยำมากขึ้น
  • ยังสามารถช่วยพัฒนาความสามารถที่หลากหลายของ โมเดล Claude ในอนาคต เช่น การเขียนโค้ด การวิเคราะห์ และการให้เหตุผล
  • การตั้งค่านี้ยังคงอยู่ภายใต้ การควบคุมโดยตรงของผู้ใช้ เสมอ โดยผู้สมัครใหม่หรือผู้ใช้เดิมสามารถเลือกตัวเลือกนี้ผ่านหน้าต่างป๊อปอัปได้

การแจ้งเตือนและการมีผลบังคับใช้

  • ระบบจะแจ้งผู้ใช้ภายในแอปเกี่ยวกับการอัปเดตและเปิดโอกาสให้เปลี่ยนการตั้งค่า
  • ผู้ใช้เดิมสามารถตัดสินใจเรื่องการยอมรับข้อกำหนดและการให้ใช้ข้อมูลได้ จนถึงวันที่ 28 กันยายน 2025
  • เมื่อยินยอมแล้ว นโยบายใหม่จะมีผลทันที และ มีผลเฉพาะกับบทสนทนาหรือเซสชันการเขียนโค้ดที่เริ่มใหม่หรือกลับมาใช้งานอีกครั้งเท่านั้น
  • หลังวันที่ 28 กันยายน 2025 ผู้ใช้จะต้อง เลือกการตั้งค่าด้วยตนเอง จึงจะสามารถใช้งาน Claude ต่อได้
  • สามารถเปลี่ยนตัวเลือกได้ที่ Privacy Settings

การขยายระยะเวลาเก็บข้อมูล

  • เมื่อ ยินยอมให้นำข้อมูลไปใช้ฝึกโมเดล ระยะเวลาเก็บข้อมูลจะขยายเป็น 5 ปี
  • การขยายเวลาการเก็บข้อมูลนี้มีผลเฉพาะกับ บทสนทนาหรือเซสชันการเขียนโค้ดที่เริ่มใหม่/กลับมาใช้งานอีกครั้ง และจะถูกนำไปใช้เพื่อ ปรับปรุงโมเดลและยกระดับความปลอดภัย
  • หากลบบทสนทนา ข้อมูลดังกล่าวจะ ไม่ถูกนำไปใช้ในการฝึกโมเดลในอนาคต
  • หากไม่ยินยอมให้ใช้ข้อมูล จะยังคงใช้ นโยบายการเก็บข้อมูล 30 วันเดิม

การจัดการข้อมูลฟีดแบ็ก

  • ข้อมูลฟีดแบ็กจากผู้ใช้ก็จะอยู่ภายใต้นโยบายการเก็บรักษา 5 ปีเช่นกัน

ความเป็นส่วนตัวและวิธีการประมวลผลข้อมูล

  • Anthropic จะกรอง/ทำข้อมูลนามแฝงของข้อมูลที่อ่อนไหวด้วย เครื่องมือและกระบวนการอัตโนมัติ เพื่อ ปกป้องความเป็นส่วนตัวของผู้ใช้
  • ข้อมูลของผู้ใช้จะ ไม่ถูกขายให้บุคคลที่สาม

ข้อมูลเพิ่มเติม

  • สามารถดูรายละเอียดการเปลี่ยนแปลงของข้อกำหนดการใช้งานสำหรับผู้บริโภคและนโยบายความเป็นส่วนตัวได้ใน ส่วน FAQ

1 ความคิดเห็น

 
GN⁺ 2025-08-30
ความคิดเห็นจาก Hacker News
  • สงสัยว่าผู้ใช้จะสามารถทำให้ชุดข้อมูลสำหรับการฝึกในอนาคตปนเปื้อนได้หรือไม่ เช่น ทั้งที่จริงๆ ได้รับความช่วยเหลือแล้วแต่กลับให้ฟีดแบ็กว่าไม่พอใจทุกครั้ง หรือจงใจชักนำบทสนทนาไปในทางที่ทำลายล้างแล้วค่อยทิ้งฟีดแบ็กเชิงบวกมากๆ ไว้

  • ไม่ชอบที่ทำให้ดูเหมือนค่าเริ่มต้นเป็น opt-in แต่ในทางปฏิบัติกลับเป็นแบบ opt-out และใช้พรอมป์ต์ที่ดูเหมือนเป็นแค่อัปเดตเงื่อนไขการใช้งานธรรมดามาชี้นำ อีกทั้งคิดว่าการเก็บข้อมูลไว้ 5 ปีก็มากเกินไป สงสัยด้วยว่ามีอะไรน่ากังวลอย่างอื่นในเงื่อนไขใหม่หรือไม่ สุดท้ายเรื่องนี้เลยกลายเป็นเหตุให้ยกเลิกการสมัคร

    • สังเกตว่าในการตั้งค่าอื่นทั้งหมดของ Anthropic ถ้าสวิตช์เปิดจะเป็นสีน้ำเงิน ถ้าปิดจะเป็นสีดำ แต่ในกล่องแจ้งการเปลี่ยนแปลงครั้งนี้ สไลเดอร์กลับเป็นสีเทาทั้งสองสถานะ ไปดูเทียบในหน้าตั้งค่าได้ ดูน่าผิดหวังและขมขื่นนิดๆ เพราะเหมือนมีคนตั้งใจทำแบบนี้
    • อยากแย้งกับคำว่า “opt-in by default” เพราะจริงๆ แล้วควรเรียกว่า “opt-out” มากกว่า การตั้งค่า opt-out ต่างหากที่เป็นค่าเริ่มต้น
    • มีการพูดถึงส่วน “เก็บไว้ 5 ปี” ว่าถ้าเอาไปฝึกโมเดลแล้ว มันก็จะอยู่ตลอดไป
    • สิ่งที่กังวลจริงๆ คือการเก็บไว้ 5 ปี ถ้าในอีก 5 ปีข้างหน้าพวกเขายังเปลี่ยนเงื่อนไขและยื่นตัวเลือก opt-out มาใหม่เรื่อยๆ แค่พลาดกดครั้งเดียวก็จะเอาข้อมูลทั้งหมดไปได้ ภายหลังก็อาจตัดตัวเลือก opt-out ทิ้งไปเลยก็ได้ ผ่านไป 4 ปี 364 วันอาจเปลี่ยนเงื่อนไขแล้วขยายเป็นเก็บ 10 ปีก็ได้ ถึงตอนนั้นความเป็นส่วนตัวก็คงถูกบั่นทอนไปมากจนคนแทบไม่ทันสังเกตด้วยซ้ำว่าทางเลือกนี้ไม่ได้มีอยู่จริงแล้ว
    • ตอนเปิดแอปมีป๊อปอัปแจ้งการเปลี่ยนแปลงพร้อมตัวเลือก opt-out ขึ้นมา ดูโอเคในแง่ความโปร่งใส
  • Claude กำลังช่วยงานวิจัยคณิตศาสตร์ของฉันอยู่ กังวลว่าถ้าคุยไปแล้วส่งไอเดียวิจัยที่ยังไม่เผยแพร่ให้ Claude จากนั้นภายหลัง Claude ไปแนะนำไอเดียเดียวกันให้คนอื่น แล้วคนนั้นเชื่อว่าเป็นไอเดียของตัวเอง แบบนี้น่าห่วง เลยรู้สึกว่าความเป็นส่วนตัวจำเป็นมากสำหรับการพัฒนาความรู้ด้วย AI ไม่ใช่แค่สำหรับบัญชีเชิงพาณิชย์แต่รวมถึงผู้ใช้ทั่วไปด้วย

    • มีคนถามว่านั่นก็เท่ากับ Claude ไปช่วยงานของคนอื่นไม่ใช่หรือ Claude ไม่ได้รู้อะไรนอกเหนือจากแชตของตัวเองกับข้อมูลฝึก ดังนั้นนี่เป็นกลไก AI แบบคลาสสิก
    • มอง AI ว่าเป็นเหมือนเอนจินเชื่อมโยงความสัมพันธ์ขนาดใหญ่ ในงานวิจัยคณิตศาสตร์ การแยกแยะระหว่าง “ไอเดียที่ไม่เคยมีใครคิด” กับ “ไอเดียที่มีคนเคยคิดแล้ว” เดิมทีก็กินเวลามากอยู่แล้ว ทุกวันนี้ต้องวนหาคีย์เวิร์ดผ่านอินเทอร์เน็ต, MathSciNet, ArXiv ฯลฯ ซ้ำๆ ส่วนกับ AI ก็ต้องลงทุนเรียนรู้การเขียนพรอมป์ต์เพื่อให้ได้คำตอบหายากๆ นานเกิน 6 เดือน ความสามารถในการทำ generalization ของ AI กลับทำให้สับสนยิ่งขึ้น เช่น บางทีช่วงที่มันดูแปลกใหม่ที่สุด แท้จริงแล้วแค่เชื่อมโยงสิ่งที่คนอื่นคิดกันไว้แล้วอย่างเป็นปกติ นี่จึงยิ่งย้อนแย้ง และถ้าพรอมป์ต์เหมาะสม AI ก็สามารถเชื่อมไอเดียแบบนี้ได้เหมือนกัน
    • ถ้าเลือก opt-out ในป๊อปอัปเกี่ยวกับเงื่อนไขใหม่ แชตของฉันจะไม่ถูกใช้ในการฝึก
    • ถ้าเป็นงานที่ใหม่จริงๆ โอกาสที่จะไปโผล่ในโมเดลภายหลังก็น้อยมากอยู่แล้ว ระบบแบบนี้โดยเนื้อแท้สร้างเอาต์พุตแบบเหมารวมจากข้อมูลที่คนจำนวนมากแชร์กัน ดังนั้นแนวคิดจะถูกปล่อยออกมาตอน inference ได้ก็ต่อเมื่อมันพบได้บ่อยมากในข้อมูลฝึก จริงๆ แล้วมันเป็นโครงสร้างที่ปกป้องทั้งนวัตกรรมและความเป็นส่วนตัวด้วยซ้ำ และถ้าเป็นแนวคิดที่แพร่หลายพอระดับหนึ่งแล้ว ก็นับว่าสมควรเข้าไปอยู่ในองค์ความรู้สาธารณะได้เหมือนกัน ถ้าไม่นับประเด็น IP
    • เส้นแบ่งว่า AI company จะใช้ความรู้ของมนุษย์ที่ตัวเองไม่ได้เป็นเจ้าของไปได้ไกลแค่ไหนนั้นพร่าเลือนมาก หรือบางทีอาจไม่เคยมีการขีดเส้นไว้เลยด้วยซ้ำ
  • ก็เป็นเรื่องที่คาดได้ ผู้เล่นรายใหญ่ชนเพดานของการฝึกด้วยข้อมูลแทบทุกอย่างไปแล้ว ทั้งอินเทอร์เน็ตทั้งก้อนและคอนเทนต์ที่ขโมยมาเสียจนถึงขั้นโดนฟ้อง ในช่วงไม่กี่ปีที่ผ่านมาแทบไม่มีนวัตกรรมใหญ่ด้านสถาปัตยกรรมโมเดล ตอนนี้เลยกลายเป็นสงครามแย่งข้อมูลฝึกเพิ่ม และสุดท้ายก็เอื้อมมาถึงข้อมูลผู้ใช้ พร้อมพยายามใช้วิธีที่น่าสงสัยขึ้นเรื่อยๆ

    • data broker หลายร้อยรายก็อยากได้ข้อมูลผู้ใช้เหมือนกัน แต่บริษัท AI มีช่องทางที่สร้างไว้แล้วซึ่งผู้ใช้สมัครใจป้อนข้อมูลให้ทุกวัน สิ่งที่พวกเขาต้องมีมีแค่การเปลี่ยนเงื่อนไขแบบ dark pattern กับการจัดการ PR เล็กน้อย เรื่องแบบนี้อีกแค่สัปดาห์เดียวคนก็ลืมหมด
    • น่าสนใจที่ช่วงหลังโมเดล AI เริ่มฝึกกับข้อมูลที่มันสร้างเองแล้วคุณภาพตกลง ถ้าระมัดระวังมากกว่านี้ในการแยกคอนเทนต์มนุษย์+AI ออกจากกัน หรือไปทำสัญญากับสำนักพิมพ์ สถานการณ์อาจต่างออกไป แต่ทุกคนรีบเกินไปที่จะกวาดข้อมูลทุกอย่าง สุดท้ายเลยเสียหายกันหมด
    • ประเด็นไม่ใช่ว่า “ขโมย” หรือไม่ แต่คือพวกเขายอมรับเองในศาลว่าได้ทำการคัดลอกอย่างผิดกฎหมาย
    • สำหรับบริษัท AI ข้อมูลคือขุมทองที่ทรงพลังยิ่งกว่าอุตสาหกรรมโฆษณามาก และเป็นปัจจัยจำเป็นต่อการอยู่รอด ปัญหาจริงคือพฤติกรรมไร้จริยธรรมที่จะเกิดขึ้นตรงจุดตัดระหว่าง AI กับธุรกิจโฆษณา คาดว่า Google หรือ Facebook ก็น่าจะเชื่อมแพลตฟอร์มข้อมูลของตัวเองเข้าหากันอยู่แล้ว หากวันหนึ่งสิ่งนี้ถูกยอมรับอย่างเปิดเผย ก็น่าทั้งอยากรู้และน่ากังวลว่าจะมี use case แบบไหนออกมา
    • กรณีแบบนี้เองที่แสดงให้เห็นถึงความจำเป็นของกฎระเบียบและมาตรการป้องกันที่เข้มแข็งกว่าเดิม
  • หลายคนอาจไม่แปลกใจ แต่สำหรับฉันถือว่าช็อกมาก เช่นเดียวกับที่ Google ไม่เอาเนื้อหาใน Gmail ของผู้ใช้ไปขึ้นในผลการค้นหา ฉันมองว่านี่เป็นการตัดสินใจทางธุรกิจที่ทำร้ายตัวเอง เลยสงสัยว่าฉันกำลังพลาดอะไรไปหรือเปล่า

    • Gmail เองก็เคยวิเคราะห์อีเมลเพื่อยิงโฆษณาอยู่นานหลายปีจนถึงปี 2017 ลิงก์
    • เพิ่งรู้จากบทความนี้ ลิงก์ ว่าการเปลี่ยนนโยบายนี้ไม่ใช้กับบัญชี Claude สำหรับงานหรือการศึกษา และยังคงคุ้มครองความเป็นส่วนตัวแบบเดิมอยู่ ในทางปฏิบัติคือบัญชีฟรีหรือไม่ใช่เชิงพาณิชย์เป็นกลุ่มที่ Anthropic ไม่ค่อยแคร์เพราะไม่ค่อยทำเงิน การตัดสินใจครั้งนี้จึงเป็นความพยายามลดการไหลเข้าของ “ผู้ใช้ฟรี” แบบนี้ และคาดว่าอีกไม่นานคงมีประกาศแนว “เราได้รับฟังความคิดเห็นของคุณและเปิดตัวสินค้าเน้นความเป็นส่วนตัว ราคาเพียงเดือนละ 30 ดอลลาร์”
    • ข้อมูลแบบนี้มีประโยชน์มากกับ reinforcement learning และบริษัทอื่นก็ทำกันหมด แถมถ้าจำเป็นก็ opt-out ได้ด้วย
    • กรอบที่ทำเหมือนว่านี่เป็นเรื่องน่าประหลาดใจนั้นแปลก ทุกคนคาดการณ์กันไว้อยู่แล้ว
    • Google ขุดข้อมูลอีเมลเชิงลึกเพื่อใช้หลายวัตถุประสงค์ทั้งการตลาดและการส่งต่อให้ภาครัฐ แต่การเอาเนื้อหาอีเมลไปแสดงในผลค้นหากับการที่ Claude ใช้เพื่อฝึกนั้นเป็นคนละเรื่อง และ Google ก็แทบไม่ได้รับโทษอะไรหนักจากเรื่องนี้
  • ที่จริงก่อนหน้านี้ฉันหงุดหงิดมาตลอดที่ AI ดูเหมือนไม่สามารถเรียนรู้อะไรจากปฏิสัมพันธ์กับผู้ใช้ได้เลย โดยเฉพาะที่มันทำพลาดซ้ำแบบเดิม และกลับแปลกใจที่การเปลี่ยนแปลงนี้เพิ่งเกิดขึ้นเอาตอนนี้

    • ไม่มีการเรียนรู้แบบเรียลไทม์ และข้อมูลของฉันก็ไม่ได้ถูกสะท้อนเข้าไปทันที ข้อมูลฝึกยังคงถูกใช้กับกระบวนการเทรนโมเดลซึ่งกินเวลาหลายเดือน ข้อมูลจากคนหนึ่งสองคนแทบไม่ส่งผลต่อภาพรวมการใช้งานของผู้ใช้ส่วนใหญ่ สิ่งที่จะเกิดผลในการเรียนรู้คือสิ่งที่มีร่วมกันในผู้ใช้หลายคน ไม่ใช่วิธีทำงานเฉพาะตัวของฉัน
    • มันเรียนรู้อะไรจากตัวปฏิสัมพันธ์เองไม่ได้มากนัก และตัวชี้วัดการประเมินก็มุ่งไปที่เกณฑ์ระดับโลกมากกว่าผู้ใช้รายบุคคล จึงมีแต่ทำให้บริการค่อยๆ ธรรมดาลง
    • นี่คือกลยุทธ์เพื่อเอาข้อมูลเพิ่มในค่าสมัครเท่าเดิม โอกาสลดราคาหรือคืนเงินคงต่ำ
  • ถ้าหลายคนคัดค้าน ฉันกลับมองบวกมากกว่า การอนุญาตให้ LLM เรียนรู้จากบทสนทนาเก่าเป็นเรื่องสำคัญมากต่อการพัฒนาโมเดล ในระยะยาวก็รับรู้ว่าการที่ความรู้ส่วนรวมไปกระจุกอยู่กับบริษัทไม่กี่แห่งอาจอันตราย ดังนั้นทางออกสุดท้ายอาจมีแค่แนวทาง “self custody” คือให้องค์กรหรือบุคคลรันและฝึกโมเดลของตัวเอง แม้แน่นอนว่าต้นทุนต้องลดลงมากถึงจะเป็นจริงได้

    • ถ้ามีความต่างตอบแทนกัน ฉันคิดว่าวิธีนี้ก็ดี แต่ตอนนี้ฉันจ่ายเดือนละ 20 ดอลลาร์อยู่แล้ว แล้วต้องให้ข้อมูลฝึกกับ Anthropic ฟรีๆ อีก มันไม่สมเหตุสมผล
    • รู้สึกว่ามันไม่ได้เป็นการ “ช่วยกันพัฒนา LLM” แต่คือการป้อนข้อมูลฝึกให้ LLM ตัวเดียวคือ Claude ต่างหาก
    • ถ้าเอาข้อมูลอ่อนไหวอย่างซอร์สโค้ดของบริษัท, บทภาพยนตร์, ข้อมูลสุขภาพหรือการเงินไปฝึก ความเสี่ยงยิ่งสูง
    • ฉันคิดว่า LLM ไม่จำเป็นต้องพัฒนาไปไกลกว่านี้มากก็ได้
    • ต่อให้ LLM เก่งขึ้นอีก ก็ยังไม่แน่ใจว่าจะให้ประโยชน์จริงกับผู้ใช้ส่วนใหญ่แค่ไหน ภาพรวมอาจกลับกลายเป็นเสียมากกว่าได้ด้วยซ้ำ
  • การที่เพิ่งเปลี่ยนนโยบายตอนนี้กลับแย่กว่าเดิมเสียอีก ฉันอยากให้เอาข้อมูลฉันไปฝึกอยู่แล้ว และต่อให้ฝึกต่อไปเรื่อยๆ ก็ไม่เป็นไร ถ้าใครอยากซีเรียสเรื่อง data privacy แบบสุดโต่ง ก็แค่ไม่ต้องใช้ข้อมูลของตัวเอง ฉันกลับอยู่ฝั่งตรงข้ามเต็มตัว แต่บริษัทต่างๆ ไม่เคยคำนึงถึงคนแบบนี้เลย แม้แต่ Google ก็ไม่มีตัวเลือก “ช่วยเอาข้อมูลทั้งหมดของฉันไปใช้ฝึกอย่างเต็มที่” ทั้งที่ฉันกรอกว่าตัวเองอยู่ที่ไหนไปตั้งหลายครั้ง มันก็ยังลืม ทุกอย่างถูกออกแบบภายใต้สมมติฐานว่า ‘ไม่มีใครอยากแชร์ข้อมูลของตัวเอง’ แม้แต่บทสัมภาษณ์ DeepMind ด้านการแพทย์ก็เริ่มจากความกลัวข้อมูลรั่ว ภัยพิบัติ และความย้ำคิดย้ำทำเรื่องนี้ทั้งหมด ฉันไม่เคยเสียหายหนักจากมันเลย กลับรู้สึกว่าได้ประโยชน์ต่อความก้าวหน้าทางการแพทย์ด้วยซ้ำ กับ NHS เองฉันยังพยายามติ๊ก “ใช้ข้อมูลฉันอย่างเต็มที่” ทุกครั้ง แต่ค่าเริ่มต้นก็มักเป็น “ปฏิเสธทั้งหมด” ทำให้ยุ่งยาก อยากได้ตัวเลือก master check เพียงครั้งเดียวว่า “เอาข้อมูลฉันทั้งหมดไปใช้ได้เลยและไม่ต้องถามอีก”

    • ถ้าจะให้คล้อยตามมุมมองนี้มากขึ้น ก็ต้องเชื่อก่อนว่าบริษัททุกวันนี้ยังรับใช้ผู้ใช้อยู่จริง แต่ในความเป็นจริงข้อมูลของฉันมักถูกใช้ไปในทางที่สวนผลประโยชน์ของฉันเองมากกว่า เช่น การยิงโฆษณาสินค้าหลอกลวง บริษัท AI ส่วนใหญ่ก็อยู่ใต้อิทธิพลของ VC และขับเคลื่อนด้วยกำไรมากกว่าการสร้างสินค้าสำหรับผู้ใช้ ตอนนี้ยังเป็นยุค “MoviePass” ที่ผู้ใช้ได้ผลตอบแทนเกินจริงเพราะบริษัทต้องการส่วนแบ่งตลาด แต่ต่อไปคุณภาพบริการจะถดถอยและโอกาสถูกเอาเปรียบจะยิ่งมากขึ้น MoviePass วิกิพีเดีย
    • ยากจะเข้าใจจริงๆ ว่าจะมีความเห็นแบบนี้อย่างจริงจังโดยไม่ใช้วิจารณญาณเชิงวิพากษ์ได้อย่างไร
    • ถ้าไปอยู่ในประเทศที่ใช้ระบบประกันสุขภาพเอกชน จะรู้ทันทีว่าข้อมูลทางการแพทย์เป็นทรัพย์สินด้านความเป็นส่วนตัวที่สำคัญแค่ไหน
    • สงสัยว่าไม่ได้กำลังปั่นใช่ไหม หรือไม่ก็อยู่ในโลกอุดมคติที่เชื่อว่าบริษัทให้ความสำคัญกับผู้ใช้เป็นอันดับแรกจริงๆ
    • ในชีวิตฉันมีคุณค่าที่สำคัญกว่า “อยากให้ LLM ดีขึ้นอีกนิด” อย่างชัดเจน
  • ฉันเคยเชื่อว่า Anthropic มองระยะยาวและตั้งเป้ากลุ่มผู้ใช้ที่แม้จะเล็กแต่มีความสามารถทางเทคนิคสูง ตั้งใจว่าจะยกเลิกการสมัครตามหลักการ แม้โมเดลโอเพนซอร์สยังไม่ตอบโจทย์ของฉันเท่า Claude ในเรื่องการเตรียมทดสอบความปลอดภัยที่เน้นมาตรฐาน ISO/IEEE แต่ก็คงต้องหาทางออกอื่น

    • สุดท้ายสิ่งที่ผู้ใช้ทำได้ก็มีแค่เลิกใช้บริการ กฎหมายหรือกฎระเบียบคงหวังยาก และถึงมีก็มักจบที่จ่ายต้นทุนบางอย่างเพื่อกลบเรื่องนี้ไป เมื่อใดก็ตามที่คุณส่งข้อมูลให้เว็บเซอร์วิสหรือแอป ก็ควรใช้โดยคิดไว้ก่อนว่าข้อมูลนั้นไม่ใช่ของคุณคนเดียวอีกต่อไป
  • สงสัยว่าทำไมถึงไม่ลิงก์ไปที่ประกาศทางการจริงๆ แทนที่จะลิงก์ไปบทความสรุปโดย AI ของ perplexity.ai จากประกาศจริง ลิงก์ ประเด็นสำคัญมีดังนี้: มีป๊อปอัปแจ้งในแอปเกี่ยวกับการเปลี่ยนแปลงและให้เลือก opt-out ได้, ไปตั้งค่า opt-out ได้ทุกเมื่อในเมนู Settings, มีผลตั้งแต่วันที่ 28 กันยายน, มีผลเฉพาะเมื่อยอมรับเงื่อนไขใหม่และมีการรีเฟรชเซสชันเท่านั้น, ไม่ใช้กับ API/external services, Claude Gov, Claude for Education ฯลฯ ลิงก์ต้นฉบับน่าจะมีประโยชน์กว่า

    • ถ้า opt-out ได้ก็ไม่ได้กังวลมากนัก แต่อยากรู้ว่าแอป third-party ที่เชื่อม Claude API อย่าง JetBrains AI หรือ Zed จะเป็นคนตัดสินใจแทนผู้ใช้หรือไม่ ในกรณีแบบใช้ API ตัวเลือกการฝึกแบบนี้ไม่ควรเป็น opt-in โดยปริยายเด็ดขาด และคิดว่าทั้งอุตสาหกรรมควรใช้แนวทางนี้
    • ป๊อปอัปในแอปที่ฉันได้รับมีแต่ปุ่มกับภาพ ไม่มีข้อความเลย ตอนแรกนึกว่าเป็นปัญหา dark mode เลยถึงกับไปดู DOM แต่ก็ไม่เจอข้อความอะไร คิดว่าเป็นแค่ประกาศฟีเจอร์ใหม่ธรรมดาเลยกดผ่านไป ถ้าไม่ได้บังเอิญไปเห็นนโยบายที่เพิ่งเปลี่ยนบน Reddit ก็คงไม่รู้เรื่องนี้ และน่าจะมีผู้ใช้อีกมากที่พลาดเนื้อหานี้เหมือนกัน
    • ยอมรับว่าคอมเมนต์เดิมของฉันไม่เข้ากับบริบทแล้วจึงแก้ไข ตอนแรกเป็นลิงก์ไปหน้าที่รวมบทความสรุปหลายชิ้นของ perplexity.ai แต่บังเอิญมีโมเดอเรเตอร์เปลี่ยนเป็นประกาศต้นฉบับ หลายคอมเมนต์จึงเป็นผลจากการเห็นแค่สรุปโดย AI แล้วด่วนตัดสิน แต่ก็ดีแล้วที่เปลี่ยนเป็นต้นฉบับ
    • คิดว่าการลิงก์ไปยังแหล่งข้อมูลต้นฉบับย่อมดีกว่าการลิงก์ไปยังบทความสรุปหลายชิ้น