- Anthropic ได้อัปเดต ข้อกำหนดการใช้งานสำหรับผู้บริโภค และ นโยบายความเป็นส่วนตัว
- ผู้ใช้สามารถเลือกได้ด้วยตนเองว่าจะ อนุญาตให้นำข้อมูลของตนไปใช้เพื่อปรับปรุงโมเดลหรือไม่
- มีผลกับแพ็กเกจ Claude Free, Pro และ Max โดย ไม่รวมผู้ใช้บริการเชิงพาณิชย์และ API เดิม
- หากอนุญาตให้ใช้ข้อมูล ก็จะช่วย เสริมความปลอดภัยของโมเดล และช่วย พัฒนาความสามารถ ของโมเดลในอนาคต เช่น ด้านการเขียนโค้ด
- สามารถจัดการการยินยอมให้ใช้ข้อมูล ระยะเวลาเก็บรักษา และการเปลี่ยนแปลงต่าง ๆ ได้ ใน Settings ตลอดเวลา
เนื้อหาสำคัญของการอัปเดต
- Anthropic ได้อัปเดต ข้อกำหนดการใช้งานสำหรับผู้บริโภคและนโยบายความเป็นส่วนตัว เพื่อยกระดับประสิทธิภาพของ Claude AI และเพิ่มการคุ้มครองผู้ใช้
- ผู้ใช้สามารถเลือกได้ว่าจะให้ข้อมูลของตนถูกนำไปใช้เพื่อ ปรับปรุงโมเดลของ Claude และเสริมมาตรการความปลอดภัย หรือไม่
- สามารถ ปรับการอนุญาตให้ใช้ข้อมูลได้ตลอดเวลา ในการตั้งค่า
ขอบเขตการใช้งานและข้อยกเว้น
- การอัปเดตครั้งนี้มีผลเฉพาะกับผู้ใช้แพ็กเกจ Claude Free, Pro, Max และผู้ใช้ Claude Code ภายใต้แพ็กเกจดังกล่าวเท่านั้น
- บริการภายใต้ข้อกำหนดเชิงพาณิชย์ ได้แก่ Claude for Work, Claude Gov, Claude for Education และการใช้งาน API (รวมถึงผ่านผู้ให้บริการภายนอก เช่น Amazon Bedrock, Google Cloud Vertex AI) จะไม่ได้รับผลกระทบ
ผลของการยินยอมให้ใช้ข้อมูล
- หากยินยอมให้ใช้ข้อมูล จะช่วย เพิ่มความปลอดภัยของโมเดล และทำให้ระบบ ป้องกันอันตรายและการใช้งานในทางที่ผิด มีความแม่นยำมากขึ้น
- ยังสามารถช่วยพัฒนาความสามารถที่หลากหลายของ โมเดล Claude ในอนาคต เช่น การเขียนโค้ด การวิเคราะห์ และการให้เหตุผล
- การตั้งค่านี้ยังคงอยู่ภายใต้ การควบคุมโดยตรงของผู้ใช้ เสมอ โดยผู้สมัครใหม่หรือผู้ใช้เดิมสามารถเลือกตัวเลือกนี้ผ่านหน้าต่างป๊อปอัปได้
การแจ้งเตือนและการมีผลบังคับใช้
- ระบบจะแจ้งผู้ใช้ภายในแอปเกี่ยวกับการอัปเดตและเปิดโอกาสให้เปลี่ยนการตั้งค่า
- ผู้ใช้เดิมสามารถตัดสินใจเรื่องการยอมรับข้อกำหนดและการให้ใช้ข้อมูลได้ จนถึงวันที่ 28 กันยายน 2025
- เมื่อยินยอมแล้ว นโยบายใหม่จะมีผลทันที และ มีผลเฉพาะกับบทสนทนาหรือเซสชันการเขียนโค้ดที่เริ่มใหม่หรือกลับมาใช้งานอีกครั้งเท่านั้น
- หลังวันที่ 28 กันยายน 2025 ผู้ใช้จะต้อง เลือกการตั้งค่าด้วยตนเอง จึงจะสามารถใช้งาน Claude ต่อได้
- สามารถเปลี่ยนตัวเลือกได้ที่ Privacy Settings
การขยายระยะเวลาเก็บข้อมูล
- เมื่อ ยินยอมให้นำข้อมูลไปใช้ฝึกโมเดล ระยะเวลาเก็บข้อมูลจะขยายเป็น 5 ปี
- การขยายเวลาการเก็บข้อมูลนี้มีผลเฉพาะกับ บทสนทนาหรือเซสชันการเขียนโค้ดที่เริ่มใหม่/กลับมาใช้งานอีกครั้ง และจะถูกนำไปใช้เพื่อ ปรับปรุงโมเดลและยกระดับความปลอดภัย
- หากลบบทสนทนา ข้อมูลดังกล่าวจะ ไม่ถูกนำไปใช้ในการฝึกโมเดลในอนาคต
- หากไม่ยินยอมให้ใช้ข้อมูล จะยังคงใช้ นโยบายการเก็บข้อมูล 30 วันเดิม
การจัดการข้อมูลฟีดแบ็ก
- ข้อมูลฟีดแบ็กจากผู้ใช้ก็จะอยู่ภายใต้นโยบายการเก็บรักษา 5 ปีเช่นกัน
ความเป็นส่วนตัวและวิธีการประมวลผลข้อมูล
- Anthropic จะกรอง/ทำข้อมูลนามแฝงของข้อมูลที่อ่อนไหวด้วย เครื่องมือและกระบวนการอัตโนมัติ เพื่อ ปกป้องความเป็นส่วนตัวของผู้ใช้
- ข้อมูลของผู้ใช้จะ ไม่ถูกขายให้บุคคลที่สาม
ข้อมูลเพิ่มเติม
- สามารถดูรายละเอียดการเปลี่ยนแปลงของข้อกำหนดการใช้งานสำหรับผู้บริโภคและนโยบายความเป็นส่วนตัวได้ใน ส่วน FAQ
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
สงสัยว่าผู้ใช้จะสามารถทำให้ชุดข้อมูลสำหรับการฝึกในอนาคตปนเปื้อนได้หรือไม่ เช่น ทั้งที่จริงๆ ได้รับความช่วยเหลือแล้วแต่กลับให้ฟีดแบ็กว่าไม่พอใจทุกครั้ง หรือจงใจชักนำบทสนทนาไปในทางที่ทำลายล้างแล้วค่อยทิ้งฟีดแบ็กเชิงบวกมากๆ ไว้
ไม่ชอบที่ทำให้ดูเหมือนค่าเริ่มต้นเป็น opt-in แต่ในทางปฏิบัติกลับเป็นแบบ opt-out และใช้พรอมป์ต์ที่ดูเหมือนเป็นแค่อัปเดตเงื่อนไขการใช้งานธรรมดามาชี้นำ อีกทั้งคิดว่าการเก็บข้อมูลไว้ 5 ปีก็มากเกินไป สงสัยด้วยว่ามีอะไรน่ากังวลอย่างอื่นในเงื่อนไขใหม่หรือไม่ สุดท้ายเรื่องนี้เลยกลายเป็นเหตุให้ยกเลิกการสมัคร
Claude กำลังช่วยงานวิจัยคณิตศาสตร์ของฉันอยู่ กังวลว่าถ้าคุยไปแล้วส่งไอเดียวิจัยที่ยังไม่เผยแพร่ให้ Claude จากนั้นภายหลัง Claude ไปแนะนำไอเดียเดียวกันให้คนอื่น แล้วคนนั้นเชื่อว่าเป็นไอเดียของตัวเอง แบบนี้น่าห่วง เลยรู้สึกว่าความเป็นส่วนตัวจำเป็นมากสำหรับการพัฒนาความรู้ด้วย AI ไม่ใช่แค่สำหรับบัญชีเชิงพาณิชย์แต่รวมถึงผู้ใช้ทั่วไปด้วย
ก็เป็นเรื่องที่คาดได้ ผู้เล่นรายใหญ่ชนเพดานของการฝึกด้วยข้อมูลแทบทุกอย่างไปแล้ว ทั้งอินเทอร์เน็ตทั้งก้อนและคอนเทนต์ที่ขโมยมาเสียจนถึงขั้นโดนฟ้อง ในช่วงไม่กี่ปีที่ผ่านมาแทบไม่มีนวัตกรรมใหญ่ด้านสถาปัตยกรรมโมเดล ตอนนี้เลยกลายเป็นสงครามแย่งข้อมูลฝึกเพิ่ม และสุดท้ายก็เอื้อมมาถึงข้อมูลผู้ใช้ พร้อมพยายามใช้วิธีที่น่าสงสัยขึ้นเรื่อยๆ
หลายคนอาจไม่แปลกใจ แต่สำหรับฉันถือว่าช็อกมาก เช่นเดียวกับที่ Google ไม่เอาเนื้อหาใน Gmail ของผู้ใช้ไปขึ้นในผลการค้นหา ฉันมองว่านี่เป็นการตัดสินใจทางธุรกิจที่ทำร้ายตัวเอง เลยสงสัยว่าฉันกำลังพลาดอะไรไปหรือเปล่า
ที่จริงก่อนหน้านี้ฉันหงุดหงิดมาตลอดที่ AI ดูเหมือนไม่สามารถเรียนรู้อะไรจากปฏิสัมพันธ์กับผู้ใช้ได้เลย โดยเฉพาะที่มันทำพลาดซ้ำแบบเดิม และกลับแปลกใจที่การเปลี่ยนแปลงนี้เพิ่งเกิดขึ้นเอาตอนนี้
ถ้าหลายคนคัดค้าน ฉันกลับมองบวกมากกว่า การอนุญาตให้ LLM เรียนรู้จากบทสนทนาเก่าเป็นเรื่องสำคัญมากต่อการพัฒนาโมเดล ในระยะยาวก็รับรู้ว่าการที่ความรู้ส่วนรวมไปกระจุกอยู่กับบริษัทไม่กี่แห่งอาจอันตราย ดังนั้นทางออกสุดท้ายอาจมีแค่แนวทาง “self custody” คือให้องค์กรหรือบุคคลรันและฝึกโมเดลของตัวเอง แม้แน่นอนว่าต้นทุนต้องลดลงมากถึงจะเป็นจริงได้
การที่เพิ่งเปลี่ยนนโยบายตอนนี้กลับแย่กว่าเดิมเสียอีก ฉันอยากให้เอาข้อมูลฉันไปฝึกอยู่แล้ว และต่อให้ฝึกต่อไปเรื่อยๆ ก็ไม่เป็นไร ถ้าใครอยากซีเรียสเรื่อง data privacy แบบสุดโต่ง ก็แค่ไม่ต้องใช้ข้อมูลของตัวเอง ฉันกลับอยู่ฝั่งตรงข้ามเต็มตัว แต่บริษัทต่างๆ ไม่เคยคำนึงถึงคนแบบนี้เลย แม้แต่ Google ก็ไม่มีตัวเลือก “ช่วยเอาข้อมูลทั้งหมดของฉันไปใช้ฝึกอย่างเต็มที่” ทั้งที่ฉันกรอกว่าตัวเองอยู่ที่ไหนไปตั้งหลายครั้ง มันก็ยังลืม ทุกอย่างถูกออกแบบภายใต้สมมติฐานว่า ‘ไม่มีใครอยากแชร์ข้อมูลของตัวเอง’ แม้แต่บทสัมภาษณ์ DeepMind ด้านการแพทย์ก็เริ่มจากความกลัวข้อมูลรั่ว ภัยพิบัติ และความย้ำคิดย้ำทำเรื่องนี้ทั้งหมด ฉันไม่เคยเสียหายหนักจากมันเลย กลับรู้สึกว่าได้ประโยชน์ต่อความก้าวหน้าทางการแพทย์ด้วยซ้ำ กับ NHS เองฉันยังพยายามติ๊ก “ใช้ข้อมูลฉันอย่างเต็มที่” ทุกครั้ง แต่ค่าเริ่มต้นก็มักเป็น “ปฏิเสธทั้งหมด” ทำให้ยุ่งยาก อยากได้ตัวเลือก master check เพียงครั้งเดียวว่า “เอาข้อมูลฉันทั้งหมดไปใช้ได้เลยและไม่ต้องถามอีก”
ฉันเคยเชื่อว่า Anthropic มองระยะยาวและตั้งเป้ากลุ่มผู้ใช้ที่แม้จะเล็กแต่มีความสามารถทางเทคนิคสูง ตั้งใจว่าจะยกเลิกการสมัครตามหลักการ แม้โมเดลโอเพนซอร์สยังไม่ตอบโจทย์ของฉันเท่า Claude ในเรื่องการเตรียมทดสอบความปลอดภัยที่เน้นมาตรฐาน ISO/IEEE แต่ก็คงต้องหาทางออกอื่น
สงสัยว่าทำไมถึงไม่ลิงก์ไปที่ประกาศทางการจริงๆ แทนที่จะลิงก์ไปบทความสรุปโดย AI ของ perplexity.ai จากประกาศจริง ลิงก์ ประเด็นสำคัญมีดังนี้: มีป๊อปอัปแจ้งในแอปเกี่ยวกับการเปลี่ยนแปลงและให้เลือก opt-out ได้, ไปตั้งค่า opt-out ได้ทุกเมื่อในเมนู Settings, มีผลตั้งแต่วันที่ 28 กันยายน, มีผลเฉพาะเมื่อยอมรับเงื่อนไขใหม่และมีการรีเฟรชเซสชันเท่านั้น, ไม่ใช้กับ API/external services, Claude Gov, Claude for Education ฯลฯ ลิงก์ต้นฉบับน่าจะมีประโยชน์กว่า