- หากใช้บริการ Claude ของ Anthropic ต่อจากนี้ข้อมูลของคุณจะถูกนำไปใช้ในการ ฝึก AI
- ข้อมูลที่ผู้ใช้ป้อน จะถูกนำไปใช้ฝึกโมเดลเพื่อพัฒนาระบบ AI ในอนาคต
- ไม่รวมข้อมูลในอดีต และจะมีผลกับ ข้อมูลใหม่ ที่ป้อนนับจากนี้
- ข้อมูลที่ลบหรือทำเป็นส่วนตัวจะไม่ถูกนำไปใช้ในการฝึก
- ผู้ใช้สามารถเลือก ปฏิเสธการนำข้อมูลไปฝึก (opt-out) ได้ผ่านการตั้งค่า
การเปลี่ยนแปลงนโยบายการเก็บข้อมูลและการฝึก AI ของ Claude
- ผู้ใช้ บัญชี Claude ที่ดำเนินการโดย Anthropic จำเป็นต้องรับทราบว่า นับจากนี้ ข้อมูลทั้งหมดที่ป้อนเข้าไปในบริการจะถูกใช้ในการฝึก AI
- นโยบายนี้ใช้กับ ข้อมูลใหม่ ที่ป้อนในอนาคต และไม่ครอบคลุมข้อมูลที่เคยให้ไว้ก่อนหน้านี้
- ข้อมูลที่ผู้ใช้ลบ และ ข้อมูลที่ตั้งค่าเป็นส่วนตัว จะไม่ถูกรวมอยู่ในชุดข้อมูลสำหรับการฝึก AI เนื่องจากมีการจัดการแยกต่างหาก
- Anthropic ระบุผ่านคำแนะนำของบริการว่า หากผู้ใช้ต้องการ ก็สามารถปฏิเสธการนำข้อมูลไปใช้ฝึกได้ผ่าน เมนูการตั้งค่า (opt-out)
- ขณะนี้มีการใช้นโยบายที่พยายามสร้าง สมดุลระหว่างการพัฒนาบริการ AI และการคุ้มครองข้อมูลผู้ใช้
1 ความคิดเห็น
ความเห็นจาก Hacker News
https://futureoflife.org/ai-safety-index-summer-2025/
https://imgur.com/afqMi0Z