1 คะแนน โดย GN⁺ 2025-08-30 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • หากใช้บริการ Claude ของ Anthropic ต่อจากนี้ข้อมูลของคุณจะถูกนำไปใช้ในการ ฝึก AI
  • ข้อมูลที่ผู้ใช้ป้อน จะถูกนำไปใช้ฝึกโมเดลเพื่อพัฒนาระบบ AI ในอนาคต
  • ไม่รวมข้อมูลในอดีต และจะมีผลกับ ข้อมูลใหม่ ที่ป้อนนับจากนี้
  • ข้อมูลที่ลบหรือทำเป็นส่วนตัวจะไม่ถูกนำไปใช้ในการฝึก
  • ผู้ใช้สามารถเลือก ปฏิเสธการนำข้อมูลไปฝึก (opt-out) ได้ผ่านการตั้งค่า

การเปลี่ยนแปลงนโยบายการเก็บข้อมูลและการฝึก AI ของ Claude

  • ผู้ใช้ บัญชี Claude ที่ดำเนินการโดย Anthropic จำเป็นต้องรับทราบว่า นับจากนี้ ข้อมูลทั้งหมดที่ป้อนเข้าไปในบริการจะถูกใช้ในการฝึก AI
  • นโยบายนี้ใช้กับ ข้อมูลใหม่ ที่ป้อนในอนาคต และไม่ครอบคลุมข้อมูลที่เคยให้ไว้ก่อนหน้านี้
  • ข้อมูลที่ผู้ใช้ลบ และ ข้อมูลที่ตั้งค่าเป็นส่วนตัว จะไม่ถูกรวมอยู่ในชุดข้อมูลสำหรับการฝึก AI เนื่องจากมีการจัดการแยกต่างหาก
  • Anthropic ระบุผ่านคำแนะนำของบริการว่า หากผู้ใช้ต้องการ ก็สามารถปฏิเสธการนำข้อมูลไปใช้ฝึกได้ผ่าน เมนูการตั้งค่า (opt-out)
  • ขณะนี้มีการใช้นโยบายที่พยายามสร้าง สมดุลระหว่างการพัฒนาบริการ AI และการคุ้มครองข้อมูลผู้ใช้

1 ความคิดเห็น

 
GN⁺ 2025-08-30
ความเห็นจาก Hacker News
  • พูดกันตามตรง บริษัทพวกนี้ขโมยข้อมูลไปแล้วเป็นระดับเทราไบต์ แถมก็ไม่เปิดเผยชุดข้อมูลด้วย ดังนั้นไม่ว่าฉันจะโยนอะไรเข้าไปในบริการ ก็ควรตั้งสมมติฐานไว้ก่อนว่าพวกเขาจะเก็บทุกอย่างไปใช้เทรนแน่นอน
    • การอ่านโพสต์ที่ถูกเผยแพร่อย่างเสรีบนอินเทอร์เน็ต ทุกวันนี้กลายเป็นการขโมยไปแล้วอย่างนั้นหรือ? ฉันคิดว่านี่เป็นการตีความสิทธิในทรัพย์สินที่รุนแรงเกินไป
    • ไม่จำเป็นต้องตั้งสมมติฐานในแง่ร้ายขนาดนั้น ไม่ควรคิดว่าทุกคนจะลงมือด้วยเจตนาร้าย และก็ควรระวังไม่ให้วิธีคิดแบบนี้กลายเป็นเรื่องปกติด้วย
    • ฉันคิดว่าความเห็นข้างบนนั้นเป็นการตีความที่สมเหตุสมผลที่สุด
  • เดิมทีฉันก็ถือว่าข้อมูลทั้งหมดถูกใช้เทรน AI อยู่แล้ว แค่สงสัยว่ามีฉันคนเดียวหรือเปล่าที่คิดแบบนั้น
    • ในปี 2025 โจทย์ยากที่สุดของวิทยาการคอมพิวเตอร์น่าจะเป็นการโน้มน้าวให้คนเชื่อว่า "เราไม่ได้เอาข้อมูลส่วนตัวทั้งหมดของคุณไปเทรน AI" พูดตรงๆ ฉันยังคิดเลยว่า Anthropic อาจตัดสินใจใช้มันไปเลย เพราะคนก็ไม่เชื่ออยู่แล้วว่าไม่มีใครเอาข้อมูลของพวกเขาไปเทรน แต่ถ้าเปิดทางเลือกให้คนควบคุมได้ด้วยตัวเอง ความเชื่อใจก็น่าจะเพิ่มขึ้นด้วยซ้ำ
    • ฉันไม่ค่อยเข้าใจวิธีคิดแบบนี้ ทำไมถึงต้องตั้งสมมติฐานไว้ก่อนแบบนั้น ตอนเริ่มใช้ Claude ครั้งแรก แค่ใช้เวลาไม่กี่นาทีก็ตรวจดูการตั้งค่าความเป็นส่วนตัวได้แล้ว ฉันเช็กทุกครั้งเวลาเริ่มใช้บริการใหม่ ถ้าตัดสินแบบประชดประชันไปก่อนว่าทุกอย่างถูกแชร์หมด สุดท้ายก็จะไม่ตรวจอะไรเลย เมนูตั้งค่า->ความเป็นส่วนตัวก็เห็นได้ทันทีอยู่แล้ว
    • มันก็เหมือนกับความไร้เดียงสาของคนที่เชื่อว่าถ้าลบเอกสารออกจากเซิร์ฟเวอร์ของ Google/META/Apple/Microsoft แล้วมันจะหายไปจริงๆ Google น่าจะยังมีสำเนาสำรองของข้อมูลทั้งหมดที่จัดทำดัชนีมาในรอบ 20 ปีที่ผ่านมาอยู่ นี่คงเป็นระดับที่แม้แต่ Internet Archive ยังอิจฉา
    • ฉันคิดมาตลอดว่าบัญชีฟรีถูกนำไปใช้เทรน AI อยู่แล้ว ข้อมูลที่ฉันไม่อยากทิ้งไว้จริงๆ ก็แค่ลบออกจากบริการก็พอ แต่การรวมบัญชีแบบเสียเงินเข้าไปด้วยและเก็บข้อมูลไว้นานถึง 5 ปีนี่ฉันไม่เข้าใจเลย
    • แน่นอนว่ายังมีคนที่เชื่อในคุณค่าพื้นฐานของคำมั่นสัญญาในสังคมเราอยู่ แต่พอเห็นว่าคำสัญญาเหล่านั้นถูกบิดหรือเมินเฉยทุกครั้งที่มันไม่สะดวก ก็ไม่แปลกที่มุมมองแบบถากถางจะกลายเป็นเรื่องแพร่หลาย ปัญหาคือมุมมองนี้ส่งผลต่อการตัดสินใจจริงอย่างไร สุดท้ายสิ่งที่เคยเปิดเผยก็ค่อยๆ กลายเป็นไม่เปิดเผย นั่นจึงเป็นเหตุผลที่ฉันพยายามใช้เวอร์ชันรันในเครื่องเอง และสร้างสิ่งที่ควบคุมได้มากกว่า
  • ท้ายที่สุดฉันคิดว่าเราจะได้เห็นสถานการณ์ที่มีการเปิดเผยว่าพวกเขาเทรนจากข้อมูลของทุกคน ไม่ว่าใครจะ opt-out ไปแล้วก็ตาม ฉันยังอยากใช้ Claude ต่อ แต่ไม่อยากให้ทุกโซลูชันที่ฉันสร้างขึ้นกระจายออกไปราวกับเป็นความรู้สาธารณะ
    • มีคำถามว่าก่อนหน้านี้เคยมีบริษัทไหนเมินคำขอ opt-out บ้างหรือไม่ ฟังดูเหมือนมีอะไรบางอย่างค้างคาใจอยู่
    • ฉันโอเคนะถ้าบริษัท/AI จะดีขึ้นจากอินพุตของฉัน แค่ไม่อยากให้มันเชื่อมโยงกับชื่อหรือข้อมูลของฉันโดยตรง ถ้าใช้กฎ Chatham House ได้ก็คงดี (Chatham House Rule: แชร์เนื้อหาการสนทนาได้ แต่ต้องไม่เปิดเผยตัวตนของผู้พูด)
    • ฉันสงสัยว่าทำไมคุณถึงไม่อยากแบ่งปันอินไซต์ของตัวเอง ฉันคิดว่าการแบ่งปันโดยตรงยังดีกว่าปล่อยให้ข้อมูลไหลออกไปผ่านการเทรน AI เสียอีก เพียงแต่คำพูดของคุณฟังดูหนักแน่นกว่านั้น
  • สุดท้ายดูเหมือนว่าข้อมูลสำหรับเทรนจะเริ่มขาดแคลนแล้ว ฉันสงสัยว่าพวกเขาจะพึ่งพาข้อมูลได้แค่ไหน และจะดึง "ความรู้" แบบไหนออกมาได้บ้าง ฉันแทบไม่เคยให้ฟีดแบ็ก และส่วนใหญ่ก็ได้ผลลัพธ์ผิด (ประมาณ 5 จาก 6 ครั้ง) ทั้งอย่างนั้นฉันก็ยังไม่รู้ว่าพวกเขาจะตัดสินได้อย่างไรว่าผลลัพธ์นั้นมีคุณค่า
    • พวกเขาอาจใช้วิธีแบบ Google คือถ้าผู้ใช้คลิกลิงก์หนึ่งแล้วไม่ค้นหาเพิ่ม ก็ถือว่าผลลัพธ์นั้นช่วยได้ ความเงียบของฉันเองก็อาจถูกนับเป็นสัญญาณอ่อนๆ ว่าฉันพอใจแล้วก็ได้ (แน่นอนว่าขึ้นอยู่กับรูปแบบการใช้งานของผู้ใช้)
    • สุดท้ายไม่ว่าจะเอาอะไรไปใช้เทรน ก็ไม่รู้ว่ามันมีคุณค่าจริงหรือไม่ ถ้าฉันได้คำตอบผิดแล้วไม่แสดงความไม่พอใจ บริษัทก็คงไม่ได้ใส่ใจอะไรมาก
  • เรื่องนี้ทำให้นึกถึงช่วงหลังประกาศ AI Safety Index ทันที โดยรายงานนั้นชื่นชมว่า Anthropic ไม่ใช้ข้อมูลผู้ใช้ไปเทรน ดังนั้นฉันเองก็เลยเคยคิดว่าจะเชื่อใจและใช้งานมากขึ้น
    https://futureoflife.org/ai-safety-index-summer-2025/
  • AI รุ่นใหม่พึ่งพาข้อมูล การเชื่อคำสัญญาว่าบทสนทนาของเราจะไม่ถูกนำไปเทรน ก็เหมือนยื่นอาหารจานโปรดให้คนตะกละแล้วให้สัญญาว่าห้ามกินเด็ดขาด แต่ถึงอย่างนั้น ถ้าบทสนทนาไม่ได้รั่วไหลออกสู่ภายนอกทั้งหมด ฉันก็ยังโอเค เพราะฉันยอมรับเงื่อนไขแบบนี้อยู่แล้วตอนใช้งาน
    • เราไม่ควรทำให้เรื่องแบบนี้กลายเป็นเรื่องปกติ ต้องมีการบังคับใช้เพื่อให้มีการปฏิบัติตามข้อผูกพันตามสัญญา และเพื่อปกป้องความเป็นส่วนตัวกับสิทธิมนุษยชนของเรา
  • พอล็อกอินในแอป iOS ก็มีป๊อปอัปการตั้งค่า opt-out เด้งขึ้นมาทันที มันน่ารำคาญนิดหน่อย แต่ก็ถือว่าจัดการได้โอเค
    • สำหรับฉันแล้ว อยากให้ LLM อย่าง Claude ฉลาดขึ้นจากบทสนทนาและฟีดแบ็กของฉันจริงๆ การที่มันไม่มีความทรงจำระยะยาวรายผู้ใช้หรือประวัติการสนทนาในตัวเป็นเรื่องน่าหงุดหงิดมาก ฉันขอฟีเจอร์ opt-in กับ Anthropic มานาน 6 เดือนแล้ว แน่นอนว่าฉันเข้าใจประเด็นความเป็นส่วนตัว แต่ในสายงานของฉัน (การวิจัยการรู้คิด พันธุศาสตร์ และปรัชญาประสาท) ฉันอยากให้ Claude ฉลาดขึ้น และอยากแชร์ข้อมูลที่ฉันมีเพื่อให้ได้คู่คิดที่ดีจริงๆ
  • น่าเหลือเชื่อ นี่เป็นปัญหาทางจริยธรรมด้านความเป็นส่วนตัวที่พอๆ กับการตัดสินใจอื้อฉาวของ Meta เลย เป็นการปล่อยใช้งานที่แย่มาก modal (หน้าต่างตั้งค่า) แบบนี้โผล่มาตรงหน้าต่างแชตเดิมเลย ฉันไม่เคยอนุญาตให้นำข้อมูล ความคิด เงินเดือน หรือประวัติสุขภาพครอบครัวของฉันไปใช้ แต่ก็กลัวว่าฝั่ง PR จะพูดว่า "คุณ opt-in จาก modal แล้วไง?"
    https://imgur.com/afqMi0Z
  • ฉันไม่รู้ว่าพวกเขาเอาข้อมูลอะไรไปเทรนบ้าง แต่ฉันยกเลิก Claude เป็นครั้งที่สองแล้ว ทั้งบั๊ก UI ในเว็บอินเทอร์เฟซและอาการกะพริบตลอดเวลาก็น่ารำคาญ แถมช่วงหลังคำตอบของ AI ก็ออกแนวลบและหยิ่งเกินไป ซึ่งเมื่อก่อนหรือใน LLM อื่นฉันไม่เคยเจอ คิดว่าน่าจะพยายามปรับหลังจากเคยโดนวิจารณ์ว่าเอาใจเกินไปแล้วพลาด ตอนนี้มันชอบเดาพฤติกรรมของฉันและวิจารณ์เกินบริบททางเทคนิค เวลาใช้ Gemini มันก็มักสมมติว่าฉันกำลังโกรธคำตอบอยู่ตลอด แต่ก็ยังไม่ถึงกับหยาบคาย ดังนั้นฉันเลยย้ายกลับมาใช้ chatgpt และกำลังเทียบผลไปเรื่อยๆ
    • สำหรับ power user ควรมีปุ่มปรับได้แบบ API เช่น ระดับการเอาใจ/ความปลอดภัย/ปิดโหมดคุ้มครองเด็ก อะไรทำนองนั้น ถ้ามีสวิตช์ปลดล็อกแบบไมโครเวฟด้วยก็คงดี
  • มีโพสต์ที่คล้ายกับโพสต์นี้อยู่ที่นี่
    • อย่างน้อยโพสต์นี้ก็มีข้อความเต็มของประกาศที่ Anthropic ส่งมาจริงๆ รวมอยู่ด้วย เลยมีความหมายอยู่บ้าง ส่วนสรุปที่ Perplexity ให้มาอาจอ่านง่ายกว่าสำหรับคนที่ไม่ใช่สายเทคนิค