1 คะแนน โดย GN⁺ 2026-03-28 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • ตั้งแต่วันที่ 24 เมษายน 2026 ข้อมูลผู้ใช้ Copilot Free·Pro·Pro+ จะถูกนำไปใช้เพื่อ ฝึกและปรับปรุงโมเดล AI โดยผู้ใช้สามารถ ตั้งค่า opt-out เพื่อปฏิเสธได้
  • ผู้ใช้ Business และ Enterprise จะไม่ได้รับผลกระทบจากการเปลี่ยนแปลงครั้งนี้ และหากเคยตั้งค่าปฏิเสธไว้ก่อนหน้า ตัวเลือกเดิมจะยังคงอยู่
  • ข้อมูลสำหรับการฝึกประกอบด้วยข้อมูลการโต้ตอบในการพัฒนาจริง เช่น โค้ดที่ป้อนเข้า ผลลัพธ์ที่ได้ คอนเท็กซ์รอบเคอร์เซอร์ การประเมินฟีดแบ็ก ฯลฯ
  • รีโพซิทอรีขององค์กร เนื้อหาแบบส่วนตัว และข้อมูลของผู้ใช้ที่ opt-out จะไม่ถูกใช้ในการฝึก และข้อมูลจะถูกแชร์เฉพาะกับ บริษัทในเครือ GitHub เช่น Microsoft เท่านั้น
  • GitHub ระบุว่าข้อมูลการโต้ตอบของนักพัฒนาจริงเป็นกุญแจสำคัญต่อ การเพิ่มความแม่นยำ ความปลอดภัย และความสามารถในการตรวจจับบั๊ก พร้อมเน้นย้ำ การเข้าร่วมโดยสมัครใจของนักพัฒนา

อัปเดตนโยบายการใช้ข้อมูลการโต้ตอบของ GitHub Copilot

  • ตั้งแต่วันที่ 24 เมษายน 2026 ข้อมูลการโต้ตอบของ ผู้ใช้ Copilot Free, Pro, Pro+ (ข้อมูลอินพุต เอาต์พุต โค้ดสニปเพ็ต และคอนเท็กซ์ที่เกี่ยวข้อง) จะถูก นำไปใช้ในการฝึกและปรับปรุงโมเดล AI
    • อย่างไรก็ตาม หากผู้ใช้ opt-out ข้อมูลจะไม่ถูกนำไปใช้ในการฝึก
    • ผู้ใช้ Copilot Business และ Enterprise จะไม่ได้รับผลกระทบจากการเปลี่ยนแปลงครั้งนี้
  • ผู้ใช้ที่เคยตั้งค่าปฏิเสธการเก็บข้อมูลไว้ก่อนหน้านี้ จะคงการเลือกเดิมไว้ และข้อมูลจะไม่ถูกรวมในการฝึก เว้นแต่จะให้ความยินยอมอย่างชัดเจน
  • GitHub ระบุว่าการเปลี่ยนแปลงครั้งนี้ สอดคล้องกับแนวปฏิบัติมาตรฐานของอุตสาหกรรม และช่วยยกระดับ ความแม่นยำ ความปลอดภัย และความสามารถในการตรวจจับบั๊ก ของโมเดล
  • ผู้ใช้สามารถเปลี่ยนการเข้าร่วมหรือไม่เข้าร่วมได้ทุกเมื่อในหัวข้อ Privacy ของ หน้าการตั้งค่า

ความจำเป็นของการฝึกด้วยข้อมูลจริง

  • โมเดล Copilot รุ่นแรกถูกสร้างขึ้นจาก ข้อมูลสาธารณะและตัวอย่างโค้ดที่จัดทำด้วยมือ
  • หลังจากนั้นมีการฝึกเพิ่มเติมโดยรวม ข้อมูลการโต้ตอบของพนักงาน Microsoft และพบว่าเกิด การปรับปรุงอย่างมีนัยสำคัญ เช่น อัตราการยอมรับ (acceptance rate) ที่ดีขึ้นในหลายภาษาโปรแกรม
  • จากผลลัพธ์ดังกล่าว GitHub จึงตัดสินใจรวม ข้อมูลการโต้ตอบของนักพัฒนาจริง เข้าในการฝึก เพื่อสะท้อน กรณีการใช้งานจริงที่หลากหลาย

รายการข้อมูลที่มีการเก็บและนำไปใช้

  • ข้อมูลที่อาจถูกใช้ในการฝึกโมเดลมีดังนี้
    • ผลลัพธ์เอาต์พุต ที่ผู้ใช้ ยอมรับหรือแก้ไข
    • โค้ดสนิปเพ็ตและเนื้อหาคำขอ ที่ป้อนให้ Copilot
    • คอนเท็กซ์โค้ดรอบเคอร์เซอร์

      • ความคิดเห็นและเนื้อหาเอกสาร ที่ผู้ใช้เขียน
    • ชื่อไฟล์ โครงสร้างรีโพซิทอรี และรูปแบบการนำทาง

      • การโต้ตอบกับฟีเจอร์ของ Copilot (แชต ข้อเสนอแนะในบรรทัด เป็นต้น)
      • ฟีดแบ็กต่อข้อเสนอแนะ (การกดถูกใจ/ไม่ถูกใจ)

ข้อมูลที่จะไม่ถูกรวมในการฝึก

  • ข้อมูลต่อไปนี้จะไม่ถูกใช้ในการฝึกโมเดล
    • ข้อมูลการโต้ตอบของ Copilot Business, Enterprise และรีโพซิทอรีที่องค์กรเป็นเจ้าของ
    • ข้อมูลของ ผู้ใช้ที่ opt-out
    • เนื้อหาจาก Issues, Discussions และรีโพซิทอรีที่ไม่เปิดใช้งาน (private at rest)
      • อย่างไรก็ตาม ระหว่างการใช้งาน Copilot โค้ดจากรีโพซิทอรีส่วนตัวอาจถูก ประมวลผลเพื่อให้บริการทำงานได้ และหากไม่ได้ opt-out ก็อาจถูกรวมในการฝึกได้

ขอบเขตของการแชร์ข้อมูลและความปลอดภัย

  • ข้อมูลที่เก็บรวบรวมอาจถูกแชร์กับ บริษัทในเครือ GitHub (เช่น Microsoft)
  • อย่างไรก็ตาม จะ ไม่ถูกแชร์กับผู้ให้บริการโมเดล AI ภายนอกหรือผู้ให้บริการภายนอกอื่น ๆ
  • GitHub เน้นย้ำว่า ความก้าวหน้าของการพัฒนาซอฟต์แวร์ด้วย AI ผู้ช่วยขึ้นอยู่กับข้อมูลการโต้ตอบของนักพัฒนาจริง และกำลังใช้ข้อมูลของ พนักงาน Microsoft และ GitHub ในการฝึกโมเดลอยู่แล้ว

ทางเลือกของผู้ใช้และผลกระทบ

  • หากผู้ใช้ยินยอมให้ข้อมูล โมเดลจะได้รับการปรับปรุงในด้าน ความเข้าใจเวิร์กโฟลว์การพัฒนา, ข้อเสนอแนะโค้ดที่แม่นยำและปลอดภัยยิ่งขึ้น, และ ความสามารถในการตรวจจับบั๊กล่วงหน้า
  • แม้จะไม่เข้าร่วม ก็ยังสามารถใช้ ฟีเจอร์ AI เดิมของ Copilot ได้ตามปกติ
  • GitHub ระบุว่ายินดีต่อ การเข้าร่วมโดยสมัครใจ เพื่อยกระดับคุณภาพของชุมชนนักพัฒนาโดยรวม และสามารถดูข้อมูลเพิ่มเติมได้ที่ FAQ และหน้าพูดคุยของชุมชน

1 ความคิดเห็น

 
GN⁺ 2026-03-28
ความคิดเห็นจาก Hacker News
  • ถ้าดูตัวเลือก “Allow GitHub to use my data for AI model training” ในการตั้งค่า GitHub จะเห็นว่าสามารถเปิดหรือปิดได้
    แต่ที่ชวนขำคือมันถูกห่อให้ดูเหมือนเป็น “สิทธิ์เข้าถึงฟีเจอร์”
    การพูดถึงการยกข้อมูลให้ฟรี ๆ ราวกับเป็นสิทธิประโยชน์นี่ค่อนข้างย้อนแย้ง

    • อย่างน้อยตัวข้อความก็ไม่ได้ชวนสับสนมากนัก
      ไม่งงเท่าช่องทำเครื่องหมาย “public access prevention” ตอนสร้าง GCS bucket
    • ทั้งที่ปิดฟีเจอร์เกี่ยวกับ Copilot ไปหมดแล้ว แต่ อัตราการใช้งาน Copilot Chat ยังแสดงเป็น 2% เลยรู้สึกงง
      ในบัญชีส่วนตัวก็ไม่ได้ตั้งใจใช้ แล้วทำไมถึงยังมีบันทึกอยู่ก็ไม่รู้
    • คำว่า “สิทธิ์เข้าถึงฟีเจอร์” ฟังดู ชี้นำ มากเกินไป
      ความจริงคือการส่งข้อมูลของฉันออกไป แต่กลับทำให้ฟังเหมือนฉันจะเสียอะไรบางอย่างถ้าไม่เปิด
    • หรือบางทีการที่โมเดลถูกฝึกใหม่จากข้อมูลของฉัน แล้วภายหลังอาจช่วยฉันได้บ้างเล็กน้อย นั่นอาจถูกนับเป็น “ประโยชน์” ก็ได้
    • สุดท้ายแล้ว “ฟีเจอร์” นั้นก็คือให้ สไตล์การเขียนโค้ด ของฉันถูกสะท้อนเข้าไปในโมเดลรุ่นถัดไปเท่านั้น
  • มีประกาศว่าตั้งแต่วันที่ 24 เมษายน ข้อมูลการโต้ตอบกับ GitHub Copilot จะถูกนำไปใช้ฝึก AI
    ค่าเริ่มต้นเป็น เปิดใช้งานอยู่ จึงต้องปิดเอง
    ลิงก์หน้าตั้งค่า
    สงสัยว่าบัญชีธุรกิจก็เปิดไว้เป็นค่าเริ่มต้นด้วยหรือไม่ ถ้าใช่ก็นับว่าเป็น นโยบายที่น่าสงสัยมาก

    • ไม่น่าเชื่อว่าค่าเริ่มต้นจะเป็นเปิดอยู่
      และการที่บทความในบล็อกไม่ใส่ลิงก์สำหรับปิดไว้ให้ก็ไม่เป็นมิตร
      ถ้าจะปิดเอง ต้องไปที่ เส้นทางนี้ → Privacy → “Allow GitHub to use my data for AI model training” → ตั้งเป็น Disabled
    • ตามคำตอบในคอมมูนิตี้อย่างเป็นทางการ
      ข้อมูลของลูกค้าองค์กรจะไม่ถูกใช้เพื่อการฝึกตามสัญญา และมีเพียงผู้ใช้รายบุคคลเท่านั้นที่ควบคุมได้
    • ถ้าผู้ใช้ธุรกิจก็ยังเป็น opt-in โดยปริยายเหมือนกัน นั่นถือว่า ละเมิดนโยบายความปลอดภัยและความเป็นส่วนตัว
      เพราะมีนโยบายภายในที่ห้ามนำโค้ดลูกค้าไปใช้ฝึก
    • มีการยืนยันแล้วว่าข้อมูลของลูกค้า Copilot Business หรือ Enterprise จะไม่ถูกใช้ในการฝึก
    • ในบล็อกก็ระบุชัดว่า “ผู้ใช้ Business และ Enterprise ไม่ได้รับผลกระทบจากการเปลี่ยนแปลงครั้งนี้”
  • Copilot ไม่มีวิธีเมินไฟล์สำคัญอย่าง API key หรือรหัสผ่าน
    ทันทีที่เปิด IDE ข้อมูลลักษณะนี้อาจถูกส่งไปยัง Microsoft
    ลิงก์การสนทนาที่เกี่ยวข้อง

    • Gemini CLI จะบล็อก environment variable ที่มีสตริงอย่าง ‘AUTH’
      แต่กลับมีการตั้งค่ายกเว้นอยู่ถึงสองจุด และทั้งคู่ก็ใช้ไม่ได้
      ต่อให้ส่ง PR ไปก็มีแค่ บอตมาตอบ ไม่มีคนมาดู
      แถม Gemini 3 ยังปฏิเสธการสร้างโค้ดเวลาจะรีแฟกเตอร์โอเพนซอร์ส หากมันตัดสินว่าขัดกับเจตนาของนักพัฒนาเดิม
    • เอาจริง ๆ การเก็บไฟล์สำคัญไว้ใน repository เองก็เป็นปัญหาอยู่แล้ว
    • ปัญหาแบบนี้ไม่ได้เกิดกับ Copilot อย่างเดียว แต่เกิดซ้ำใน OpenAI Codex issue ด้วย
    • จำได้ว่าในระดับ enterprise หรือระดับองค์กร มีการตั้งค่า ignore path ได้
  • ถ้าเป็นผู้ใช้แบบเสียเงิน ค่าเริ่มต้นควรเป็น opt-in ไม่ใช่ opt-out
    ไม่เข้าใจว่า Mario Rodriguez(@mariorod) ของ GitHub ตัดสินใจแบบนี้ได้อย่างไร

    • ดูจาก README ของเขา ความสนใจหลักคือ “narrative shaping และการเปลี่ยนแปลงของ ‘How we Work’” ดังนั้นแนวทางนี้ก็ดูเหมือนเป็นส่วนต่อเนื่องจากสิ่งนั้น
  • ตั้งแต่ยุค GitHub และ AI เป็นต้นมา ฉันย้ายโค้ดทั้งหมดไปไว้ใน private git repo บนเซิร์ฟเวอร์ของตัวเอง แล้ว
    ไม่มีเหตุผลต้องกังวลเรื่องโอเพนซอร์สไลเซนส์อีกต่อไป
    ฉันไม่คิดจะปล่อยให้โค้ดของตัวเองถูกนำไปใช้ฝึก AI เชิงพาณิชย์
    ถ้าอยากทำโอเพนซอร์สอย่างจริงจัง ถึงเวลาย้ายไป Codeberg แล้ว

    • ฉันก็ตัดสินใจแบบเดียวกัน
      โปรเจกต์โอเพนซอร์สเดิมก็แค่ดูแลต่อ ส่วนโปรเจกต์ใหม่จะปล่อยเฉพาะในรูป SaaS หรือไบนารีเท่านั้น
      แต่ก็มีส่วนร่วมกับโปรเจกต์ภาษาและ OS อยู่ เลยเริ่มรู้สึกถึงความจำเป็นของการฝึกโมเดลใหม่
    • น่าจะมี ข้อยกเว้นด้านไลเซนส์ ใน TOS ของ GitHub สำหรับการให้บริการ
    • ตอนนี้ฉัน self-host Forgejo อยู่ และรัน runner บนฮาร์ดแวร์ของตัวเอง ก็พอใจดี
  • ในสหภาพยุโรป อยากรู้ว่า ฐานทางกฎหมาย ของนโยบายแบบนี้คืออะไร
    เพราะข้อมูลที่เก็บอาจมีข้อมูลส่วนบุคคลที่ระบุตัวตนได้ (PII) รวมอยู่ และตาม GDPR
    จำเป็นต้องมี “ความยินยอมที่สมัครใจและชัดเจน”

    • GDPR ห้ามค่าเริ่มต้นแบบ opt-out
      ถ้าฉันใส่เบอร์โทรของตัวเองไว้ในโค้ดหนึ่งบรรทัดเพื่อทดสอบ แล้วมันถูกส่งผ่าน Copilot ไป ก็อาจดำเนินการทางกฎหมายได้
    • ในการตั้งค่า GitHub ของฉันกลับไม่มีตัวเลือกนี้เลย เลยสงสัยว่ามันใช้เฉพาะกับผู้ใช้ในสหรัฐฯ หรือไม่
  • คำพูดที่ว่า “แนวทางนี้สอดคล้องกับมาตรฐานอุตสาหกรรม” ท้ายที่สุดก็คือเหตุผลแบบ “ที่อื่นก็ทำกัน เลยโอเค”

    • แต่ Anthropic ใช้แบบ opt-in และถ้าเปิดใช้งานยังมี ส่วนลด ให้ด้วย
  • สุดท้ายแล้ว GitHub ดูเหมือนต้องการเก็บรักษา โค้ดเบสทั้งหมด ของผู้ใช้ทุกคนเอาไว้
    มีข้อความระบุว่าข้อมูลที่ Copilot ใช้อาจถูกแชร์ไปยังบริษัทในเครือของ Microsoft ทั้งหมด

  • มองไม่เห็นตัวเลือกยกเลิกการสมัคร Copilot
    ดู ลิงก์การตั้งค่าการชำระเงินบนมือถือ แล้วก็ยังไม่มี
    ตาม เอกสารทางการ
    ถ้าได้รับสิทธิ์ใช้งานฟรีในฐานะนักเรียน ครู หรือผู้ดูแลโอเพนซอร์ส จะ ไม่สามารถยกเลิกได้

  • ถึงอย่างนั้น GitHub ก็ไม่ได้พยายามซ่อนการเปลี่ยนแปลงนี้ และได้ ชี้แจงขั้นตอน opt-out แบบเปิดเผย

    • แต่ในอีเมลไม่มีลิงก์ตรงให้เลย และก็ไม่ระบุชื่อการตั้งค่าให้ชัดเจน
      ให้ความรู้สึกเหมือนเป็น dark pattern ตามสูตร
    • ในทางปฏิบัติแล้ว opt-out ไม่ได้ง่ายขนาดนั้น
      ในแอป Android หาหน้าตั้งค่าแทบไม่เจอ และหน้าก็ทำงานได้ไม่สมบูรณ์