2 คะแนน โดย GN⁺ 2026-01-30 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • มีรายงานว่า ผู้อำนวยการรักษาการของสำนักงานความมั่นคงปลอดภัยไซเบอร์และโครงสร้างพื้นฐาน (CISA) ของสหรัฐฯ ได้อัปโหลด เอกสารสัญญาของรัฐบาลที่อยู่ในระดับข้อมูลอ่อนไหว ขึ้นไปยัง ChatGPT
  • เอกสารถูกระบุว่าเป็น “For Official Use Only” และได้ กระตุ้นการแจ้งเตือนด้านความปลอดภัยภายในและการสอบสวนของรัฐบาลกลาง
  • มีรายงานว่าเขาได้ขอ สิทธิยกเว้นพิเศษ เพื่อเข้าถึง ChatGPT ทั้งที่เจ้าหน้าที่กระทรวงความมั่นคงแห่งมาตุภูมิคนอื่น ๆ ถูกปิดกั้นการเข้าถึง
  • โฆษกของ CISA ระบุว่าการใช้งาน “เป็นเพียงช่วงสั้น ๆ และมีขอบเขตจำกัด” และหลังเหตุการณ์ได้มีการดำเนิน กระบวนการประเมินความเสียหาย
  • เหตุการณ์นี้เกิดขึ้นท่ามกลาง นโยบายขยายการใช้งาน AI ของรัฐบาลกลาง ทำให้เห็นความสำคัญของ การกำกับดูแลความปลอดภัยของ AI ในหน่วยงานภาครัฐ

ภาพรวมเหตุการณ์การอัปโหลดขึ้น ChatGPT

  • Politico รายงานว่า Madhu Gottumukkala ผู้อำนวยการรักษาการของ CISA ซึ่งเป็นหน่วยงานความมั่นคงไซเบอร์สูงสุดของรัฐบาลสหรัฐฯ ได้อัปโหลด เอกสารราชการที่มีความอ่อนไหว ไปยัง ChatGPT เวอร์ชันสาธารณะ
    • เอกสารที่ถูกอัปโหลดเป็น เอกสารเกี่ยวกับสัญญาของรัฐบาล ที่มีเครื่องหมาย “For Official Use Only
    • เหตุการณ์เกิดขึ้นในช่วง ฤดูร้อนปี 2025 และ ระบบติดตามความมั่นคงไซเบอร์ภายใน ตรวจพบในช่วงต้นเดือนสิงหาคม
  • หลังตรวจพบ ได้มีการเริ่ม การประเมินความเสียหาย (damage assessment) ที่นำโดย กระทรวงความมั่นคงแห่งมาตุภูมิ (DHS) โดยทันที เพื่อตรวจสอบว่ามีการเปิดเผยข้อมูลหรือไม่
  • เนื่องจาก ChatGPT เวอร์ชันสาธารณะมีการแชร์ข้อมูลที่ผู้ใช้ป้อนให้ OpenAI จึงเกิดข้อกังวลว่า ข้อมูลอ่อนไหวอาจรั่วไหลออกนอกเครือข่ายภายใน

การตอบสนองของ CISA และจุดยืนอย่างเป็นทางการ

  • Marci McCarthy โฆษกของ CISA อธิบายว่า Gottumukkala “ได้รับอนุญาตให้ใช้ ChatGPT ภายใต้การควบคุมของ DHS
    • พร้อมย้ำว่าการใช้งานนั้น “เป็นเพียงช่วงสั้น ๆ และมีขอบเขตจำกัด
  • Gottumukkala ดำรงตำแหน่ง ผู้อำนวยการรักษาการตั้งแต่เดือนพฤษภาคม 2025 และวุฒิสภาสหรัฐฯ ยังไม่ได้รับรอง Sean Plankey ให้เป็นผู้อำนวยการตัวจริง
  • Politico ยังกล่าวถึง กรณีปัญหาอื่น ๆ ระหว่างช่วงที่เขาดำรงตำแหน่ง
    • เขาเคย ไม่ผ่านการทดสอบโพลีกราฟ (polygraph) ด้านการต่อต้านข่าวกรอง เพื่อเข้าถึงข้อมูลระดับสูง
    • อย่างไรก็ตาม ในการไต่สวนของสภาคองเกรสเมื่อไม่นานมานี้ เขาได้ ปฏิเสธและโต้แย้ง การประเมินดังกล่าว

นโยบาย AI ของรัฐบาลกลางและช่วงเวลาที่เกิดเหตุ

  • เหตุการณ์นี้เกิดขึ้นในช่วงที่ รัฐบาล Donald Trump กำลังผลักดันการนำ AI ไปใช้ในหน่วยงานรัฐบาลกลางอย่างกว้างขวาง
    • ประธานาธิบดี Trump ได้ลงนามใน คำสั่งฝ่ายบริหาร เมื่อ เดือนธันวาคม 2025 เพื่อจำกัดกฎระเบียบด้าน AI ในระดับมลรัฐ
    • กระทรวงกลาโหมสหรัฐฯ (Pentagon) ได้ประกาศยุทธศาสตร์ “AI-first” เพื่อขยายการใช้ปัญญาประดิษฐ์ในภาคการทหาร
  • ท่ามกลางกระแสนโยบายนี้ เหตุการณ์ดังกล่าวจึงถูกจับตาในฐานะตัวอย่างที่สะท้อน ความเสี่ยงด้านความปลอดภัยจากการใช้ AI ในภาครัฐ

การแจ้งเตือนภายในและกระบวนการสอบสวน

  • ทันทีที่ ระบบติดตามความมั่นคงไซเบอร์ ตรวจพบการอัปโหลดขึ้น ChatGPT ก็ได้มี การแจ้งเตือนภายใน
    • จากนั้น DHS ได้เริ่ม การสอบสวนอย่างเป็นทางการ เพื่อประเมิน การเปิดเผยข้อมูลและขอบเขตความเสียหาย
  • ตามรายงาน การเข้าถึง ChatGPT ถูก ปิดกั้นสำหรับเจ้าหน้าที่ DHS ทั่วไป แต่ Gottumukkala ได้รับสิทธิ์เข้าถึงผ่าน คำขอยกเว้นพิเศษ
  • มีความกังวลภายในรัฐบาลกลางว่า วิธีการประมวลผลข้อมูลของ OpenAI อาจ ขัดกับนโยบายความปลอดภัยของเครือข่ายภายในของรัฐบาล

ผลกระทบและความหมายของเหตุการณ์

  • เหตุการณ์นี้แสดงให้เห็นว่า แม้แต่ผู้บริหารความมั่นคงระดับสูงของรัฐบาลกลางก็ยังอาจเผชิญความเสี่ยงด้านความปลอดภัยเมื่อใช้เครื่องมือ AI
  • ทำให้เห็นความจำเป็นในการ เข้มงวดแนวทางการใช้ AI ในหน่วยงานภาครัฐ และ ทบทวนระบบคุ้มครองข้อมูล
  • ในขณะที่การนำเทคโนโลยี AI มาใช้กำลังเร่งตัวขึ้น ความสำคัญของ การควบคุมด้านความปลอดภัยและกระบวนการใช้งานที่โปร่งใส จึงยิ่งถูกเน้นย้ำ

1 ความคิดเห็น

 
GN⁺ 2026-01-30
ความคิดเห็นจาก Hacker News
  • พอเห็นสถานการณ์แบบนี้ก็ยิ่งรู้สึกว่าจำเป็นต้องมี LLM สำหรับ GovCloud โดยเฉพาะ
    มันน่าอึดอัดที่รัฐบาลดูเหมือนถูกนำโดยพวก ‘หลานของหลานที่ได้ตำแหน่งมา’
    ชวนให้นึกถึงมินิซีรีส์ Chernobyl ของ HBO อยู่เรื่อย ๆ — เหมือนฉากที่รัฐมนตรีวิทยาศาสตร์มาจากโรงงานรองเท้า ตอนนี้เหมือนเป็นยุคที่ ไม่มีใครจำเป็นต้องเก่งงานตัวเองอีกต่อไป

    • ตามบทความ ระบุว่า ChatGPT ถูกบล็อกสำหรับพนักงาน DHS ส่วนใหญ่ และมีเพียง Gottumukkala ที่ได้รับ สิทธิ์ยกเว้นพิเศษ ให้ใช้งานได้แบบจำกัด
      ถึงอย่างนั้นก็ยังโดนจากการตรวจสอบด้านความปลอดภัย นั่นหมายความว่ารัฐบาลมองว่าการใช้สิ่งนี้ในวงกว้างนั้น ไม่ปลอดภัย
      และมีการพัฒนารุ่นสำหรับรัฐบาลโดยเฉพาะร่วมกับ OpenAI อยู่แล้วคือ ChatGPT Gov
    • การเอาคนไร้ความสามารถไปไว้ในตำแหน่งอำนาจเป็น เครื่องมือทางการเมืองแบบคลาสสิก เพื่อให้ได้ความภักดี
      เพราะตำแหน่งนั้นไม่ได้มาจากความสามารถ คนคนนั้นก็จะภักดีต่อผู้แต่งตั้งเพียงคนเดียว และไม่สนใจคุณภาพของงาน
      ยิ่งผู้นำอ่อนแอก็ยิ่งใช้วิธีนี้ และน่าเสียดายที่มันได้ผลพอสมควร
    • พูดถึง “หลานของหลานที่ได้ตำแหน่งมา” แล้ว จะลืม Large Adult Sons ไปไม่ได้
      มีมีมที่เกี่ยวข้องใน บทความของ The New Yorker และ หน้าของ KnowYourMeme
    • ดูเหมือนเป็น กลยุทธ์ที่ตั้งใจ ทำให้รัฐบาลดู ไร้ความสามารถ เพื่อให้สุดท้ายงานถูกส่งต่อไปยังบริษัทเอกชนที่เพื่อนหรือครอบครัวเป็นเจ้าของ
      แบบนั้นก็จะสูบทรัพยากรออกไปได้อย่างมีประสิทธิภาพกว่ามาก
    • อ้างอิงไว้ก่อนว่า Chernobyl ของ HBO เป็น เรื่องแต่ง นะ ในความเป็นจริงไม่มีฉาก ‘ผู้จัดการโรงงานรองเท้า’ มานั่งดื่มวอดก้าแบบนั้น
  • ระดับ op-sec ของรัฐบาลชุดนี้หละหลวมแทบจะระดับ ‘Barney Fife’

    • ทีมอารักขาของ Maduro ในเวเนซุเอลาอาจจะขอเถียงนิดหน่อยกับความเห็นนี้
    • อย่างน้อย Fife ก็ยังเป็นคนที่ เจตนาดี นะ แถมหัวหน้ายังไม่ให้เขาถือปืนด้วย
    • ภาพรวมของ การขาดความสามารถ ของรัฐบาลชุดนี้เหมือนระดับ ‘เด็กทำงานประดิษฐ์แปะกาว’
    • ความไร้ความสามารถแบบนี้อาจจะ ไม่ใช่บั๊ก แต่เป็นฟีเจอร์
    • ฉันเองก็ทำงานด้านจัดซื้อจัดจ้างและเซลส์มา 10 ปี เห็นสถานการณ์นี้แล้วได้แต่ขำ
      คนที่ไม่รู้ขั้นตอนจัดซื้อแล้วพยายามแก้ด้วยการค้นหาออนไลน์ ก็ไม่ต่างจากผู้บริหารที่ค้นว่า “RFP คืออะไร?” เมื่อปี 2007
  • แปลกที่มีคนสามารถใช้ ChatGPT Pro แบบปลอดภัยบน Azure ได้อยู่แล้ว แต่กลับไปใช้ 4o เวอร์ชันสาธารณะ
    ภาครัฐมีสภาพแวดล้อมแยกที่ปลอดภัยอยู่แล้ว
    สุดท้ายแม้จะได้รับอนุญาตให้ใช้ได้แค่ในระดับ “เอกสารไม่เป็นทางการ” แต่ ความผิดพลาดพื้นฐาน แบบนี้ก็ยากจะยอมรับได้สำหรับผู้นำ CISA

    • แต่ถ้าเขาเป็นแค่ หุ่นเชิดที่ถูกปักไว้ ก็คงไม่รู้หรอกว่าควรใช้เครื่องมือพวกนี้อย่างไรให้ถูกต้อง
  • ต้นฉบับควรไปอ่านจาก บทความของ Politico

  • คนที่ละเมิดกฎก็คือพวก ข้างบน เสมอ
    ฉันรู้จักคนที่ทำงานด้านการสื่อสารทางทหาร หลายครั้งนายทหารชั้นผู้ใหญ่ก็ มองข้ามขั้นตอนความปลอดภัย ไปเลยเพราะรู้สึกว่ายุ่งยาก

  • ก่อนหน้านี้ผู้คนก็ ประมาทบนโซเชียลมีเดียสาธารณะ กันอยู่แล้ว
    พอมี LLM แนวโน้มนี้ก็น่าจะหนักขึ้นอีก

    • อันตรายจริง ๆ อยู่ตรงนี้ ตอนนี้เรายัง ไม่มีวิธีร้องขอให้ลบข้อมูล ออกจาก LLM ได้เลย
  • ในอุตสาหกรรมที่อยู่ภายใต้ กฎ ITAR/EAR (การบินอวกาศ การป้องกันประเทศ ฯลฯ) การบล็อกการเข้าถึง ChatGPT.com เป็นเรื่องจำเป็น
    น่าตกใจที่ก่อนหน้านี้ยังไม่ได้ทำแบบนั้น

    • เห็นด้วย แต่ข้อกำหนดของ ITAR และ EAR โดยเฉพาะใน ภาคการศึกษาระดับอุดมศึกษา นั้นคลุมเครือมาก
    • ตามรายงาน Gottumukkala ได้ยื่นขอ ข้อยกเว้นพิเศษ เพื่อเข้าถึง ChatGPT
  • ระดับ ความสามารถ ในเหตุการณ์นี้ก็เป็นไปตามที่คาดไว้

    • เขาเป็นคนที่ Kristi Noem แต่งตั้งโดยตรง
      ตาม โปรไฟล์ในวิกิพีเดีย ระบุว่าเขาได้รับแต่งตั้งเป็นรองปลัด DHS ในเดือนเมษายน 2025 และเริ่มทำหน้าที่เป็น ผู้อำนวยการรักษาการ ของ CISA ตั้งแต่เดือนพฤษภาคม
  • การไล่ปิดการตั้งค่าคุกกี้ทีละอันนี่ค่อนข้างสนุกดี
    จากบริษัทพาร์ตเนอร์ 1668 แห่ง มีถึงหนึ่งในสามที่อ้าง ‘ผลประโยชน์อันชอบธรรม’
    พอเห็นว่า Privacy Badger บล็อกแค่ 19 ตัว ก็เลยสงสัยว่าบางรายอาจกำลังเอา คุกกี้ปลอม มาถมพื้นที่
    สุดท้ายก็ลืมอ่านบทความไปเลย

    • คุกกี้ตัวเดียวกันอาจถูกแชร์กับหลายพาร์ตเนอร์ หรือข้อมูลที่เก็บอาจถูกส่งต่อก็ได้
      นี่ไม่ใช่แค่ ‘กฎหมายคุกกี้’ แต่เป็น กฎหมายว่าด้วยการแชร์ข้อมูลส่วนบุคคล
      เช่น ถ้าจะขาย SSN กับอีเมลของฉันให้ 1668 บริษัท ก็ต้องขอ ความยินยอม ของแต่ละราย
  • สุดท้ายรัฐบาลก็ดูเหมือนจะพยายามแก้ปัญหานี้ด้วยการยัดมันเข้าไปใน Grok

    • ถึงตอนนี้ DOGE น่าจะดึงข้อมูลที่ต้องการไปหมดแล้ว แต่ก็คงยังอยากได้มากกว่านี้อยู่ดี