- มีรายงานว่า ผู้อำนวยการรักษาการของสำนักงานความมั่นคงปลอดภัยไซเบอร์และโครงสร้างพื้นฐาน (CISA) ของสหรัฐฯ ได้อัปโหลด เอกสารสัญญาของรัฐบาลที่อยู่ในระดับข้อมูลอ่อนไหว ขึ้นไปยัง ChatGPT
- เอกสารถูกระบุว่าเป็น “For Official Use Only” และได้ กระตุ้นการแจ้งเตือนด้านความปลอดภัยภายในและการสอบสวนของรัฐบาลกลาง
- มีรายงานว่าเขาได้ขอ สิทธิยกเว้นพิเศษ เพื่อเข้าถึง ChatGPT ทั้งที่เจ้าหน้าที่กระทรวงความมั่นคงแห่งมาตุภูมิคนอื่น ๆ ถูกปิดกั้นการเข้าถึง
- โฆษกของ CISA ระบุว่าการใช้งาน “เป็นเพียงช่วงสั้น ๆ และมีขอบเขตจำกัด” และหลังเหตุการณ์ได้มีการดำเนิน กระบวนการประเมินความเสียหาย
- เหตุการณ์นี้เกิดขึ้นท่ามกลาง นโยบายขยายการใช้งาน AI ของรัฐบาลกลาง ทำให้เห็นความสำคัญของ การกำกับดูแลความปลอดภัยของ AI ในหน่วยงานภาครัฐ
ภาพรวมเหตุการณ์การอัปโหลดขึ้น ChatGPT
- Politico รายงานว่า Madhu Gottumukkala ผู้อำนวยการรักษาการของ CISA ซึ่งเป็นหน่วยงานความมั่นคงไซเบอร์สูงสุดของรัฐบาลสหรัฐฯ ได้อัปโหลด เอกสารราชการที่มีความอ่อนไหว ไปยัง ChatGPT เวอร์ชันสาธารณะ
- เอกสารที่ถูกอัปโหลดเป็น เอกสารเกี่ยวกับสัญญาของรัฐบาล ที่มีเครื่องหมาย “For Official Use Only”
- เหตุการณ์เกิดขึ้นในช่วง ฤดูร้อนปี 2025 และ ระบบติดตามความมั่นคงไซเบอร์ภายใน ตรวจพบในช่วงต้นเดือนสิงหาคม
- หลังตรวจพบ ได้มีการเริ่ม การประเมินความเสียหาย (damage assessment) ที่นำโดย กระทรวงความมั่นคงแห่งมาตุภูมิ (DHS) โดยทันที เพื่อตรวจสอบว่ามีการเปิดเผยข้อมูลหรือไม่
- เนื่องจาก ChatGPT เวอร์ชันสาธารณะมีการแชร์ข้อมูลที่ผู้ใช้ป้อนให้ OpenAI จึงเกิดข้อกังวลว่า ข้อมูลอ่อนไหวอาจรั่วไหลออกนอกเครือข่ายภายใน
การตอบสนองของ CISA และจุดยืนอย่างเป็นทางการ
- Marci McCarthy โฆษกของ CISA อธิบายว่า Gottumukkala “ได้รับอนุญาตให้ใช้ ChatGPT ภายใต้การควบคุมของ DHS”
- พร้อมย้ำว่าการใช้งานนั้น “เป็นเพียงช่วงสั้น ๆ และมีขอบเขตจำกัด”
- Gottumukkala ดำรงตำแหน่ง ผู้อำนวยการรักษาการตั้งแต่เดือนพฤษภาคม 2025 และวุฒิสภาสหรัฐฯ ยังไม่ได้รับรอง Sean Plankey ให้เป็นผู้อำนวยการตัวจริง
- Politico ยังกล่าวถึง กรณีปัญหาอื่น ๆ ระหว่างช่วงที่เขาดำรงตำแหน่ง
- เขาเคย ไม่ผ่านการทดสอบโพลีกราฟ (polygraph) ด้านการต่อต้านข่าวกรอง เพื่อเข้าถึงข้อมูลระดับสูง
- อย่างไรก็ตาม ในการไต่สวนของสภาคองเกรสเมื่อไม่นานมานี้ เขาได้ ปฏิเสธและโต้แย้ง การประเมินดังกล่าว
นโยบาย AI ของรัฐบาลกลางและช่วงเวลาที่เกิดเหตุ
- เหตุการณ์นี้เกิดขึ้นในช่วงที่ รัฐบาล Donald Trump กำลังผลักดันการนำ AI ไปใช้ในหน่วยงานรัฐบาลกลางอย่างกว้างขวาง
- ประธานาธิบดี Trump ได้ลงนามใน คำสั่งฝ่ายบริหาร เมื่อ เดือนธันวาคม 2025 เพื่อจำกัดกฎระเบียบด้าน AI ในระดับมลรัฐ
- กระทรวงกลาโหมสหรัฐฯ (Pentagon) ได้ประกาศยุทธศาสตร์ “AI-first” เพื่อขยายการใช้ปัญญาประดิษฐ์ในภาคการทหาร
- ท่ามกลางกระแสนโยบายนี้ เหตุการณ์ดังกล่าวจึงถูกจับตาในฐานะตัวอย่างที่สะท้อน ความเสี่ยงด้านความปลอดภัยจากการใช้ AI ในภาครัฐ
การแจ้งเตือนภายในและกระบวนการสอบสวน
- ทันทีที่ ระบบติดตามความมั่นคงไซเบอร์ ตรวจพบการอัปโหลดขึ้น ChatGPT ก็ได้มี การแจ้งเตือนภายใน
- จากนั้น DHS ได้เริ่ม การสอบสวนอย่างเป็นทางการ เพื่อประเมิน การเปิดเผยข้อมูลและขอบเขตความเสียหาย
- ตามรายงาน การเข้าถึง ChatGPT ถูก ปิดกั้นสำหรับเจ้าหน้าที่ DHS ทั่วไป แต่ Gottumukkala ได้รับสิทธิ์เข้าถึงผ่าน คำขอยกเว้นพิเศษ
- มีความกังวลภายในรัฐบาลกลางว่า วิธีการประมวลผลข้อมูลของ OpenAI อาจ ขัดกับนโยบายความปลอดภัยของเครือข่ายภายในของรัฐบาล
ผลกระทบและความหมายของเหตุการณ์
- เหตุการณ์นี้แสดงให้เห็นว่า แม้แต่ผู้บริหารความมั่นคงระดับสูงของรัฐบาลกลางก็ยังอาจเผชิญความเสี่ยงด้านความปลอดภัยเมื่อใช้เครื่องมือ AI
- ทำให้เห็นความจำเป็นในการ เข้มงวดแนวทางการใช้ AI ในหน่วยงานภาครัฐ และ ทบทวนระบบคุ้มครองข้อมูล
- ในขณะที่การนำเทคโนโลยี AI มาใช้กำลังเร่งตัวขึ้น ความสำคัญของ การควบคุมด้านความปลอดภัยและกระบวนการใช้งานที่โปร่งใส จึงยิ่งถูกเน้นย้ำ
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
พอเห็นสถานการณ์แบบนี้ก็ยิ่งรู้สึกว่าจำเป็นต้องมี LLM สำหรับ GovCloud โดยเฉพาะ
มันน่าอึดอัดที่รัฐบาลดูเหมือนถูกนำโดยพวก ‘หลานของหลานที่ได้ตำแหน่งมา’
ชวนให้นึกถึงมินิซีรีส์ Chernobyl ของ HBO อยู่เรื่อย ๆ — เหมือนฉากที่รัฐมนตรีวิทยาศาสตร์มาจากโรงงานรองเท้า ตอนนี้เหมือนเป็นยุคที่ ไม่มีใครจำเป็นต้องเก่งงานตัวเองอีกต่อไป
ถึงอย่างนั้นก็ยังโดนจากการตรวจสอบด้านความปลอดภัย นั่นหมายความว่ารัฐบาลมองว่าการใช้สิ่งนี้ในวงกว้างนั้น ไม่ปลอดภัย
และมีการพัฒนารุ่นสำหรับรัฐบาลโดยเฉพาะร่วมกับ OpenAI อยู่แล้วคือ ChatGPT Gov
เพราะตำแหน่งนั้นไม่ได้มาจากความสามารถ คนคนนั้นก็จะภักดีต่อผู้แต่งตั้งเพียงคนเดียว และไม่สนใจคุณภาพของงาน
ยิ่งผู้นำอ่อนแอก็ยิ่งใช้วิธีนี้ และน่าเสียดายที่มันได้ผลพอสมควร
มีมีมที่เกี่ยวข้องใน บทความของ The New Yorker และ หน้าของ KnowYourMeme
แบบนั้นก็จะสูบทรัพยากรออกไปได้อย่างมีประสิทธิภาพกว่ามาก
ระดับ op-sec ของรัฐบาลชุดนี้หละหลวมแทบจะระดับ ‘Barney Fife’
คนที่ไม่รู้ขั้นตอนจัดซื้อแล้วพยายามแก้ด้วยการค้นหาออนไลน์ ก็ไม่ต่างจากผู้บริหารที่ค้นว่า “RFP คืออะไร?” เมื่อปี 2007
แปลกที่มีคนสามารถใช้ ChatGPT Pro แบบปลอดภัยบน Azure ได้อยู่แล้ว แต่กลับไปใช้ 4o เวอร์ชันสาธารณะ
ภาครัฐมีสภาพแวดล้อมแยกที่ปลอดภัยอยู่แล้ว
สุดท้ายแม้จะได้รับอนุญาตให้ใช้ได้แค่ในระดับ “เอกสารไม่เป็นทางการ” แต่ ความผิดพลาดพื้นฐาน แบบนี้ก็ยากจะยอมรับได้สำหรับผู้นำ CISA
ต้นฉบับควรไปอ่านจาก บทความของ Politico
คนที่ละเมิดกฎก็คือพวก ข้างบน เสมอ
ฉันรู้จักคนที่ทำงานด้านการสื่อสารทางทหาร หลายครั้งนายทหารชั้นผู้ใหญ่ก็ มองข้ามขั้นตอนความปลอดภัย ไปเลยเพราะรู้สึกว่ายุ่งยาก
ก่อนหน้านี้ผู้คนก็ ประมาทบนโซเชียลมีเดียสาธารณะ กันอยู่แล้ว
พอมี LLM แนวโน้มนี้ก็น่าจะหนักขึ้นอีก
ในอุตสาหกรรมที่อยู่ภายใต้ กฎ ITAR/EAR (การบินอวกาศ การป้องกันประเทศ ฯลฯ) การบล็อกการเข้าถึง ChatGPT.com เป็นเรื่องจำเป็น
น่าตกใจที่ก่อนหน้านี้ยังไม่ได้ทำแบบนั้น
ระดับ ความสามารถ ในเหตุการณ์นี้ก็เป็นไปตามที่คาดไว้
ตาม โปรไฟล์ในวิกิพีเดีย ระบุว่าเขาได้รับแต่งตั้งเป็นรองปลัด DHS ในเดือนเมษายน 2025 และเริ่มทำหน้าที่เป็น ผู้อำนวยการรักษาการ ของ CISA ตั้งแต่เดือนพฤษภาคม
การไล่ปิดการตั้งค่าคุกกี้ทีละอันนี่ค่อนข้างสนุกดี
จากบริษัทพาร์ตเนอร์ 1668 แห่ง มีถึงหนึ่งในสามที่อ้าง ‘ผลประโยชน์อันชอบธรรม’
พอเห็นว่า Privacy Badger บล็อกแค่ 19 ตัว ก็เลยสงสัยว่าบางรายอาจกำลังเอา คุกกี้ปลอม มาถมพื้นที่
สุดท้ายก็ลืมอ่านบทความไปเลย
นี่ไม่ใช่แค่ ‘กฎหมายคุกกี้’ แต่เป็น กฎหมายว่าด้วยการแชร์ข้อมูลส่วนบุคคล
เช่น ถ้าจะขาย SSN กับอีเมลของฉันให้ 1668 บริษัท ก็ต้องขอ ความยินยอม ของแต่ละราย
สุดท้ายรัฐบาลก็ดูเหมือนจะพยายามแก้ปัญหานี้ด้วยการยัดมันเข้าไปใน Grok