- เจ้าหน้าที่ของสถานพยาบาลสร้างระบบจัดการผู้ป่วยขึ้นเองด้วย AI coding agent ทำให้ข้อมูลผู้ป่วย ถูกเปิดเผยบนอินเทอร์เน็ตโดยไม่มีการเข้ารหัส
- มีการส่งบันทึกเสียงบทสนทนาระหว่างการรักษาไปยัง บริการ AI สองแห่งเพื่อสรุปอัตโนมัติ และข้อมูลทั้งหมดถูกเปิดสิทธิ์ อ่าน·เขียน ไว้
- ข้อมูลถูกจัดเก็บบนเซิร์ฟเวอร์ในสหรัฐฯ และให้บริการโดยไม่มี ข้อตกลงการประมวลผลข้อมูล (DPA) อีกทั้งไม่มีการแจ้งผู้ป่วยล่วงหน้า
- การกระทำดังกล่าวอาจเข้าข่ายละเมิด กฎหมายคุ้มครองข้อมูล nDSG ของสวิตเซอร์แลนด์ และ หน้าที่รักษาความลับทางวิชาชีพ
- ผู้เขียนเตือนว่า “หากการเขียนโค้ดด้วย AI ยังหยุดอยู่แค่ระดับ vibe ก็จะนำไปสู่ อนาคตที่ไม่ปลอดภัย”
หายนะด้านความปลอดภัยของแอปจัดการผู้ป่วยที่สร้างด้วย AI
- กรณีที่เจ้าหน้าที่ของสถานพยาบาลสร้างระบบจัดการผู้ป่วยขึ้นเองโดยใช้ AI coding agent
- นำเข้าข้อมูลผู้ป่วยเดิมทั้งหมดและเผยแพร่บนอินเทอร์เน็ตแบบสาธารณะ
- เพิ่มฟีเจอร์บันทึกเสียงการสนทนาระหว่างการรักษา และส่งไปยัง บริการ AI สองแห่งเพื่อทำสรุปอัตโนมัติ
- ผลลัพธ์คือข้อมูลผู้ป่วยทั้งหมด ถูกเปิดเผยบนอินเทอร์เน็ตโดยไม่มีการเข้ารหัส
- ผู้เขียนสามารถได้สิทธิ์ อ่าน·เขียน ข้อมูลทั้งหมดภายใน 30 นาที
- แม้จะรายงานปัญหาแล้ว แต่คำตอบที่ได้รับกลับเป็น ข้อความขอบคุณที่ AI สร้างอัตโนมัติ
- ข้อมูลถูกเก็บไว้บนเซิร์ฟเวอร์ในสหรัฐฯ และดำเนินการโดยไม่มี ข้อตกลงการประมวลผลข้อมูล (DPA)
- ไฟล์บันทึกเสียงก็ถูกส่งไปยังบริษัท AI ในสหรัฐฯ เช่นกัน
- ผู้ป่วย ไม่ได้รับการแจ้งล่วงหน้า เกี่ยวกับการประมวลผลข้อมูลดังกล่าว
- การกระทำนี้อาจเข้าข่ายละเมิด nDSG (กฎหมายคุ้มครองข้อมูล) ของสวิตเซอร์แลนด์ และ หน้าที่รักษาความลับทางวิชาชีพ (Berufsgeheimnis)
- แม้ผู้เขียนจะไม่ใช่ผู้เชี่ยวชาญด้านกฎหมาย แต่เห็นว่าน่าจะมีการละเมิดหลายข้อ
- มีการเตือนว่า “หากการเขียนโค้ดด้วย AI ยังอยู่ในระดับแค่ ‘อาศัยบรรยากาศ (vibe)’ ก็จะนำไปสู่ อนาคตที่ไม่ปลอดภัย”
พื้นหลังทางเทคนิค
- แอปพลิเคชันประกอบด้วย ไฟล์ HTML เดียว
- มี JavaScript, CSS และโค้ดโครงสร้างทั้งหมดแบบ inline
- ฝั่งแบ็กเอนด์ใช้ บริการฐานข้อมูลแบบ managed ที่ไม่มีการควบคุมการเข้าถึงเลย
- ตรรกะการควบคุมการเข้าถึงมีอยู่แค่ใน JavaScript ฝั่งไคลเอนต์
- เข้าถึงข้อมูลได้แม้ด้วยคำสั่ง
curlเพียงบรรทัดเดียว
- เข้าถึงข้อมูลได้แม้ด้วยคำสั่ง
- ไฟล์บันทึกเสียง ทั้งหมดถูกส่งตรงไปยัง AI API ภายนอกเพื่อ ถอดเสียงและสรุปผล
- แค่นี้ก็ชัดเจนแล้วว่าเป็น ช่องโหว่ด้านความปลอดภัยที่ร้ายแรง
แนวโน้ม
- เมื่อใช้เครื่องมือเขียนโค้ดด้วย AI จำเป็นต้องมี ความสามารถในการเข้าใจโครงสร้างโค้ดและสถาปัตยกรรม
- การเข้าหาแบบเพียงแค่ “สนุกกับบรรยากาศการโค้ดด้วย AI (vibing)” อาจนำไปสู่ ผลลัพธ์ที่อันตราย
- ในยุคที่เครื่องมือพัฒนา AI กำลังแพร่หลาย จำเป็นต้องมี ความตระหนักด้านความปลอดภัยพื้นฐานและความเข้าใจทางเทคนิค
11 ความคิดเห็น
ก็อย่างที่รู้กันอยู่แล้ว... แค่ลองค้นหา
OPENAI_API_KEYบน GitHub ก็เจออะไรหลุดมาเพียบแล้ว...แบบนี้ไป ๆ มา ๆ อาจจะถึงยุคที่ต้องไปสอบใบรับรองการทำไวบ์โค้ดดิ้งก็ได้..
โลกทุกวันนี้ชวนสับสนเกินไป เพราะมีคนจำนวนมากที่ทำเป็นเหมือนผู้เชี่ยวชาญผ่าน AI และเมื่อพวกเขาเริ่มพร่ำพูดออกมา
...
ในเกาหลีเอง ตามกฎหมายคุ้มครองข้อมูลและมาตรา 21 วรรค 2 ของกฎหมายการแพทย์ ก็มีการกำหนดไว้ว่า บุคลากรของสถานพยาบาลต้องไม่เปิดให้ผู้อื่นเข้าดูเวชระเบียนของผู้ป่วย เว้นแต่จะเข้าเงื่อนไขข้อยกเว้น
https://law.go.kr/%EB%B2%95%EB%A0%B9/%EC%9D%98%EB%A3%8C%EB%B2%95/…
ด้วยสภาพแวดล้อมด้านการคุ้มครองข้อมูลของเกาหลีที่ล้าหลัง ทุกคนเลยยึดถือการแยกเครือข่ายกันอย่างเคร่งครัด ดังนั้นโชคดีที่ดูเหมือนอุบัติเหตุแบบนี้จะไม่ค่อยเกิดในโรงพยาบาลขนาดใหญ่
เพราะสภาพแวดล้อมที่ใช้ดูเวชระเบียนของผู้ป่วยอยู่บนเครือข่ายภายใน ทำให้ผู้ใช้ที่ไม่ค่อยมีความรู้ด้านความปลอดภัยเอาบริการ AI เชิงพาณิชย์มาต่อใช้โดยตรงได้ยาก
ส่วนคลินิกระดับปฐมภูมิที่เอาคอมพิวเตอร์สำหรับตรวจรักษาไปต่ออินเทอร์เน็ตโดยตรง จะเกิดอะไรขึ้นบ้างก็ไม่รู้เหมือนกัน ฮ่า
PHI ต้องระวังเสมอ... ระวังให้มากเข้าไว้...
ผมก็แนะนำ Claude Code ให้เพื่อนเหมือนกัน แล้วราวสองสัปดาห์ต่อมาเขาก็มาบอกว่า ฉันทำอะไรบางอย่างได้แล้ว!! ซึ่งก็เกิดสถานการณ์แบบเดียวกันเป๊ะเลยครับ
ได้ยินมาว่าเทคโนโลยีสำหรับค้นหาช่องโหว่ด้านความปลอดภัยก็พัฒนาไปอย่างก้าวกระโดดเช่นกัน
การค้นพบช่องโหว่เหล่านั้นก็ยิ่งทำให้เกิดความจำเป็นในการหาวิธีป้องกันให้มากขึ้น
จึงดูว่าวิธีการด้านความปลอดภัยก็น่าจะได้รับการปรับปรุงตามไปด้วยครับ
อย่างแรกเลย คนที่ไม่ใช่มืออาชีพคงไม่รู้ด้วยซ้ำว่ามีของพวกนั้นอยู่ หรือทำไมมันถึงจำเป็น
ยิ่งเป็นแบบนั้นก็ยิ่งทำให้ตระหนักว่าควรเรียนวิทยาการคอมพิวเตอร์
ผมว่ามันเป็นคำพูดที่แทงใจประเด็นจริง ๆ
ความคิดเห็นจาก Hacker News
เคยเจอเรื่องคล้ายกันในสเปน ไม่ใช่วงการแพทย์แต่เป็นบริษัทประกันเล็ก ๆ และเชื่อหรือไม่ว่าพวกเขาก็สร้าง CRM ด้วย vibe-coding
พอฉันแจ้งปัญหาทางอีเมล พวกเขากลับขู่จะฟ้องร้อง ฟังดูเหลือเชื่อ แต่สุดท้ายฉันก็ยื่นเรื่องไปที่ AEPD (หน่วยงานคุ้มครองข้อมูลของสเปน) ซึ่งขึ้นชื่อว่าเป็นหน่วยงานที่มีอำนาจมาก
เมื่อวันศุกร์ที่แล้วฉันยังส่ง burofax เพื่อขอให้ลบข้อมูลส่วนตัวของฉันด้วย
ฉันแจ้งปัญหาไว้ใน README.txt แต่ก็ไม่มีอะไรเปลี่ยน เลยคิดจะเดินเข้าไปช่วยแก้และอาจลองทำเป็นงานแรกของตัวเองดู แต่พวกเขากลับโกรธ บอกว่าพวกเขาจ้างบริษัทเอาต์ซอร์สราคาแพงอยู่แล้ว และกล่าวหาว่าฉันบุกรุก สุดท้ายฉันก็เดินออกมาทันที
ในฟอรัมผู้ประกอบการรายย่อยที่ฉันอยู่ ก็มีคนหนึ่งอวดว่าเขาทำแอปเองด้วย AI แต่ไม่รู้เรื่องความรับผิดทางกฎหมายเลย พอมีนักพัฒนาบน Reddit บอกว่า “ไปจ้างนักพัฒนาจริง ๆ เถอะ” เขาก็โมโห ตอนนี้เขาเชื่อแล้วว่านักพัฒนาเป็น สายพันธุ์ที่ใกล้สูญพันธุ์
บน LinkedIn พวก เซลส์ที่ไม่เข้าใจเทคโนโลยี กำลังพูดกันใหญ่ว่า AI คือคำตอบของทุกปัญหา
ในบรรยากาศแบบนี้ มันทำให้รู้สึกกังวลว่าสักวันจะต้องเกิดเรื่องใหญ่แน่ ๆ
vibe-coding ดูเท่ก็จริง แต่ข้อจำกัดมันโผล่มาเร็วมาก
พอเกินหลักพันบรรทัด โครงสร้างก็เริ่มพัง และระบบจริงซับซ้อนกว่านั้นมาก สุดท้ายก็ยังต้องมี พื้นฐานวิศวกรรมซอฟต์แวร์
มันพอใช้กับโปรโตไทป์หรือเครื่องมือภายในได้ แต่เอาไปใช้ในโปรดักชันจริงอันตรายมาก ฉันไม่อยากฝากข้อมูลของตัวเองไว้กับระบบแบบนี้
ฉันใช้ Jira Rovo MCP กับ Claude Code เพื่อทำแบบออกแบบและเอกสาร ตรวจด้วยตัวเองก่อน แล้วค่อยไปลงมือเขียนในเซสชันใหม่
ยิ่ง LLM มีคอนเท็กซ์เยอะก็ยิ่งโง่ลง ดังนั้นควรเปิดใช้ การตั้งค่า context status bar
ฉันทดสอบ Gemma 4 บนเครื่องตัวเอง มันช้าก็จริงแต่ทรงพลังพอ ๆ กับโมเดลคลาวด์ และข้อดีคือข้อมูลไม่ไหลออกไปข้างนอก
เมื่อไม่กี่เดือนก่อนฉันเห็น เว็บแอปที่ vibe-coded โดยศัลยแพทย์คนหนึ่ง
มันใช้งานได้ก็จริง แต่ในรูทไดเรกทอรีกลับ ไม่มี index.html และในไฟล์แบ็กอัปก็มีข้อมูลเชื่อมต่อ DB กับ AWS key อยู่ครบ
แค่เพิ่ม index.html เปล่า ๆ เข้าไปก็แก้ได้แล้ว แต่ทั้งนักพัฒนาและ AI กลับไม่รู้เหตุผล
ตัวแอปเองน่าประทับใจ แต่มี ความผิดพลาดด้านความปลอดภัย พื้นฐานเยอะเกินไป แค่ให้ DevOps ที่มีประสบการณ์มาดูสักรอบก็น่าจะพอแล้ว
สุดท้าย AI ก็ไม่รู้ในสิ่งที่ “ไม่ได้ถาม” นักพัฒนาที่มีประสบการณ์จะจำความล้มเหลวในอดีตได้ แต่ vibe-coder มีแค่ พรอมป์ต์
คำว่า “ตรรกะควบคุมสิทธิ์ทั้งหมดอยู่ใน JavaScript ฝั่งไคลเอนต์” นี่คือแย่มากจริง ๆ
นี่เป็น ตัวอย่างคลาสสิกของการใช้ AI แบบสะเปะสะปะโดยคนที่ไม่ใช่มืออาชีพ
ถ้าจะใช้ AI ในงานจริง ต้องตระหนักเรื่องความรับผิดชอบและความเสี่ยงให้ชัดเจน
ถ้าไม่มีการควบคุมเวิร์กโฟลว์ที่ดีและการตรวจสอบผลลัพธ์ ปัญหาแบบนี้ก็จะเกิดซ้ำไปเรื่อย ๆ ตอนนี้คือยุค Wild West ของ LLM
ฉันคิดว่าวิศวกรรมซอฟต์แวร์เองก็ควรมี ระบบใบอนุญาตวิชาชีพ ได้แล้ว
เหมือนกับการออกแบบสะพานหรืออาคารที่ต้องมีใบรับรอง นักพัฒนาที่สร้างระบบสำคัญก็ควรต้องผ่านมาตรฐานบางอย่าง
สุดท้ายพอเวลาผ่านไป ความเข้าใจเรื่อง AI และความเป็นส่วนตัวก็น่าจะค่อย ๆ ฝังราก
บทความนี้ คลุมเครือมากจนดูเหมือนเรื่องแต่ง
ถ้า AI ถูกฝึกให้ ซ่อนรายละเอียดการติดตั้งใช้งาน เช่น ทำไคลเอนต์ให้บางลงและใช้งาน OAuth authentication มันจะดีขึ้นไหม?
ความผิดพลาดง่าย ๆ แบบนี้ป้องกันได้แน่นอน แต่เป้าหมายก็ยังเป็น การแทนนักพัฒนา อยู่ดี
ที่แย่กว่านั้นคือ ผู้คนเริ่มเชื่อว่า “การเรียนเรื่องยาก ๆ นั้นไม่มีประสิทธิภาพ”
ฉันอยู่ในสาย วิทยาการเข้ารหัสลับ และนักศึกษาบางคนคิดว่าเทคนิคความปลอดภัยจะหายไปเพราะ AI ในไม่ช้า ฉันเลยให้พวกเขาลองทำระบบยืนยันตัวตนบนเว็บแบบง่าย ๆ เพื่อให้เห็นความจริง
บริษัทบัญชีแห่งหนึ่งที่ฉันรู้จักก็กำลังสร้าง CRM เองด้วย Lovable โดยไม่มีบุคลากรสายเทคนิคเลย
มองเห็น หายนะ ที่กำลังจะมาอยู่ตรงหน้า
อุตสาหกรรมที่มีความเสี่ยงสูงอื่น ๆ ล้วนมี ระบบตรวจสอบซ้ำ ทั้งนั้น นักบินมีผู้ช่วยนักบิน ศัลยแพทย์มีเช็กลิสต์ โรงไฟฟ้านิวเคลียร์มีการตรวจสอบอิสระ
แต่ซอฟต์แวร์กลับเป็นข้อยกเว้น และ vibe-coding ก็กำลังลบแม้กระทั่ง การตรวจสอบที่ตั้งอยู่บนความเข้าใจ ที่พอมีอยู่บ้าง