- รายงานประเมินโมเดล AI ของ DeepSeek ที่ NIST เผยแพร่ในเดือนกันยายน 2025 เป็นเอกสารที่มีจุดประสงค์ทางการเมือง ไม่ใช่การประเมินทางเทคนิคอย่างเป็นกลาง และมีเจตนาจะสกัดกั้น AI โอเพนซอร์สจากจีนโดยไม่มีหลักฐานเกี่ยวกับภัยคุกคามด้านความปลอดภัยที่แท้จริง
- รายงานดังกล่าวไม่สามารถแสดงหลักฐานใดๆ เลยเกี่ยวกับ backdoor, spyware หรือการรั่วไหลของข้อมูลของโมเดล DeepSeek โดยชี้เพียงว่าโมเดลถูกจูนด้านความปลอดภัยน้อยกว่า จึง jailbreak ได้ง่าย และสะท้อนมุมมองของรัฐบาลจีน
- DeepSeek เปิดเผย model weights, architecture และ methodology การฝึกอย่างครบถ้วนภายใต้ไลเซนส์ Apache 2.0 ซึ่งมีส่วนช่วยอย่างมากต่อการวิจัย AI แบบเปิด แต่รัฐบาลสหรัฐกลับจัดให้เป็น "AI ที่เป็นปฏิปักษ์"
- NIST จงใจทำให้การรันแบบโลคัลกับการใช้ API ปะปนกัน และใช้วิธีวิทยาที่มีอคติ เช่น ละเว้นการเปรียบเทียบกับโมเดลโอเพนซอร์สอื่นๆ หรือการทดสอบอคติของโมเดลสหรัฐ
- รายงานนี้เป็นส่วนหนึ่งของนโยบายอุตสาหกรรมที่ต้องการกด DeepSeek ซึ่งพิสูจน์ให้เห็นถึงศักยภาพการแข่งขันของ AI โอเพนซอร์ส เพื่อปกป้องสถานะกึ่งผูกขาดของบริษัท AI สหรัฐ โดยให้ความสำคัญกับผลประโยชน์เชิงพาณิชย์และยุทธศาสตร์มากกว่าความเป็นกลางทางวิทยาศาสตร์
แก่นแท้ของรายงานประเมิน DeepSeek ของ NIST
- รายงาน DeepSeek ของ NIST วันที่ 30 กันยายน 2025 เป็นเอกสารโจมตีทางการเมือง ไม่ใช่การประเมินทางเทคนิคอย่างเป็นกลาง
- ไม่มีหลักฐานใดเลยเกี่ยวกับ backdoor, spyware หรือการรั่วไหลของข้อมูล
- เป็นความพยายามของรัฐบาลสหรัฐที่จะใช้ความกลัวและข้อมูลที่บิดเบือนเพื่อขัดขวาง open science, open research และโอเพนซอร์ส
- โจมตีคุณูปการต่อมนุษยชาติด้วยเรื่องการเมืองและความเท็จ เพื่อปกป้องอำนาจของภาคธุรกิจและคงการควบคุมไว้
- หลังรายงานเผยแพร่ ก็เกิดความตื่นตระหนกบนโลกออนไลน์
- มีการอ้างว่า weights ของ DeepSeek ถูกฝังสิ่งอันตราย
- มีการอ้างว่าจีนใช้โมเดลนี้เพื่อสอดแนม
- มีการอ้างว่าแค่ดาวน์โหลดก็เป็นความเสี่ยงด้านความปลอดภัย
- ทั้งหมดนี้เป็นเท็จ
สิ่งที่ DeepSeek ทำได้จริง
- พัฒนาโมเดล AI ที่แข่งขันได้
- ทำผลงานระดับแนวหน้าได้ด้วยงบประมาณน้อยกว่า OpenAI หรือ Anthropic มาก
- แม้ไม่สมบูรณ์แบบ แต่ถือว่าน่าประทับใจมากเมื่อเทียบกับงบประมาณ
- เปิดเผยทั้งหมดภายใต้ไลเซนส์ Apache 2.0
- model weights
- architecture
- methodology การฝึก
- งานวิจัย
- ทำให้ใครก็ตามสามารถทำซ้ำผลงานและรันโมเดลระดับแนวหน้าบนเครื่องโลคัลได้
- รองรับการสร้างทุกอย่างขึ้นใหม่ตั้งแต่ต้น
- เป็นหนึ่งในคุณูปการที่ใหญ่ที่สุดต่อการวิจัย AI แบบเปิดในช่วงไม่กี่ปีที่ผ่านมา
- ปฏิกิริยาของรัฐบาลสหรัฐ: ตีตราว่าเป็น "AI ที่เป็นปฏิปักษ์" และสื่อเป็นนัยถึงการสอดแนม
กลยุทธ์บิดเบือนหลักของ NIST
- จงใจทำให้สามสถานการณ์ปะปนกัน
- สถานการณ์ A: ใช้แอป/API ของ DeepSeek แล้ว prompt ถูกส่งไปยังเซิร์ฟเวอร์ในจีน (เป็นประเด็น data sovereignty ที่มีอยู่จริง)
- สถานการณ์ B: ดาวน์โหลด open weights แล้วรันแบบโลคัล โดยข้อมูลไม่ถูกส่งออกนอกอุปกรณ์
- สถานการณ์ C: โฮสต์ผ่านบริการบุคคลที่สามที่เชื่อถือได้ เช่น OpenRouter, Fireworks, Chutes ซึ่งการควบคุมโครงสร้างพื้นฐานและความเป็นส่วนตัวขึ้นอยู่กับผู้ให้บริการโฮสต์
- NIST จงใจเหมารวมสถานการณ์ที่แตกต่างกันโดยสิ้นเชิงเหล่านี้เข้าด้วยกัน
- นับรวมการดาวน์โหลดแบบโลคัลแล้วเตือนว่าเป็น "ความเสี่ยงต่อความมั่นคงแห่งชาติ"
- ใครก็ตามที่มีความรู้เทคนิคพื้นฐานย่อมรู้ว่านี่เป็นการชี้นำผิด
- ความสับสนนี้เป็นรากฐานของการวางกรอบที่ชวนให้เข้าใจผิดตลอดทั้งรายงาน
สิ่งที่ NIST พบจริงๆ
- ถ้าตัดถ้อยคำหวือหวาออก สิ่งที่เหลือมีดังนี้
- โมเดล DeepSeek jailbreak ได้ง่ายกว่าโมเดลสหรัฐที่ผ่านการจูนความปลอดภัย
- บางครั้งสะท้อนมุมมองของรัฐบาลจีน
- ประสิทธิภาพต่ำกว่านิดหน่อยในบาง benchmark
- อ้างว่ามีต้นทุนต่อ token สูงกว่า (แต่ไม่เปิดเผยวิธีวิทยา)
- มีแค่นี้เอง
- ไม่มีหลักฐานของพฤติกรรมมุ่งร้าย
- ไม่มีหลักฐานของการรั่วไหลของข้อมูล
- ไม่มีหลักฐานว่าโมเดลทำสิ่งอันตรายใดๆ นอกจาก "ตอบ prompt ในแบบที่พวกเขาไม่ชอบ"
- วิเคราะห์ประเด็นการพบว่า jailbreak ได้ง่าย
- เพราะ DeepSeek ลงทุนน้อยกว่าในด้าน safety training (เป็นเรื่องทรัพยากร)
- NIST ไม่ทดสอบโมเดลสหรัฐรุ่นเก่าเพื่อใช้เปรียบเทียบ
- ขณะเดียวกัน OpenAI
gpt-oss-120b ก็ jailbreak ได้ง่ายมาก
- วิเคราะห์ประเด็น "narrative ของพรรคคอมมิวนิสต์จีน"
- โมเดลที่ฝึกด้วยข้อมูลจากจีนสะท้อนมุมมองจีนไม่ใช่เรื่องน่าแปลกใจ
- อยู่ภายใต้กฎหมายเซ็นเซอร์ของจีน
- แต่นี่ไม่ใช่ช่องโหว่ด้านความปลอดภัย
สิ่งที่ NIST ไม่ได้เปรียบเทียบ
- ไม่ได้เปรียบเทียบกับโมเดลเปิดอื่นๆ
- แล้ว Llama, Mistral, Falcon อยู่ที่ไหน?
- ถ้าเปรียบเทียบ ก็จะเห็นว่านี่ไม่ใช่ปัญหาเฉพาะของ DeepSeek แต่เป็นลักษณะทั่วไปที่โมเดลเปิดมี safety layer น้อยกว่าโมเดลปิด
- ไม่ได้เปรียบเทียบกับโมเดลสหรัฐยุคแรก
- GPT-3 ในปี 2020 เปราะบางต่อ jailbreak แค่ไหน?
- การเปรียบเทียบนี้จะทำให้ narrative อ่อนลง จึงไม่ถูกทำ
- ไม่ทดสอบอคติแบบอเมริกันของโมเดลสหรัฐ
- ราวกับว่าเฉพาะอคติจากจีนเท่านั้นที่ถือเป็นความเสี่ยงด้านความปลอดภัย
- ใช้ benchmark แบบปิด
- เป็น "benchmark แบบปิดที่ CAISI สร้างขึ้น" จึงไม่สามารถทำซ้ำหรือพิสูจน์ยืนยันได้
- นี่ไม่ใช่วิทยาศาสตร์ แต่เป็นงานวิจัยเชิงรณรงค์
สิ่งที่รายงานนี้บอกเราจริงๆ
- ถ้าอ่านระหว่างบรรทัด
- โมเดล DeepSeek ยังขัดเกลาน้อยกว่า - ก็เป็นเรื่องธรรมดาเพราะลงทุนในการพัฒนาน้อยกว่า จึงยังมีส่วนหยาบอยู่
- โมเดลจากจีนแข่งขันได้มากพอจนถูกมองว่าเป็นภัย - ถ้าไม่เป็นภัยต่อส่วนแบ่งตลาด รายงานนี้คงไม่เกิดขึ้น
- สหรัฐกลัวการสูญเสียอำนาจนำด้าน AI - รายงานนี้ถูกสั่งทำอย่างชัดเจนภายใต้ "AI Action Plan" ของ Trump และถ้อยแถลงของรัฐมนตรีพาณิชย์ก็ยืนยันชัดว่านี่คือนโยบายอุตสาหกรรม ไม่ใช่การประเมินอย่างเป็นกลาง
ภัยคุกคามตัวจริง (ใบ้ให้: ไม่ใช่ภัยต่อคุณ)
- สิ่งที่ DeepSeek คุกคามจริงๆ คือการผูกขาด
- "ความผิด" ที่แท้จริงของ DeepSeek คือการแสดงให้เห็นว่าโอเพนซอร์สใช้งานได้จริง
- พิสูจน์ว่าคุณสามารถสร้างโมเดลที่ทรงพลังได้โดยไม่ต้องมีเงินร่วมลงทุนหลายพันล้านดอลลาร์หรือ API แบบปิด
- นั่นทำให้บริษัทที่ขายการเข้าถึง AI ในราคาพรีเมียมหวาดกลัว
- เมื่อ DeepSeek บอกว่า "นี่คือ weights เอาไปรันเองได้เลย" นั่นคือการโจมตีคูเศรษฐกิจที่บริษัทเหล่านี้พึ่งพา
- นี่คือเหตุผลที่รายงาน NIST มีอยู่
- เพราะ DeepSeek พิสูจน์ว่าความเปิดกว้างสามารถแข่งขันกับระบบปิดได้
- และผู้มีอำนาจเดิมจำเป็นต้องหยุดมัน
ความหน้าไหว้หลังหลอก
- คำเตือนของ NIST เทียบกับความจริง
- NIST: เตือนว่าโมเดล DeepSeek อาจตอบสนองต่อ prompt ที่เป็นอันตรายในสภาพแวดล้อมจำลอง
- ความจริง: โมเดลสหรัฐส่งข้อมูลจริงไปยังเซิร์ฟเวอร์ภายนอกจริงอยู่แล้ว
- กรณีของ OpenAI
- จำได้ไหมว่าเคยนำบทสนทนาใน ChatGPT ไปใช้ฝึกโมเดล
- และเพิ่งเพิ่มตัวเลือก opt-out หลังโดนกระแสตีกลับ
- การเปรียบเทียบ
- รัน weights ของ DeepSeek แบบโลคัล = ไม่มีการส่งข้อมูลออกเลย
- ใช้ OpenAI API = ส่งข้อมูลไปยังเซิร์ฟเวอร์อย่างต่อเนื่อง
- แบบไหนคือความเสี่ยงต่อความเป็นส่วนตัว?
- รายงานเตือนเรื่อง "การนำ AI จากต่างชาติไปใช้" แต่กลับมองข้ามว่าการใช้ cloud API ทุกแบบ ไม่ว่าจะสหรัฐหรือไม่ ล้วนต้องเชื่อใจโครงสร้างพื้นฐานของคนอื่น
- open weights แบบโลคัล ตรวจสอบได้มากกว่าและปลอดภัยกว่าบริการคลาวด์ใดๆ
- แต่นั่นไม่ใช่สารที่รายงานต้องการสื่อ เพราะเรื่องนี้ไม่เคยเกี่ยวกับความปลอดภัยเลย แต่เกี่ยวกับ การควบคุม narrative
การทรยศต่อโอเพนซอร์สและ open science
- ชุมชนโอเพนซอร์สเป็นผู้วางรากฐานให้ AI สมัยใหม่
- Linux, Python, PyTorch, Transformers
- การพัฒนาร่วมกันหลายทศวรรษที่ถูกแบ่งปันอย่างเสรี
- DeepSeek เข้าร่วมในขนบนี้
- รับองค์ความรู้แบบเปิดมาสร้างสิ่งที่น่าประทับใจ แล้วส่งคืนกลับไป
- ปฏิกิริยาของหน่วยงานสหรัฐ: เรียกมันว่าภัยคุกคาม
- ลองจินตนาการว่าถ้าจีนทำแบบนี้ตอน Meta ปล่อย Llama
- ถ้ามีรายงานจากรัฐที่อ้างว่า weights ของ Llama "เปราะบางต่อ jailbreak" จึงเป็นเครื่องมือสอดส่อง
- เราคงเรียกมันว่าการกีดกันทางการค้า ความหวาดระแวงทางเทคนิค และการโจมตีการวิจัยแบบเปิด
- แต่พอเราทำเอง? ก็เรียกว่า "ความมั่นคงแห่งชาติ"
- การวิจัยแบบเปิดควรเป็นสากล
- คุณไม่สามารถสนับสนุน open science ได้เฉพาะตอนที่มันสะดวก
การทดสอบที่คุณลองได้เอง
- อย่าเชื่อผม อย่าเชื่อ NIST ไปลองตรวจสอบเอง
- ดาวน์โหลด weights ของ DeepSeek
- ใช้ huggingface transformers, vLLM, LM Studio, llama.cpp เพื่อรันแบบโลคัล
- เปิดเครื่องมือมอนิเตอร์เครือข่าย
- สังเกตดู
- จะเห็นว่าไม่มีแพ็กเก็ตถูกส่งออกไปไหนเลย เป็นศูนย์พอดี
- prompt ถูกประมวลผลทั้งหมดบนอุปกรณ์ของคุณ
- "ภัยคุกคามด้านความปลอดภัย" อันน่ากลัวนั้นแค่ทำ matrix multiplication โดยไม่เชื่อมต่อกับอะไรเลย
- ถามตัวเองว่า: ทำไมรัฐบาลสหรัฐจึงโกหกเรื่องนี้?
- "ภัยคุกคามด้านความปลอดภัย" ไม่ได้อยู่ในโมเดล แต่อยู่ในการเมือง
สิ่งที่ควรกังวลจริงๆ
- มีข้อกังวลที่ชอบธรรมอยู่จริง
- การใช้ DeepSeek API: หากส่งข้อมูลอ่อนไปยังบริการโฮสต์ของ DeepSeek ข้อมูลนั้นจะผ่านโครงสร้างพื้นฐานในจีน นี่คือประเด็น data sovereignty จริงแบบเดียวกับการใช้ผู้ให้บริการคลาวด์ต่างชาติรายใดก็ตาม
- ความเปราะบางต่อ jailbreak: หากคุณกำลังสร้างแอปพลิเคชันสำหรับโปรดักชัน คุณควรทดสอบช่องโหว่ของทุกโมเดลและติดตั้งกลไกความปลอดภัยในระดับแอป ไม่ควรพึ่ง guardrail ของโมเดลเพียงอย่างเดียว นอกจากนี้ควรใช้ guard model ตอน inference (เช่น LlamaGuard หรือ Qwen3Guard) เพื่อจัดหมวดหมู่และกรองทั้ง prompt และ response
- อคติและการเซ็นเซอร์: ทุกโมเดลสะท้อนข้อมูลที่ใช้ฝึก ไม่ว่าคุณจะใช้โมเดลใดก็ควรตระหนักถึงเรื่องนี้
- สิ่งเหล่านี้เป็นโจทย์เชิงวิศวกรรม
- ไม่ใช่เหตุผลที่จะต้องหลีกเลี่ยงโมเดลโอเพนซอร์ส (หรือโมเดลจากจีน) ไปทั้งหมด
ความหมายต่ออนาคตของ AI
- นี่ไม่ได้เกี่ยวกับ DeepSeek เท่านั้น
- แต่เกี่ยวกับว่า AI จะยังคงเปิดและตรวจสอบได้ หรือจะถูกล้อมรั้วโดยรัฐและบริษัท
- คำถามสำคัญ
- เราจะยอมให้คำว่า "โอเพนซอร์ส" ถูกนิยามใหม่ว่า "เปิดเฉพาะเมื่อผลิตในสหรัฐ" หรือไม่?
- เราจะเรียกร้องหลักฐานจริงต่อคำอ้างเรื่องความปลอดภัย หรือจะยอมรับเพียงนัยคลุมเครือ?
- AI จะยังเป็นโครงการร่วมของมนุษยชาติ หรือจะกลายเป็นอาวุธทางภูมิรัฐศาสตร์?
- DeepSeek พิสูจน์แล้วว่ามีอีกเส้นทางหนึ่ง และนั่นคือเหตุผลที่มันต้องถูกทำให้เสื่อมเสีย
มุมมองของผู้เขียน
- ภูมิหลังของผู้เขียน
- รันโมเดลโอเพนซอร์สแบบโลคัล
- ฝึกโมเดลของตัวเอง
- เชื่อใน alignment แบบประกอบได้และเสรีภาพของผู้ใช้
- มองว่า AI ควรเป็นเครื่องมือเพื่อผู้ใช้ ไม่ใช่เพื่อบริษัทหรือรัฐบาล
- การประเมินรายงาน NIST
- ไม่ใช่การประเมินทางเทคนิคอย่างเป็นกลาง
- เป็นเอกสารเชิงนโยบายที่ออกแบบมาเพื่อขัดขวางการยอมรับโมเดล AI จากจีน เพื่อปกป้องผลประโยชน์ทางการค้าและยุทธศาสตร์ของสหรัฐ
- จุดยืนต่อการส่งเสริมอุตสาหกรรมของรัฐบาลสหรัฐ
- โดยตัวมันเองแล้ว การที่รัฐบาลสหรัฐส่งเสริมอุตสาหกรรมของสหรัฐไม่ใช่เรื่องผิดโดยเนื้อแท้
- แต่ต้องเรียกมันให้ตรงตามที่มันเป็น
- อย่านำการกีดกันทางการค้ามาห่อเป็นงานวิจัยด้านความปลอดภัย
- อย่าปั้นแต่งภัยคุกคาม
- อย่าโกหกสาธารณะเกี่ยวกับสิ่งที่หลักฐานแสดงอยู่
- คุณูปการของ DeepSeek
- มอบของขวัญที่มีคุณค่าอย่างแท้จริงแก่พวกเรา
- weights เป็นเพียงข้อมูล
safetensor เท่านั้น
- มันวางอยู่บนไดรฟ์และทำงานตามคำสั่ง
- มันไม่โทรกลับบ้าน ไม่สอดแนม และไม่ทำข้อมูลรั่วไหล
- ข้อสรุป
- ถ้าคุณกังวล ก็แปลว่าคุณยังไม่เข้าใจว่าการ inference แบบโลคัลทำงานอย่างไร
- ถ้าคุณเชื่อการปลุกปั่นด้วยความกลัว ก็แปลว่าคุณถูกชักจูงสำเร็จแล้ว
- ทั้งหมดนี้ไม่เกี่ยวกับความปลอดภัย แต่เกี่ยวกับอำนาจ - ว่าใครเป็นผู้สร้าง แบ่งปัน และเข้าใจเครื่องมือที่กำลังกำหนดอนาคต
บทสรุป
- โค้ดและงานวิจัยเป็นโอเพนซอร์สและตรวจสอบได้ ส่วนที่เหลือทั้งหมดคือการเมือง
- ข้อเสนอแนะต่อผู้อ่าน
- ลองอ่านทั้งรายงาน NIST และโค้ดด้วยตัวเอง
- มองหาหลักฐานจริงของโค้ดอันตรายหรือฟังก์ชันสอดส่อง
- คุณจะหาไม่เจอ เพราะมันไม่มีอยู่จริง
- แล้วเริ่มตั้งคำถาม
- ทำไมเมื่อโอเพนซอร์สทำงานได้ดีเกินไป จึงมีคนบอกให้เรากลัวมัน?
1 ความคิดเห็น
ความเห็นจาก Hacker News
exfiltration(การรั่วไหลของข้อมูล) อย่างไร ก็จะเห็นแล้วว่าเนื้อหาในบทความกับรายงานต้นฉบับของ NIST ไม่ตรงกัน การที่หน้าเว็บคลิกเบตได้ความสนใจมากกว่ารายงานเทคนิคยาว 70 หน้า เป็นผลจากช่วงความสนใจที่สั้นลงของผู้คนทุกวันนี้