2 คะแนน โดย GN⁺ 2025-10-07 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • รายงานประเมินโมเดล AI ของ DeepSeek ที่ NIST เผยแพร่ในเดือนกันยายน 2025 เป็นเอกสารที่มีจุดประสงค์ทางการเมือง ไม่ใช่การประเมินทางเทคนิคอย่างเป็นกลาง และมีเจตนาจะสกัดกั้น AI โอเพนซอร์สจากจีนโดยไม่มีหลักฐานเกี่ยวกับภัยคุกคามด้านความปลอดภัยที่แท้จริง
  • รายงานดังกล่าวไม่สามารถแสดงหลักฐานใดๆ เลยเกี่ยวกับ backdoor, spyware หรือการรั่วไหลของข้อมูลของโมเดล DeepSeek โดยชี้เพียงว่าโมเดลถูกจูนด้านความปลอดภัยน้อยกว่า จึง jailbreak ได้ง่าย และสะท้อนมุมมองของรัฐบาลจีน
  • DeepSeek เปิดเผย model weights, architecture และ methodology การฝึกอย่างครบถ้วนภายใต้ไลเซนส์ Apache 2.0 ซึ่งมีส่วนช่วยอย่างมากต่อการวิจัย AI แบบเปิด แต่รัฐบาลสหรัฐกลับจัดให้เป็น "AI ที่เป็นปฏิปักษ์"
  • NIST จงใจทำให้การรันแบบโลคัลกับการใช้ API ปะปนกัน และใช้วิธีวิทยาที่มีอคติ เช่น ละเว้นการเปรียบเทียบกับโมเดลโอเพนซอร์สอื่นๆ หรือการทดสอบอคติของโมเดลสหรัฐ
  • รายงานนี้เป็นส่วนหนึ่งของนโยบายอุตสาหกรรมที่ต้องการกด DeepSeek ซึ่งพิสูจน์ให้เห็นถึงศักยภาพการแข่งขันของ AI โอเพนซอร์ส เพื่อปกป้องสถานะกึ่งผูกขาดของบริษัท AI สหรัฐ โดยให้ความสำคัญกับผลประโยชน์เชิงพาณิชย์และยุทธศาสตร์มากกว่าความเป็นกลางทางวิทยาศาสตร์

แก่นแท้ของรายงานประเมิน DeepSeek ของ NIST

  • รายงาน DeepSeek ของ NIST วันที่ 30 กันยายน 2025 เป็นเอกสารโจมตีทางการเมือง ไม่ใช่การประเมินทางเทคนิคอย่างเป็นกลาง
    • ไม่มีหลักฐานใดเลยเกี่ยวกับ backdoor, spyware หรือการรั่วไหลของข้อมูล
    • เป็นความพยายามของรัฐบาลสหรัฐที่จะใช้ความกลัวและข้อมูลที่บิดเบือนเพื่อขัดขวาง open science, open research และโอเพนซอร์ส
    • โจมตีคุณูปการต่อมนุษยชาติด้วยเรื่องการเมืองและความเท็จ เพื่อปกป้องอำนาจของภาคธุรกิจและคงการควบคุมไว้
  • หลังรายงานเผยแพร่ ก็เกิดความตื่นตระหนกบนโลกออนไลน์
    • มีการอ้างว่า weights ของ DeepSeek ถูกฝังสิ่งอันตราย
    • มีการอ้างว่าจีนใช้โมเดลนี้เพื่อสอดแนม
    • มีการอ้างว่าแค่ดาวน์โหลดก็เป็นความเสี่ยงด้านความปลอดภัย
    • ทั้งหมดนี้เป็นเท็จ

สิ่งที่ DeepSeek ทำได้จริง

  • พัฒนาโมเดล AI ที่แข่งขันได้
    • ทำผลงานระดับแนวหน้าได้ด้วยงบประมาณน้อยกว่า OpenAI หรือ Anthropic มาก
    • แม้ไม่สมบูรณ์แบบ แต่ถือว่าน่าประทับใจมากเมื่อเทียบกับงบประมาณ
  • เปิดเผยทั้งหมดภายใต้ไลเซนส์ Apache 2.0
    • model weights
    • architecture
    • methodology การฝึก
    • งานวิจัย
  • ทำให้ใครก็ตามสามารถทำซ้ำผลงานและรันโมเดลระดับแนวหน้าบนเครื่องโลคัลได้
    • รองรับการสร้างทุกอย่างขึ้นใหม่ตั้งแต่ต้น
    • เป็นหนึ่งในคุณูปการที่ใหญ่ที่สุดต่อการวิจัย AI แบบเปิดในช่วงไม่กี่ปีที่ผ่านมา
  • ปฏิกิริยาของรัฐบาลสหรัฐ: ตีตราว่าเป็น "AI ที่เป็นปฏิปักษ์" และสื่อเป็นนัยถึงการสอดแนม

กลยุทธ์บิดเบือนหลักของ NIST

  • จงใจทำให้สามสถานการณ์ปะปนกัน
    • สถานการณ์ A: ใช้แอป/API ของ DeepSeek แล้ว prompt ถูกส่งไปยังเซิร์ฟเวอร์ในจีน (เป็นประเด็น data sovereignty ที่มีอยู่จริง)
    • สถานการณ์ B: ดาวน์โหลด open weights แล้วรันแบบโลคัล โดยข้อมูลไม่ถูกส่งออกนอกอุปกรณ์
    • สถานการณ์ C: โฮสต์ผ่านบริการบุคคลที่สามที่เชื่อถือได้ เช่น OpenRouter, Fireworks, Chutes ซึ่งการควบคุมโครงสร้างพื้นฐานและความเป็นส่วนตัวขึ้นอยู่กับผู้ให้บริการโฮสต์
  • NIST จงใจเหมารวมสถานการณ์ที่แตกต่างกันโดยสิ้นเชิงเหล่านี้เข้าด้วยกัน
    • นับรวมการดาวน์โหลดแบบโลคัลแล้วเตือนว่าเป็น "ความเสี่ยงต่อความมั่นคงแห่งชาติ"
    • ใครก็ตามที่มีความรู้เทคนิคพื้นฐานย่อมรู้ว่านี่เป็นการชี้นำผิด
  • ความสับสนนี้เป็นรากฐานของการวางกรอบที่ชวนให้เข้าใจผิดตลอดทั้งรายงาน

สิ่งที่ NIST พบจริงๆ

  • ถ้าตัดถ้อยคำหวือหวาออก สิ่งที่เหลือมีดังนี้
    1. โมเดล DeepSeek jailbreak ได้ง่ายกว่าโมเดลสหรัฐที่ผ่านการจูนความปลอดภัย
    2. บางครั้งสะท้อนมุมมองของรัฐบาลจีน
    3. ประสิทธิภาพต่ำกว่านิดหน่อยในบาง benchmark
    4. อ้างว่ามีต้นทุนต่อ token สูงกว่า (แต่ไม่เปิดเผยวิธีวิทยา)
  • มีแค่นี้เอง
    • ไม่มีหลักฐานของพฤติกรรมมุ่งร้าย
    • ไม่มีหลักฐานของการรั่วไหลของข้อมูล
    • ไม่มีหลักฐานว่าโมเดลทำสิ่งอันตรายใดๆ นอกจาก "ตอบ prompt ในแบบที่พวกเขาไม่ชอบ"
  • วิเคราะห์ประเด็นการพบว่า jailbreak ได้ง่าย
    • เพราะ DeepSeek ลงทุนน้อยกว่าในด้าน safety training (เป็นเรื่องทรัพยากร)
    • NIST ไม่ทดสอบโมเดลสหรัฐรุ่นเก่าเพื่อใช้เปรียบเทียบ
    • ขณะเดียวกัน OpenAI gpt-oss-120b ก็ jailbreak ได้ง่ายมาก
  • วิเคราะห์ประเด็น "narrative ของพรรคคอมมิวนิสต์จีน"
    • โมเดลที่ฝึกด้วยข้อมูลจากจีนสะท้อนมุมมองจีนไม่ใช่เรื่องน่าแปลกใจ
    • อยู่ภายใต้กฎหมายเซ็นเซอร์ของจีน
    • แต่นี่ไม่ใช่ช่องโหว่ด้านความปลอดภัย

สิ่งที่ NIST ไม่ได้เปรียบเทียบ

  • ไม่ได้เปรียบเทียบกับโมเดลเปิดอื่นๆ
    • แล้ว Llama, Mistral, Falcon อยู่ที่ไหน?
    • ถ้าเปรียบเทียบ ก็จะเห็นว่านี่ไม่ใช่ปัญหาเฉพาะของ DeepSeek แต่เป็นลักษณะทั่วไปที่โมเดลเปิดมี safety layer น้อยกว่าโมเดลปิด
  • ไม่ได้เปรียบเทียบกับโมเดลสหรัฐยุคแรก
    • GPT-3 ในปี 2020 เปราะบางต่อ jailbreak แค่ไหน?
    • การเปรียบเทียบนี้จะทำให้ narrative อ่อนลง จึงไม่ถูกทำ
  • ไม่ทดสอบอคติแบบอเมริกันของโมเดลสหรัฐ
    • ราวกับว่าเฉพาะอคติจากจีนเท่านั้นที่ถือเป็นความเสี่ยงด้านความปลอดภัย
  • ใช้ benchmark แบบปิด
    • เป็น "benchmark แบบปิดที่ CAISI สร้างขึ้น" จึงไม่สามารถทำซ้ำหรือพิสูจน์ยืนยันได้
    • นี่ไม่ใช่วิทยาศาสตร์ แต่เป็นงานวิจัยเชิงรณรงค์

สิ่งที่รายงานนี้บอกเราจริงๆ

  • ถ้าอ่านระหว่างบรรทัด
    1. โมเดล DeepSeek ยังขัดเกลาน้อยกว่า - ก็เป็นเรื่องธรรมดาเพราะลงทุนในการพัฒนาน้อยกว่า จึงยังมีส่วนหยาบอยู่
    2. โมเดลจากจีนแข่งขันได้มากพอจนถูกมองว่าเป็นภัย - ถ้าไม่เป็นภัยต่อส่วนแบ่งตลาด รายงานนี้คงไม่เกิดขึ้น
    3. สหรัฐกลัวการสูญเสียอำนาจนำด้าน AI - รายงานนี้ถูกสั่งทำอย่างชัดเจนภายใต้ "AI Action Plan" ของ Trump และถ้อยแถลงของรัฐมนตรีพาณิชย์ก็ยืนยันชัดว่านี่คือนโยบายอุตสาหกรรม ไม่ใช่การประเมินอย่างเป็นกลาง

ภัยคุกคามตัวจริง (ใบ้ให้: ไม่ใช่ภัยต่อคุณ)

  • สิ่งที่ DeepSeek คุกคามจริงๆ คือการผูกขาด
    • "ความผิด" ที่แท้จริงของ DeepSeek คือการแสดงให้เห็นว่าโอเพนซอร์สใช้งานได้จริง
    • พิสูจน์ว่าคุณสามารถสร้างโมเดลที่ทรงพลังได้โดยไม่ต้องมีเงินร่วมลงทุนหลายพันล้านดอลลาร์หรือ API แบบปิด
  • นั่นทำให้บริษัทที่ขายการเข้าถึง AI ในราคาพรีเมียมหวาดกลัว
    • เมื่อ DeepSeek บอกว่า "นี่คือ weights เอาไปรันเองได้เลย" นั่นคือการโจมตีคูเศรษฐกิจที่บริษัทเหล่านี้พึ่งพา
  • นี่คือเหตุผลที่รายงาน NIST มีอยู่
    • เพราะ DeepSeek พิสูจน์ว่าความเปิดกว้างสามารถแข่งขันกับระบบปิดได้
    • และผู้มีอำนาจเดิมจำเป็นต้องหยุดมัน

ความหน้าไหว้หลังหลอก

  • คำเตือนของ NIST เทียบกับความจริง
    • NIST: เตือนว่าโมเดล DeepSeek อาจตอบสนองต่อ prompt ที่เป็นอันตรายในสภาพแวดล้อมจำลอง
    • ความจริง: โมเดลสหรัฐส่งข้อมูลจริงไปยังเซิร์ฟเวอร์ภายนอกจริงอยู่แล้ว
  • กรณีของ OpenAI
    • จำได้ไหมว่าเคยนำบทสนทนาใน ChatGPT ไปใช้ฝึกโมเดล
    • และเพิ่งเพิ่มตัวเลือก opt-out หลังโดนกระแสตีกลับ
  • การเปรียบเทียบ
    • รัน weights ของ DeepSeek แบบโลคัล = ไม่มีการส่งข้อมูลออกเลย
    • ใช้ OpenAI API = ส่งข้อมูลไปยังเซิร์ฟเวอร์อย่างต่อเนื่อง
    • แบบไหนคือความเสี่ยงต่อความเป็นส่วนตัว?
  • รายงานเตือนเรื่อง "การนำ AI จากต่างชาติไปใช้" แต่กลับมองข้ามว่าการใช้ cloud API ทุกแบบ ไม่ว่าจะสหรัฐหรือไม่ ล้วนต้องเชื่อใจโครงสร้างพื้นฐานของคนอื่น
    • open weights แบบโลคัล ตรวจสอบได้มากกว่าและปลอดภัยกว่าบริการคลาวด์ใดๆ
  • แต่นั่นไม่ใช่สารที่รายงานต้องการสื่อ เพราะเรื่องนี้ไม่เคยเกี่ยวกับความปลอดภัยเลย แต่เกี่ยวกับ การควบคุม narrative

การทรยศต่อโอเพนซอร์สและ open science

  • ชุมชนโอเพนซอร์สเป็นผู้วางรากฐานให้ AI สมัยใหม่
    • Linux, Python, PyTorch, Transformers
    • การพัฒนาร่วมกันหลายทศวรรษที่ถูกแบ่งปันอย่างเสรี
  • DeepSeek เข้าร่วมในขนบนี้
    • รับองค์ความรู้แบบเปิดมาสร้างสิ่งที่น่าประทับใจ แล้วส่งคืนกลับไป
  • ปฏิกิริยาของหน่วยงานสหรัฐ: เรียกมันว่าภัยคุกคาม
  • ลองจินตนาการว่าถ้าจีนทำแบบนี้ตอน Meta ปล่อย Llama
    • ถ้ามีรายงานจากรัฐที่อ้างว่า weights ของ Llama "เปราะบางต่อ jailbreak" จึงเป็นเครื่องมือสอดส่อง
    • เราคงเรียกมันว่าการกีดกันทางการค้า ความหวาดระแวงทางเทคนิค และการโจมตีการวิจัยแบบเปิด
  • แต่พอเราทำเอง? ก็เรียกว่า "ความมั่นคงแห่งชาติ"
  • การวิจัยแบบเปิดควรเป็นสากล
    • คุณไม่สามารถสนับสนุน open science ได้เฉพาะตอนที่มันสะดวก

การทดสอบที่คุณลองได้เอง

  • อย่าเชื่อผม อย่าเชื่อ NIST ไปลองตรวจสอบเอง
  • ดาวน์โหลด weights ของ DeepSeek
    • ใช้ huggingface transformers, vLLM, LM Studio, llama.cpp เพื่อรันแบบโลคัล
    • เปิดเครื่องมือมอนิเตอร์เครือข่าย
  • สังเกตดู
    • จะเห็นว่าไม่มีแพ็กเก็ตถูกส่งออกไปไหนเลย เป็นศูนย์พอดี
    • prompt ถูกประมวลผลทั้งหมดบนอุปกรณ์ของคุณ
    • "ภัยคุกคามด้านความปลอดภัย" อันน่ากลัวนั้นแค่ทำ matrix multiplication โดยไม่เชื่อมต่อกับอะไรเลย
  • ถามตัวเองว่า: ทำไมรัฐบาลสหรัฐจึงโกหกเรื่องนี้?
  • "ภัยคุกคามด้านความปลอดภัย" ไม่ได้อยู่ในโมเดล แต่อยู่ในการเมือง

สิ่งที่ควรกังวลจริงๆ

  • มีข้อกังวลที่ชอบธรรมอยู่จริง
    • การใช้ DeepSeek API: หากส่งข้อมูลอ่อนไปยังบริการโฮสต์ของ DeepSeek ข้อมูลนั้นจะผ่านโครงสร้างพื้นฐานในจีน นี่คือประเด็น data sovereignty จริงแบบเดียวกับการใช้ผู้ให้บริการคลาวด์ต่างชาติรายใดก็ตาม
    • ความเปราะบางต่อ jailbreak: หากคุณกำลังสร้างแอปพลิเคชันสำหรับโปรดักชัน คุณควรทดสอบช่องโหว่ของทุกโมเดลและติดตั้งกลไกความปลอดภัยในระดับแอป ไม่ควรพึ่ง guardrail ของโมเดลเพียงอย่างเดียว นอกจากนี้ควรใช้ guard model ตอน inference (เช่น LlamaGuard หรือ Qwen3Guard) เพื่อจัดหมวดหมู่และกรองทั้ง prompt และ response
    • อคติและการเซ็นเซอร์: ทุกโมเดลสะท้อนข้อมูลที่ใช้ฝึก ไม่ว่าคุณจะใช้โมเดลใดก็ควรตระหนักถึงเรื่องนี้
  • สิ่งเหล่านี้เป็นโจทย์เชิงวิศวกรรม
    • ไม่ใช่เหตุผลที่จะต้องหลีกเลี่ยงโมเดลโอเพนซอร์ส (หรือโมเดลจากจีน) ไปทั้งหมด

ความหมายต่ออนาคตของ AI

  • นี่ไม่ได้เกี่ยวกับ DeepSeek เท่านั้น
    • แต่เกี่ยวกับว่า AI จะยังคงเปิดและตรวจสอบได้ หรือจะถูกล้อมรั้วโดยรัฐและบริษัท
  • คำถามสำคัญ
    • เราจะยอมให้คำว่า "โอเพนซอร์ส" ถูกนิยามใหม่ว่า "เปิดเฉพาะเมื่อผลิตในสหรัฐ" หรือไม่?
    • เราจะเรียกร้องหลักฐานจริงต่อคำอ้างเรื่องความปลอดภัย หรือจะยอมรับเพียงนัยคลุมเครือ?
    • AI จะยังเป็นโครงการร่วมของมนุษยชาติ หรือจะกลายเป็นอาวุธทางภูมิรัฐศาสตร์?
  • DeepSeek พิสูจน์แล้วว่ามีอีกเส้นทางหนึ่ง และนั่นคือเหตุผลที่มันต้องถูกทำให้เสื่อมเสีย

มุมมองของผู้เขียน

  • ภูมิหลังของผู้เขียน
    • รันโมเดลโอเพนซอร์สแบบโลคัล
    • ฝึกโมเดลของตัวเอง
    • เชื่อใน alignment แบบประกอบได้และเสรีภาพของผู้ใช้
    • มองว่า AI ควรเป็นเครื่องมือเพื่อผู้ใช้ ไม่ใช่เพื่อบริษัทหรือรัฐบาล
  • การประเมินรายงาน NIST
    • ไม่ใช่การประเมินทางเทคนิคอย่างเป็นกลาง
    • เป็นเอกสารเชิงนโยบายที่ออกแบบมาเพื่อขัดขวางการยอมรับโมเดล AI จากจีน เพื่อปกป้องผลประโยชน์ทางการค้าและยุทธศาสตร์ของสหรัฐ
  • จุดยืนต่อการส่งเสริมอุตสาหกรรมของรัฐบาลสหรัฐ
    • โดยตัวมันเองแล้ว การที่รัฐบาลสหรัฐส่งเสริมอุตสาหกรรมของสหรัฐไม่ใช่เรื่องผิดโดยเนื้อแท้
    • แต่ต้องเรียกมันให้ตรงตามที่มันเป็น
    • อย่านำการกีดกันทางการค้ามาห่อเป็นงานวิจัยด้านความปลอดภัย
    • อย่าปั้นแต่งภัยคุกคาม
    • อย่าโกหกสาธารณะเกี่ยวกับสิ่งที่หลักฐานแสดงอยู่
  • คุณูปการของ DeepSeek
    • มอบของขวัญที่มีคุณค่าอย่างแท้จริงแก่พวกเรา
    • weights เป็นเพียงข้อมูล safetensor เท่านั้น
    • มันวางอยู่บนไดรฟ์และทำงานตามคำสั่ง
    • มันไม่โทรกลับบ้าน ไม่สอดแนม และไม่ทำข้อมูลรั่วไหล
  • ข้อสรุป
    • ถ้าคุณกังวล ก็แปลว่าคุณยังไม่เข้าใจว่าการ inference แบบโลคัลทำงานอย่างไร
    • ถ้าคุณเชื่อการปลุกปั่นด้วยความกลัว ก็แปลว่าคุณถูกชักจูงสำเร็จแล้ว
    • ทั้งหมดนี้ไม่เกี่ยวกับความปลอดภัย แต่เกี่ยวกับอำนาจ - ว่าใครเป็นผู้สร้าง แบ่งปัน และเข้าใจเครื่องมือที่กำลังกำหนดอนาคต

บทสรุป

  • โค้ดและงานวิจัยเป็นโอเพนซอร์สและตรวจสอบได้ ส่วนที่เหลือทั้งหมดคือการเมือง
  • ข้อเสนอแนะต่อผู้อ่าน
    • ลองอ่านทั้งรายงาน NIST และโค้ดด้วยตัวเอง
    • มองหาหลักฐานจริงของโค้ดอันตรายหรือฟังก์ชันสอดส่อง
    • คุณจะหาไม่เจอ เพราะมันไม่มีอยู่จริง
  • แล้วเริ่มตั้งคำถาม
    • ทำไมเมื่อโอเพนซอร์สทำงานได้ดีเกินไป จึงมีคนบอกให้เรากลัวมัน?

1 ความคิดเห็น

 
GN⁺ 2025-10-07
ความเห็นจาก Hacker News
  • ไม่แปลกใจเลยที่หน่วยงานสหรัฐถูกใช้เป็นเครื่องมือทางการเมืองกับประเด็นข้ามพรมแดนมานานแล้ว ฉันเองก็ระแวงอุปกรณ์อิเล็กทรอนิกส์จากจีนอยู่เสมอ เห็นด้วยว่ารายงานฉบับนี้มีทั้งข้อมูลเท็จและลักษณะเกลียดชังชาวต่างชาติ แต่ถ้าจีนมีอำนาจควบคุม LLM ได้มากพอ ไม่ว่าตอนนี้หรือในอนาคต ก็ยังสงสัยอยู่ว่าอาจพยายามชี้นำแบบแนบเนียนในทางใดทางหนึ่ง ซึ่งไม่ใช่แค่จีน สหรัฐหรือมหาอำนาจใด ๆ ถ้ามีอำนาจมากพอก็คงทำเหมือนกัน สุดท้ายสิ่งสำคัญคือเราต้องตั้งข้อสงสัยกับโมเดลอยู่เสมอ ทำ benchmarking และคอยตรวจสอบต่อเนื่องว่าโมเดลตอบโจทย์ความต้องการของเรา ไม่ใช่ของผู้ให้บริการ
    • มีการพูดถึงความเป็นไปได้ที่จีนจะชี้นำแบบแนบเนียนผ่าน LLM เลยอยากรู้ว่าหมายถึงวิธีแบบไหนอย่างเป็นรูปธรรม
    • อิทธิพลจากรัฐบาลหรือการเมืองย่อมแทรกอยู่ในระดับหนึ่งอยู่แล้ว ประเด็นไม่ใช่ว่ามีหรือไม่มี แต่คือมันมีผลตรงไหนและมากแค่ไหน การฟันธงแล้วปัดทิ้งว่ารายงานนี้เป็น "ข้อมูลเท็จ" หรือ "ลำเอียง" ไม่มีความหมาย เราจำเป็นต้องคัดกรองและวิเคราะห์ข้อมูลในโลกที่ซับซ้อน
    • การปล่อยข้อมูลเท็จใส่ของต่างชาติไม่ใช่คำตอบ ตรงกันข้าม ควรตระหนักว่าผู้คนต้องการโมเดลโอเพนซอร์ส แล้วเปิดเผยโมเดลคุณภาพดีที่สุดของประเทศตัวเองเพื่อให้ถูกใช้อย่างแพร่หลายจะดีกว่า
    • ถ้าจะจัดระเบียบความคิดเกี่ยวกับประชาธิปไตยอเมริกัน ผู้นำสหรัฐต้องการความยืดหยุ่นสูงสุดในการตัดสินใจได้ทุกเมื่อที่ต้องการ แต่เพราะเป็นประชาธิปไตย จึงต้องรักษาภาพลวงตาของการได้รับการสนับสนุนจากสาธารณะไว้ รัฐสร้างสภาพแวดล้อมที่ทำให้ไม่ว่าจะตัดสินใจอย่างไรก็ยังพอมีแรงหนุนได้ โดยปลูกฝังมุมมองบางอย่างและครอบงำความคิดของสาธารณะบางส่วน หากนโยบายเปลี่ยนหรือมีผู้นำคนใหม่ ก็สามารถโยนความผิดให้คนก่อนหน้าแล้วเริ่มต้นใหม่ทางศีลธรรมในทำนองว่า "เมื่อก่อนแย่ แต่ตอนนี้เปลี่ยนแล้ว" ซึ่งเป็นสิ่งที่ระบอบอำนาจนิยมทำไม่ได้ เช่น ต่อให้ปูตินตระหนักถึงความสูญเสียของสงคราม เขาก็หยุดไม่ได้หากไม่อยากเสียความชอบธรรมทางการเมือง ถ้ารัสเซียเป็นประชาธิปไตยแบบอเมริกัน ก็คงเลือกผู้นำใหม่ ถอนทหาร ลงโทษปูตินแบบพิธีการ แล้วเดินหน้ารับการยกเว้นความรับผิดจากประชาคมระหว่างประเทศได้อย่างรวดเร็ว
    • หน่วยงานเหล่านี้ยังถูกใช้เป็นเครื่องมือทางการเมืองภายในพรมแดนด้วย
  • แนะนำทุกคนให้อ่านรายงานต้นฉบับก่อน แล้วค่อยอ่านบทวิเคราะห์นี้และตัดสินด้วยตัวเอง สำคัญคือต้องอ่านต้นฉบับ ไม่ใช่ปล่อยให้สรุปแบบล่อคลิกชี้นำ
    • นี่คือต้นฉบับ: https://www.nist.gov/system/files/documents/2025/09/30/CAISI_Evaluation_of_DeepSeek_AI_Models.pdf
    • ดูเหมือนหลายคนจะไม่ได้อ่านต้นฉบับ แค่ดูว่ารายงานจัดการกับคำว่า exfiltration (การรั่วไหลของข้อมูล) อย่างไร ก็จะเห็นแล้วว่าเนื้อหาในบทความกับรายงานต้นฉบับของ NIST ไม่ตรงกัน การที่หน้าเว็บคลิกเบตได้ความสนใจมากกว่ารายงานเทคนิคยาว 70 หน้า เป็นผลจากช่วงความสนใจที่สั้นลงของผู้คนทุกวันนี้
  • ในฐานะคนที่โฮสต์ LLM ให้กับนักวิจัยและสตาฟในมหาวิทยาลัยยุโรป เรื่องนี้กระทบใจผมมาก หากไม่มีโมเดลจากจีน งานหลายอย่างที่เราทำอยู่ตอนนี้คงเป็นไปไม่ได้ เท่าที่ผมเห็น ไม่ว่าจะเป็น EU หรือที่ไหนก็ตาม ควรขอบคุณที่สถาบันวิจัยจีนปล่อยโมเดลภายใต้ไลเซนส์ที่ใจกว้างแบบนี้ ไม่อย่างนั้นตัวเลือกคงย่ำแย่มาก ถ้าต้องการโมเดลอเมริกันที่ทรงพลัง ก็จะถูกแนะนำให้สร้างศูนย์ข้อมูล NVIDIA มูลค่าหลายร้อยล้านดอลลาร์ และแม้แต่ตัวเลือกจาก EU เอง ต่อให้โฮสต์บนฮาร์ดแวร์ของตัวเองก็ยังต้องจ่ายค่าไลเซนส์ แต่สุดท้ายความเชี่ยวชาญเฉพาะทางก็ยังถูกปกป้องไว้ ตรงกันข้าม DeepSeek เคยเปิดเผย "แหล่งที่มาแบบลับ" ซึ่งช่วยให้โปรเจ็กต์โอเพนซอร์สอย่าง vLLM สามารถโฮสต์โมเดลได้มีประสิทธิภาพยิ่งขึ้น
  • พอได้อ่านรายงานจริง ๆ แล้ว เนื้อหาไม่ตรงกับคำอธิบายในบทความ
    • ที่น่าสนใจคือ แม้แต่คอมเมนต์ใต้โพสต์นี้เองก็ยังไม่ตรงกับเนื้อหาจริงในบทความ ผู้เขียนพยายามโยงว่าเป็นการโจมตีโอเพนซอร์สอยู่เรื่อย ๆ แต่คอมเมนต์กลับดูพูดถึงปัญหาที่อาจเกิดจากอิทธิพลของจีนได้ตรงประเด็นกว่า
    • บล็อกโพสต์นี้ทำให้เข้าใจผิดอย่างมาก ย่อหน้าแรก ๆ ของบทความเน้นว่ารายงาน NIST ระบุว่า "ไม่พบโค้ดอันตราย แบ็กดอร์ หรือร่องรอยการรั่วไหลของข้อมูล" แต่จริง ๆ แล้ว NIST ไม่ได้อ้างเช่นนั้น ถ้าอ่านแค่บล็อกโพสต์จะเหมือนกับว่า NIST กล่าวหาว่ามีแบ็กดอร์โดยไม่มีหลักฐาน
    • สำหรับผม รู้สึกว่าเนื้อหาในบทความสอดคล้องกับรายงานจริงอยู่พอสมควร
  • ต่อให้โมเดลจากจีนตกเป็นเป้าการใส่ร้าย ฉันก็จะใช้โมเดลที่ดีและราคาถูกเพื่อรักษาความได้เปรียบในการแข่งขันอยู่ดี
    • การใส่ร้ายสุดท้ายก็เป็นก้าวแรกไปสู่กระบวนการลงโทษทางอาญา
    • ผมหาคำพูดใส่ร้ายในบทความของ NIST (ต้นฉบับ) ไม่เจอเลย คำว่า "ใส่ร้าย" ในความเข้าใจของผมคือโฆษณาชวนเชื่อที่ทำให้ศัตรูกลายเป็นซาตาน ถ้าคุณนิยามต่างออกไป ก็อยากให้ชี้ให้เห็นอย่างเป็นรูปธรรมว่าอยู่ตรงไหนในรายงาน ดู https://www.thefreedictionary.com/demonization
    • เป็นเรื่องผิดปกติที่ผู้คนปกป้องโมเดลปิดซึ่งประสิทธิภาพแย่กว่า แต่ราคาแพงกว่าหลายเท่า แถมยังมีการเซ็นเซอร์หนัก บริษัทจีนไม่ได้หมกมุ่นกับ benchmark เหมือนบริษัทตะวันตก และเมื่อใช้จริงก็รู้สึกว่าโมเดลอย่าง Kimi, GLM, Deepseek ถึงจะได้คะแนน benchmark ภาษาอังกฤษต่ำกว่า แต่คุณภาพที่สัมผัสได้กลับดีกว่ามาก โดยเฉพาะ Kimi ตอบคำถามด้านฮาร์ดแวร์ได้ละเอียดและแม่นยำกว่า Gemini, Claude มาก ซึ่งคิดว่าเป็นเพราะใช้ประโยชน์จากข้อมูลฝึกภาษาจีนได้ดีกว่า
  • ผู้เขียน Eric Hartford บอกว่าควร "ตัดภาษาปลุกปั่นออกไป" แต่พอดูรายงานแล้วไม่เห็นภาษาลักษณะนั้นเลย โดยรวมเป็นสำนวนที่แห้งและอาจน่าเบื่อด้วยซ้ำ
    • ตรงกันข้าม ในบล็อกโพสต์กลับมีภาษาปลุกปั่นแบบไม่มีหลักฐานอยู่มาก
    • จริง ๆ แล้วผมคิดว่าบทความนี้ต่างหากที่ใกล้เคียงกับ "โฆษณาชวนเชื่อสีดำ" ที่มุ่งโจมตี NIST หรือสหรัฐ และภาษาปลุกปั่นก็มีในบทความมากกว่า
  • ขอบคุณที่แบ่งปันมุมมองดี ๆ ถ้ามีใครเคยใช้โมเดล uncensored Dolphin ที่ผู้เขียนทำไว้จริง ๆ ก็อยากฟังประสบการณ์
    • ถ้าจะพูดความเห็นของผม วิธีที่ดีที่สุดคือสร้าง evaluation framework ของตัวเองแล้วลองใช้ด้วยตัวเอง ทางเลือกอันดับสองคือหากรณีภายนอกที่ประเมินในแนวทางคล้ายกับคุณ แต่ถ้ายังไม่ได้กำหนดเกณฑ์ของตัวเอง ก็ไม่มีทางรู้ได้ว่าการประเมินของคนอื่นน่าเชื่อถือพอหรือไม่ โดยเฉพาะในวงการ ML หรือ AI ผมประเมินคุณภาพการถกเถียงบน HN ค่อนข้างต่ำ ผู้เข้าร่วมมักรีบ เร็ว ประชดประชัน และแบ่งพรรคแบ่งพวก จนรู้สึกว่าไม่ได้มุ่งหาความจริงอย่างจริงจัง ถึงอย่างนั้นผมก็ยังอยากอยู่ที่นี่และช่วยร่วมถกเถียงเสมอ หวังว่าจะมีความชัดเจน ตรรกะ และการอภิปรายที่ลึกซึ้งเสมอ บางครั้งก็ให้ความรู้สึกแบบ https://xkcd.com/386/
  • DeepSeek มีถึงขั้น บทความ peer-reviewed ในวารสาร Nature แล้ว อีกทั้งบทความนี้ก็ยอมรับปัญหาบางส่วนที่นักวิจัยอิสระชี้ไว้เกี่ยวกับโมเดลเปิด ด้วยเหตุนี้จึงคิดว่าการประเมินของ NIST ครั้งนี้ใกล้เคียงกับการโจมตีทางการเมือง เหมือนกรณี CryptoAG หรือประเด็น Huawei ที่หน่วยข่าวกรองสหรัฐเคยอาศัยข้อได้เปรียบทางเทคโนโลยีไปใช้เพื่อการสอดแนม แต่สุดท้ายก็ไม่ได้มีหลักฐานเจตนาร้ายชัดเจนมากนัก ซึ่งทำให้ธรรมเนียมแบบนี้เป็นที่มาของความกังวล สุดท้ายควรมีโมเดลเปิดหลากหลายอย่าง Kimi, Qwen ฯลฯ เพื่อให้ต้นทุนและประสิทธิภาพเข้าสู่ระดับมาตรฐานเดียวกัน และการที่แต่ละประเทศพยายามใช้ AI เป็น "คูเมืองทางภูมิรัฐศาสตร์" ควรหมดไป ซึ่งจะเป็นผลดีต่อวงการโดยรวม
  • เมื่อถึงเวลาที่จีนปล่อยโมเดลโอเพนซอร์สที่ดีกว่า DeepSeek ออกมาแล้ว รายงานของ NIST ก็ดูเหมือนจะล้าหลังไปหนึ่งก้าว
  • สงสัยว่า NIST ประเมินด้านประสิทธิภาพ ต้นทุน และอัตราการยอมรับไปเพื่ออะไร เพราะเทียบแค่โมเดลอเมริกันที่เพิ่งออกไม่นาน (OpenAI GPT-5 series, Anthropic Opus 4 ฯลฯ) กับ DeepSeek รุ่นเก่า (R1, R1-0528, V3.1) ทั้งที่ตอนนี้ DeepSeek 3.2 รุ่นล่าสุดมีประสิทธิภาพดีมาก เหมือนกับว่ารถเร่ง 0-60 ไมล์ได้ใน 3 วินาทีไม่ได้ทำให้การประเมินของรัฐบาลมีความสำคัญ สิ่งสำคัญคือผมต้องลองขับเองแล้วตัดสินเอง แม้รายงานจะระบุว่า "โมเดลความปลอดภัยสูงสุด" ของ DeepSeek มีอัตราปฏิเสธคำขออันตรายเพียง 6% แต่ในความเป็นจริงตอนนี้โมเดล GPT ของสหรัฐเองก็สามารถถูกนำไปใช้ในทางที่ผิดได้แทบไม่มีข้อจำกัด ผมมองว่ารายงานนี้ไม่ใช่แค่การบ่นเรื่อง NIST กับความปลอดภัย แต่เป็นเพียงเอกสารโฆษณาชวนเชื่อของสหรัฐเท่านั้น