5 คะแนน โดย GN⁺ 2026-03-05 | 2 ความคิดเห็น | แชร์ทาง WhatsApp
  • การที่นักวิจัยแกนหลักของทีม Qwen ของ Alibaba ลาออกจำนวนมาก ทำให้อนาคตของโมเดลซีรีส์ Qwen 3.5ที่เพิ่งเปิดตัวล่าสุดไม่ชัดเจน
  • หัวหน้าทีม Lin Junyang ประกาศลาออก และตามมาด้วยบุคลากรคนสำคัญหลายคนที่ทยอยออกจากงาน
  • ตระกูลโมเดล Qwen 3.5 ที่เพิ่งเปิดตัวไม่นานนี้กำลังได้รับความสนใจมากขึ้น เพราะแสดงประสิทธิภาพที่โดดเด่นแม้ในโมเดลขนาดเล็ก
  • ความเป็นไปได้ที่ทีม Qwen จะสลายตัว อาจกลายเป็นจุดเปลี่ยนสำคัญของระบบนิเวศงานวิจัย AI โอเพนซอร์สจากจีน

การเปลี่ยนแปลงบุคลากรในทีม Qwen

  • ทันทีหลังจากที่ Alibaba เปิดตัวโมเดลซีรีส์ Qwen 3.5 หัวหน้าทีม Lin Junyang ได้ประกาศลาออกผ่าน X (ชื่อเดิม Twitter) ด้วยข้อความว่า “me stepping down. bye my beloved qwen.”
    • Lin เป็นนักวิจัยคนสำคัญที่ผลักดันการเปิดเผยโมเดล open-weight ของ Qwenมาตั้งแต่ปี 2024 และเป็นหนึ่งในบุคลากรระดับ P10 ที่อายุน้อยที่สุดใน Alibaba
  • ตามรายงานของสื่อจีน 36Kr เมื่อเวลาประมาณ 13:00 น. ของวันที่ 4 มีนาคม Tongyi Lab ของ Alibaba ได้จัดประชุมด่วนทั้งบริษัท โดย CEO Wu Yongming เป็นผู้ชี้แจงสถานการณ์ต่อทีม Qwen ด้วยตนเอง
    • การลาออกของ Lin ถูกประกาศก่อนหน้านั้น 12 ชั่วโมง ในเวลา 00:11 น. และมีรายงานว่าภายในทีมเองก็ได้รับแรงกระแทกทางความรู้สึกอย่างมาก
    • เวลาประมาณ 14:00 น. Lin ได้ฝากข้อความใน WeChat ว่า “พี่น้องของ Qwen เดินหน้าต่อไปตามแผนเดิม ไม่มีปัญหา” แต่ไม่ได้ระบุชัดว่าจะกลับมาหรือไม่
    • สมาชิกทีม Qwen บอกกับ 36Kr ว่า “ภายใต้ทรัพยากรที่น้อยกว่าคู่แข่งมาก ความเป็นผู้นำของ Junyang คือปัจจัยหลักที่ทำให้ทีมบรรลุผลลัพธ์ในปัจจุบัน”
  • สาเหตุหนึ่งที่ถูกพูดถึงของการลาออกคือการปรับโครงสร้างองค์กรภายใน Alibaba ซึ่งมีการแต่งตั้งนักวิจัยใหม่จากทีม Google Gemini ให้มารับผิดชอบ Qwen แต่ข้อมูลนี้ยังไม่ได้รับการยืนยัน

การลาออกต่อเนื่องของกำลังหลัก

  • หลังการลาออกของ Lin มีการยืนยันว่าสมาชิกแกนหลักหลายคนลาออกตามกันไป
    • Binyuan Hui: หัวหน้าฝั่งพัฒนาโค้ดของ Qwen, ดูแลซีรีส์ Qwen-Coder, รับผิดชอบกระบวนการเรียนรู้ของเอเจนต์ทั้งหมด และเพิ่งเข้าร่วมงานวิจัยด้านหุ่นยนต์
    • Bowen Yu: หัวหน้าฝั่ง post-training ของ Qwen, เป็นผู้นำการพัฒนาซีรีส์ Qwen-Instruct
    • Kaixin Li: ผู้มีส่วนสำคัญต่อ Qwen 3.5/VL/Coder, จบปริญญาเอกจาก National University of Singapore
    • นอกจากนี้ยังมีรายงานว่านักวิจัยรุ่นใหม่อีกหลายคนลาออกในวันเดียวกัน
  • การที่ CEO ของ Alibaba เข้าร่วมประชุมด้วยตนเอง แสดงให้เห็นว่าบริษัทตระหนักถึงความร้ายแรงของสถานการณ์นี้

จุดเด่นของโมเดล Qwen 3.5

  • Qwen 3.5 คือตระกูลโมเดล open-weight ที่ทีม Alibaba Qwen เปิดตัวในช่วงไม่กี่สัปดาห์ที่ผ่านมา ซึ่งมีประสิทธิภาพโดดเด่นมาก
    • Qwen3.5-397B-A17B ที่เปิดตัวเมื่อวันที่ 17 กุมภาพันธ์ เป็นโมเดลขนาดใหญ่ระดับ 807GB
    • หลังจากนั้นก็มีการเปิดตัวโมเดลขนาดต่างๆ ต่อเนื่อง เช่น 122B, 35B, 27B, 9B, 4B, 2B, 0.8B
  • โมเดล 27B และ 35B ได้รับคำชมในงานเขียนโค้ด ส่วนโมเดล 9B·4B·2B มีประสิทธิภาพสูงมากเมื่อเทียบกับขนาด
    • โมเดล 27B และ 35B อยู่ในระดับที่รันได้บน Mac หน่วยความจำ 32GB/64GB และยังจัดการงานโค้ดดิ้งได้อย่างยอดเยี่ยม
    • โดยเฉพาะโมเดล 2B มีขนาดเพียง 4.57GB (หรือ 1.27GB เมื่อทำ quantization) แต่รองรับทั้งความสามารถด้านการอนุมานและมัลติโหมด (vision)

แนวโน้มต่อจากนี้

  • หากทีม Qwen สลายตัว ก็อาจทำให้ผลงานวิจัยที่สร้างประสิทธิภาพคุณภาพสูงในโมเดลขนาดเล็กต้องหยุดชะงัก
  • หากสมาชิกทีมไปก่อตั้งห้องวิจัยใหม่หรือเข้าร่วมกับสถาบันอื่น ก็ยังมีความคาดหวังต่อผลงานวิจัยต่อเนื่องในอนาคต
  • สถานการณ์ปัจจุบันยังคง “ไม่แน่นอน” และ Alibaba ก็ยังอาจรักษาบุคลากรบางส่วนไว้ได้

แหล่งอ้างอิงภายนอกที่ใช้

2 ความคิดเห็น

 
mammal 2026-03-05

การลาออกของ Lin Junyang น่าตกใจจริง ๆ ครับ ผมกำลังใช้งาน Qwen 3.5 35B-A3B ได้ดีอยู่เลย เลยคาดหวังกับ Qwen 4 มากด้วย เศร้ามาก

 
GN⁺ 2026-03-05
ความคิดเห็นจาก Hacker News
  • หวังว่าการพัฒนาจะไม่ถูกรบกวนมากเกินไป อย่างที่ Simon พูดไว้ Qwen3.5 น่าประทับใจมาก
    ช่วงไม่กี่วันที่ผ่านมาได้ทดสอบ Qwen3.5-35B-A3B แล้ว พบว่ามันมีความสามารถด้าน agentic coding ที่ดีที่สุดในบรรดาโมเดลที่เคยใช้มา
    ลองให้มันเขียนโค้ด Rust และ Elixir ด้วย Pi harness มันสร้างเทสต์เองและตรวจสอบได้ว่าเทสต์ผ่านหรือไม่ ผ่านการวนลูปแก้เทสต์หรือข้อผิดพลาดตอนคอมไพล์ได้ดี พร้อมเดินหน้าไปสู่เป้าหมาย
    • ลองรัน 3.5:122b บน GH200 แล้ว สำหรับงาน Rust/React/TS มัน ยังด้อยกว่า Sonnet เล็กน้อย แต่ถ้าเป็นงานขอบเขตเล็กก็จัดการได้ดีพอ
      แต่มีแนวโน้มจะเมินคำสั่งกลางทางแล้วบอกว่า “แบบนี้ง่ายกว่า” ก่อนจะลบ supporting code ทิ้งทั้งชุด
    • ฉันทดสอบกับ Rust เหมือนกัน บางครั้งมันก็เข้า ลูปไม่รู้จบ แล้วค่อยหลุดออกมาเอง
      มันเลือก deadpool กับ deadpool-r2d2 ตั้งแต่ขั้นวางแผนจนทำให้ตัวเองสับสน ถึงอย่างนั้นโดยรวมโค้ดก็ใช้ได้ แค่น่าจะต้องเกลาชั้นฐานข้อมูลอีกหน่อย
      จนถึงตอนนี้มันคือ โมเดลที่ self-host ได้ซึ่งเสถียรที่สุด
    • พอลองใช้โมเดล dense 27B ก็พบว่ามีลูปและการทำซ้ำที่ไม่จำเป็นน้อยกว่ามาก
    • ไม่แน่ใจว่าคุณรันแบบโลคัลด้วย llama.cpp หรือเปล่า เพราะ chat template เริ่มต้นทำให้การเรียกใช้เครื่องมือล้มเหลว แต่ถ้าใช้เทมเพลตนี้จะทำงานดีกว่ามาก
    • อยากรู้ว่าคุณรันบน ฮาร์ดแวร์ อะไร แล้วรู้สึกไหมว่าสำหรับการเขียนโค้ดในชีวิตประจำวันมันแทนที่ frontier model ได้แล้ว
  • มีคนบอกว่าเกิดความตึงเครียดระหว่างทีมวิจัย Qwen กับทีมผลิตภัณฑ์ของ Alibaba ได้ยินมาว่า Alibaba เพิ่งพยายาม บังคับใช้ DAU เป็น KPI
    ในมุมบริษัทก็เข้าใจได้ว่าอาจมีการเปลี่ยนกลยุทธ์ แต่ก็ยังสงสัยว่าทำไมถึงปล่อยคนวิจัยแกนหลักออกไป ตอนนี้ไม่ใช่ช่วงที่นักวิจัยโมเดลกำลังขาดแคลนอยู่หรือ
    • เป็นไปได้ว่าในอนาคตพวกเขาต้องการเปลี่ยนโมเดล Qwen ให้เป็น โมเดลเชิงพาณิชย์แบบปิด และทีมวิจัยยอมรับเรื่องนั้นไม่ได้
  • สงสัยว่าทำไมแล็บในสหรัฐฯ ถึงไม่ทุ่ม เงินมหาศาล เพื่อดึงตัวคนเก่งเหล่านี้
    • ในพื้นที่ของฉัน (โอไฮโอ) ICE กำลังกวดขันชาวจีนอยู่ แม้แต่คนที่พำนักอย่างถูกกฎหมายก็ยังรู้สึกถึง ความเสี่ยงที่จะถูกเนรเทศ
      ในบรรยากาศแบบนี้ ต่อให้แล็บในสหรัฐฯ ทุ่มเงินแค่ไหนก็ยังดึงคนเก่งได้ยาก
    • สหรัฐฯ ทำให้แม้แต่ผู้อพยพถูกกฎหมายก็ยัง เสี่ยงถูกควบคุมตัว
    • ยุโรปควรสร้าง โมเดลคู่แข่ง เพื่อรับมือกับความปั่นป่วนทางการเมืองของสหรัฐฯ
    • คนที่ถูกทุนอเมริกันดึงดูดได้ก็น่าจะย้ายไปกันหมดแล้ว และจีนเองก็ลงทุนมากพออยู่แล้ว
      แถมในบริษัทจีนยังอาจมี อิทธิพลต่อการตัดสินใจ ได้มากกว่า
    • ปัญหาไม่ได้มีแค่การตัดงบ NSF แต่เสน่ห์ของสหรัฐฯ ลดลงจากปัญหาสุขภาพ ความเสี่ยงสงคราม และ ความไม่แน่นอนต่อการปฏิบัติต่อนักวิจัยต่างชาติ
      ตั้งแต่สมัยรัฐบาลทรัมป์ จำนวนนักศึกษาต่างชาติที่ไหลเข้าสหรัฐฯ ก็ลดลงแล้ว และตอนนี้การเรียนปริญญาเอกในสหรัฐฯ กลับถูกมองว่าเป็น ความเสี่ยงด้านชื่อเสียง เสียด้วยซ้ำ
  • เวลาคนใช้โมเดลโลคัล พวกเขามักจะ ใจกว้างกับการลองผิดลองถูก มากกว่า
    ถ้าโมเดลคลาวด์เผาโทเคนไปเปล่า ๆ จะรู้สึกเสียดายเงิน แต่ถ้าโมเดลโลคัลวนลูป คนจะรู้สึกว่า “มันกำลังคิดอยู่”
    ถ้าโมเดลอย่าง Qwen ใช้งานเขียนโค้ดแบบโลคัลได้ดีพอ การเปลี่ยนแปลงนี้อาจเป็นเรื่อง เศรษฐศาสตร์ มากกว่า เทคนิค
    • การเผาโทเคนของโมเดลโลคัลกลับเป็นเรื่องน่ายินดีด้วยซ้ำ เพราะ GPU เมนเฟรมในห้องของฉันทำหน้าที่เป็น เครื่องทำความร้อน ไปด้วย (ต้องขอบคุณระบบทำความร้อนที่ไม่น่าไว้ใจของสวิตเซอร์แลนด์)
  • ฉันลองรันโมเดล 32B แบบโลคัลมาหลายวันแล้ว มันจัดการ agentic coding ได้ดีพอสมควร
    ประสิทธิภาพถือว่ายอดเยี่ยมเมื่อเทียบกับขนาด แต่กับคำสั่งยาว ๆ มันมีแนวโน้มจะเมินไปประมาณครึ่งหนึ่ง ซึ่งสำหรับขนาดนี้ก็เป็น trade-off ที่รับได้
  • ในฐานะนักคณิตศาสตร์ ฉันลองใช้ Qwen เพื่อทำงานอัตโนมัติด้านการสรุปและหาความสัมพันธ์ระหว่างงานวิจัย
    มันถึงขั้นช่วย ตรวจสอบการอ้างอิงผิด ได้ด้วย และถูกนำไปใช้กับบทความใน arXiv
    ผลลัพธ์สรุปไว้ที่หน้านี้
  • หวังว่าทีมวิจัยจะไปสานต่อการแข่งขันด้าน โมเดล open-weight ที่อื่นอีก
    จริง ๆ แล้วฉันคิดว่างานวิจัยแบบนี้ควรได้รับการสนับสนุนจากภาครัฐ แต่ตอนนี้บริษัทจีนกลับเป็นฝ่ายทำหน้าที่นั้นแทน
  • Qwen3.5 ยอดเยี่ยมจริง ๆ ฉันลองรันเวอร์ชัน 35B บน Ada NextGen 24GB ด้วย easy-llm-cli แล้ว ระดับแทบจะใกล้กับ Gemini 3 Pro
    ความเร็วก็ถือว่าเร็วพอตัว
    • ด้วยการตั้งค่า q4 quant ฉันได้ 175 tg และ 7K pp ซึ่งมีประสิทธิภาพกว่าผู้ให้บริการคลาวด์ส่วนใหญ่เสียอีก
  • ช่วงนี้บรรยากาศเหมือนเปลี่ยนจาก “AI จะแทนที่มนุษย์” ไปเป็น “AI จะตายถ้าไม่มีบางคน” เป็น การเปลี่ยนแปลงที่ดราม่ามาก
    • uptime ของ Anthropic ไม่ได้อยู่ที่ 99.9999999% แต่มีแค่ระดับ 90% เท่านั้น ดูได้จากหน้าสถานะ
      ถ้า AI สามารถแทนที่คนได้ทั้งหมดจริง ๆ พวก CEO ก็คงไม่ต้องพยายามโน้มน้าวกันขนาดนี้
    • คำว่า “AI จะตายถ้าไม่มีบางคน” ก็พูดเกินไปหน่อย คนแค่กำลังสงสัยถึง ทิศทางของตระกูลโมเดล Qwen เท่านั้น
    • การเปลี่ยนจากเป้าหมาย AGI ไปเป็น กลยุทธ์ระยะสั้นที่เน้นโฆษณา สะท้อนสถานการณ์ตอนนี้ได้ดี
    • Claude สร้าง native app เองไม่ได้ แม้แต่เว็บแอปก็ยังไม่เสถียร จนกลายเป็นเหตุผลที่ Anthropic เข้าซื้อ Bun
  • ลืมมันไปเถอะ ที่นี่คือไชน่าทาวน์