4 คะแนน โดย GN⁺ 2025-12-18 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • Gemini 3 Flash คือโมเดล AI รุ่นล่าสุดของ Google ที่มอบ ปัญญาระดับแนวหน้า ด้วยความเร็วสูงและต้นทุนต่ำ
  • ยังคงความสามารถด้านการให้เหตุผลระดับ Gemini 3 Pro ไว้ พร้อมผสาน เวลาแฝงและประสิทธิภาพของซีรีส์ Flash เพื่อรองรับทั้งงานประจำวันและเวิร์กโฟลว์แบบเอเจนต์
  • ทำผลงานเหนือกว่า Gemini 2.5 Pro ในเบนช์มาร์กสำคัญหลายรายการ เช่น GPQA Diamond 90.4%, Humanity’s Last Exam 33.7%, MMMU Pro 81.2%
  • นักพัฒนาสามารถเข้าถึงได้ผ่าน Google AI Studio, Gemini CLI, Antigravity, Vertex AI และผู้ใช้ทั่วไปสามารถใช้งานฟรีผ่าน แอป Gemini และ AI Mode ในการค้นหา
  • นิยามสมดุลใหม่ของความเร็ว ต้นทุน และปัญญา พร้อมวางตำแหน่งเป็น โมเดลที่ขยายสเกลได้ทั้งสำหรับผู้ใช้จำนวนมากและสภาพแวดล้อมองค์กร

ภาพรวมของ Gemini 3 Flash

  • Gemini 3 Flash คือ รุ่นขยายของตระกูลโมเดล Gemini 3 ที่เป็นโมเดลรุ่นถัดไปซึ่งออกแบบมาเพื่อเร่งความเร็วและประสิทธิภาพให้สูงสุด
    • เปิดตัวต่อจาก Gemini 3 Pro และโหมด Deep Think โดยปัจจุบันมีการประมวลผลผ่าน API มากกว่า 1 ล้านล้านโทเค็นต่อวัน
    • มีรายงานการใช้งานที่หลากหลาย เช่น การเรียนรู้หัวข้อซับซ้อน การออกแบบเกมแบบอินเทอร์แอ็กทีฟ และการทำความเข้าใจคอนเทนต์แบบมัลติโหมด
  • ยังคงรักษา ความสามารถด้านการให้เหตุผลขั้นสูง การเข้าใจภาพ และการเขียนโค้ดแบบเอเจนต์ของ Gemini 3 ไว้ พร้อมผสานเวลาแฝงและความคุ้มค่าด้านต้นทุนในระดับ Flash
  • ออกแบบมาให้เหมาะกับ การเพิ่มความแม่นยำของงานประจำวัน และ เวิร์กโฟลว์แบบเอเจนต์

ประสิทธิภาพและเบนช์มาร์ก

  • Gemini 3 Flash พิสูจน์ว่าความเร็วและสเกลไม่จำเป็นต้องแลกกับความฉลาด
    • ทำได้ 90.4% ใน GPQA Diamond, 33.7% ใน Humanity’s Last Exam (ไม่ใช้เครื่องมือ), และ 81.2% ใน MMMU Pro ซึ่งเป็น ประสิทธิภาพระดับใกล้เคียงโมเดลขนาดใหญ่
    • ทำ ผลลัพธ์ได้ดีกว่า Gemini 2.5 Pro ในหลายเบนช์มาร์ก
  • ขยาย Pareto frontier ของคุณภาพ ต้นทุน และความเร็ว
    • แม้จะใช้เวลาคิดนานขึ้นในงานที่ซับซ้อน แต่ยังรักษาประสิทธิภาพสูงได้ด้วย การใช้โทเค็นเฉลี่ยน้อยลง 30% เมื่อเทียบตามทราฟฟิกทั่วไป
  • ตามข้อมูลของ Artificial Analysis มี ความเร็วในการประมวลผลมากกว่า 2.5 Pro ถึง 3 เท่า และมีต้นทุน $0.50 ต่อ 1 ล้านโทเค็นสำหรับอินพุต และ $3.00 สำหรับเอาต์พุต
    • อินพุตเสียงมีค่าใช้จ่าย $1.00 ต่อ 1 ล้านโทเค็น

ความสามารถสำหรับนักพัฒนา

  • มอบประสิทธิภาพการเขียนโค้ดแบบเวลาแฝงต่ำที่เหมาะกับ การพัฒนาแบบวนซ้ำและเวิร์กโฟลว์ความถี่สูง
    • ทำคะแนนได้ 78% ในเบนช์มาร์ก SWE-bench Verified สูงกว่าทั้งซีรีส์ 2.5 และ Gemini 3 Pro
  • เด่นในงานมัลติโหมดที่ซับซ้อน เช่น การวิเคราะห์วิดีโอ การดึงข้อมูล และการตอบคำถามจากภาพ
    • รองรับการสร้าง แอปพลิเคชันอัจฉริยะ เช่น ผู้ช่วยเกมแบบเรียลไทม์, A/B testing และระบบออกแบบอัตโนมัติ
  • มีองค์กรอย่าง JetBrains, Bridgewater Associates, Figma นำไปใช้แล้ว และให้บริการผ่าน Vertex AI และ Gemini Enterprise

ความสามารถสำหรับผู้ใช้ทั่วไป

  • ใช้เป็น โมเดลพื้นฐานในแอป Gemini แทน 2.5 Flash และเปิดให้ผู้ใช้ทั่วโลกใช้งานฟรี
    • เสริมความสามารถด้านการให้เหตุผลแบบมัลติโหมด เช่น การสร้างแผนที่นำไปปฏิบัติได้จริง จากการวิเคราะห์วิดีโอและภาพ
    • ตัวอย่าง: การวิเคราะห์วงสวิงกอล์ฟ การรู้จำภาพวาด และการสร้างควิซเฉพาะบุคคลจากเสียง
  • สามารถ สร้างต้นแบบแอปได้ด้วยคำสั่งเสียงเพียงอย่างเดียว ช่วยให้ผู้ที่ไม่ใช่มืออาชีพสร้างแอปได้อย่างรวดเร็ว
  • ถูกนำไปใช้เป็นโมเดลพื้นฐานใน AI Mode ของการค้นหา ด้วย
    • อาศัยความสามารถในการให้เหตุผลของ Gemini 3 Pro เพื่อ วิเคราะห์บริบทของคำถามอย่างละเอียด และให้ คำตอบที่จัดวางอย่างเป็นภาพพร้อมข้อมูลแบบเรียลไทม์
    • เด่นในการจัดการ เป้าหมายหลายขั้นตอน เช่น การวางแผนท่องเที่ยวที่ซับซ้อนหรือการเรียนรู้แนวคิดด้านการศึกษา

ช่องทางเข้าถึงและการเปิดให้ใช้งาน

  • สำหรับนักพัฒนา: เปิดให้ใช้งานในรูปแบบพรีวิวผ่าน Google AI Studio, Gemini CLI, Antigravity, Vertex AI, Gemini Enterprise
  • สำหรับผู้ใช้ทั่วไป: ทยอยเปิดให้ใช้งานทั่วโลกในแอป Gemini และ AI Mode ของ Google Search
  • Gemini 3 Flash ขยายบทบาทเป็น แกนหลักของตระกูลโมเดล Gemini 3 ร่วมกับ Gemini 3 Pro และ Deep Think

1 ความคิดเห็น

 
GN⁺ 2025-12-18
ความคิดเห็นบน Hacker News
  • อย่าถูกชื่อ “Flash” หลอก โมเดลนี้ให้ประสิทธิภาพที่น่าทึ่งจริงๆ
    ผมลองใช้มาสองสามสัปดาห์แล้ว ทั้ง เร็ว และมี ขอบเขตความรู้ กว้าง ทำงานได้มีประสิทธิภาพกว่า Claude Opus 4.5 หรือ GPT 5.2 Extra High มาก เวลาและต้นทุนในการให้เหตุผลอยู่ที่แทบจะราว 1 ใน 10

    • ผมก็รัน benchmark เองเหมือนกัน และในบรรดา 2.5 Flash, 2.5 Pro และ 3.0 Flash นั้น 3.0 Flash ดีที่สุด
      เวลาตอบแทบไม่เปลี่ยน แต่ผลลัพธ์ดีขึ้นมาก คุ้มค่าราคาสุดๆ
      อยากรู้ว่า Google ใช้ ความแตกต่างทางเทคนิค อะไรระหว่างโมเดล Pro กับ Flash ถึงดันประสิทธิภาพออกมาได้แบบนี้
      ปกติผมใช้ Gemini API บ่อยอยู่แล้ว เลยอยากทดสอบด้วย benchmark ภายในทุกครั้งที่มีโมเดลใหม่ออกมา
    • ผมเป็นพวก สายกังขา GenAI ปกติจะทดสอบกับหัวข้อซับซ้อนหรือเฉพาะทางบ่อยมาก ซึ่งโมเดลส่วนใหญ่มักตอบเละเทะ
      แต่ Gemini 3 Flash เป็นโมเดลแรกที่ตอบคำถาม benchmark เฉพาะของผมได้ใกล้เคียงคำตอบถูกมาก
      แม้จำนวนตัวอย่างยังน้อย แต่เห็นได้ชัดว่า ความแม่นยำดีขึ้น
    • ผมคิดว่า OpenAI พลาดครั้งใหญ่ที่ละเลยโมเดล reasoning แบบเร็ว
      กลยุทธ์ที่พยายามใช้ GPT 5 ตัวเดียวแก้ทุกอย่างนั้นล้มเหลว
      ตอนนี้กำลังทดสอบ Gemini 3 Flash อยู่ และพบว่าในแง่ latency กับ ประสิทธิภาพ มันดีกว่า GPT 5 Thinking
      OpenAI ควรโฟกัสกับการพัฒนาโมเดลที่ใช้งานได้จริงมากกว่าการโฆษณา
    • ดูจาก benchmark แล้ว Flash ยังอ่อนในเรื่อง hallucination แต่โดยรวมเหนือกว่า Gemini 3 Pro หรือ GPT 5.1 Thinking
      ดูผลละเอียดได้ที่ หน้า evaluation ของ Artificial Analysis
    • บริษัทที่ลงทุนกับ OpenAI มากเกินไปอาจมีวันต้องมานั่งเสียดาย Nvidia อาจเป็นข้อยกเว้น แต่ Microsoft คงใส่ใจน้อยกว่าเพราะขายโมเดลผ่าน Azure อยู่แล้ว
  • รอบนี้ดีตรงที่ปล่อยมาแบบเอาไปใช้ production ได้เลยโดยไม่ต้องผ่าน preview ก่อน
    แต่ ราคาก็ขึ้น ต่อเนื่องเหมือนกัน
    เช่น Gemini 1.5 Flash จาก input $0.075/M → 3.0 Flash ขึ้นไปถึง $0.50/M
    ส่วน Pro อยู่ที่ประมาณ input $2/M, output $12/M
    ขอแก้ไขนิดนึง โมเดลรอบนี้ก็ยังเป็นเวอร์ชัน preview

    • สำหรับผมกลับอยากรู้มากกว่าว่า Gemini 3 Flash Lite จะออกมาด้วยประสิทธิภาพและราคาแบบไหน
      สำหรับงานที่ไม่ใช่เขียนโค้ดส่วนใหญ่ ความต่างระหว่าง Flash กับ Flash Lite อาจสำคัญกว่า Pro เสียอีก
    • ขอบคุณที่สรุปราคาให้ Gemini 3.0 ทำผลงานดีมากจนดูเหมือนตั้งราคาอย่างมั่นใจ
      แต่การแข่งขันดุเดือดมาก คิดว่าอีกไม่นานคงมีโมเดลราคาถูกกว่าที่ให้ประสิทธิภาพใกล้กันออกมา
    • ถ้าเปิด Thinking mode ปริมาณ token ที่ใช้จะเปลี่ยนไป ดังนั้นเวลาคำนวณต้นทุนจริงต้องเอาจุดนี้มาคิดด้วย
    • GPT-5 Mini ราคา input $0.25/M, output $2/M ดังนั้นฝั่ง input ถูกกว่า Flash ครึ่งหนึ่ง และฝั่ง output ถูกกว่าราว 50%
  • รู้สึกว่า Google จับทั้ง ความเร็ว·ราคา·คุณภาพ ได้ครบจริงๆ
    ถ้ารวมกับการผสานเข้ากับ Android และ G Suite ด้วยก็เป็นชุดที่น่ากลัวมาก
    ดูเหมือนนี่อาจเป็นกลยุทธ์ที่จะออก สมาร์ตโฟน AI-first ก่อนทั้งโปรเจกต์ฮาร์ดแวร์ OpenAI–Jony Ive หรือ Apple Intelligence

    • แต่ในการใช้งานจริงก็ขึ้นอยู่กับเคส
      เช่น Gemini 3 Pro แค่เรียกใช้เครื่องมือ Edit แบบง่ายๆ ก็ยังช้าและล้มเหลวบ่อย
      งานเดียวกัน Claude-Code ใช้เวลา 5 นาที แต่ Gemini ใช้ 27 นาที
    • ตาม บทความของ MacRumors ระบุว่า Apple Intelligence จะใช้ Gemini เป็นฐาน
    • แต่ก็ยังสงสัยว่า AI บนสมาร์ตโฟนจะเอาไปใช้ตรงไหน
      ผมกลับคิดว่าแท็บเล็ตหรือ smart glasses น่าจะเหมาะกับ smol AI มากกว่า
  • Gemini 3 Flash (non-thinking) เป็นโมเดลแรกที่ได้ 50% ใน “การทดสอบนับจำนวนขาสุนัข” ของผม
    ตอนโชว์ภาพสังเคราะห์ที่มีขา 5 ขา โมเดลส่วนใหญ่ตอบว่า 4 แต่ 3 Flash ตอบถูกว่า 5
    มันนับได้ถูกก็ต่อเมื่อลองเพิ่มรอยสักที่ขา ส่วนภาพที่ไม่มีรอยสักก็ยังตอบว่า 4 อยู่
    ให้ครึ่งคะแนนก็คงพอได้

  • แม้โมเดล Flash จะแพงขึ้นเรื่อยๆ แต่ 3.0 Flash รอบนี้ คุ้มราคาสุดๆ
    ได้คะแนน 78% บน benchmark แซงทั้งซีรีส์ 2.5 และ 3 Pro
    เหมาะมากกับ agentic coding และแอปโต้ตอบแบบเรียลไทม์

    • 3.0 Flash ถูกกว่า เร็วกว่า และผลงานดีกว่า 2.5 Pro
      ถ้าเป็นผู้ใช้ 2.5 Flash การอัปเกรดอาจเจ็บเรื่องค่าใช้จ่ายหน่อย แต่ก็ยังคุ้ม
    • ผมคิดว่าการวางตำแหน่ง Flash ให้เป็น โมเดลเน้นโค้ดดิ้ง·การให้เหตุผล มากขึ้นเป็นทิศทางที่ดี
      เพราะถ้าอยากได้รุ่นประหยัดก็ยังมี Flash Lite คอยบาลานซ์อยู่
    • Nemotron 3 Nano ของ Nvidia อาจเป็น ทางเลือก OSS ที่ใกล้เคียงกัน
      ทั้งเร็ว ฉลาด และรองรับ context 1M ด้วย
    • ใน benchmark ของแอปผม มีแค่ Gemini Flash กับ Grok 4 Fast ที่พอใช้งานได้
      อยากเห็นโมเดล open weights มาแข่งในพื้นที่นี้บ้าง
    • ตาม benchmark ของ Epoch.ai มันยังเหนือกว่า GPT 5.2 ของ OpenAI ด้วย
  • ตอนนี้ผมรู้สึกว่าชุด Claude Code + Gemini ก็ไปถึงระดับ “ดีพอแล้ว” เรียบร้อย
    จากนี้บริษัทอื่นคงโน้มน้าวผมได้ยาก
    รอบนี้มันเหมือนมาถึงจุดตัดของ “ดีพอและถูกพอ” แล้ว

    • ผมแทบไม่มีต้นทุนในการย้ายเลย เลยเปลี่ยนโมเดลได้ง่าย
      แค่สลับตัวเลือกโมเดลใน CLI หรือ IDE plugin ก็พอ
    • โมเดลยุคหลังๆ ในที่สุดก็ทำให้คำสัญญาเรื่อง agentic coding กลายเป็นจริงได้
    • โมเดลเก่าๆ พลาดบ่อยเกินไปจนกลายเป็นเสียเวลาเปล่า
      ความแม่นยำขึ้นๆ ลงๆ จนน่าเหนื่อย
    • ถ้าเป็น Opus 4.5 ก็ถือว่าปัญหาด้าน software engineering อยู่ในระดับ ‘แก้ได้แล้ว’
      องค์กรอาจอยากได้สติปัญญาแบบไม่จำกัด แต่สำหรับคนทั่วไปไม่ได้ต้องการขนาดนั้น
  • มันได้ 69% บน benchmark SimpleQA ซึ่งเป็น การทดสอบความรู้ที่หายากมาก
    ถ้าคิดว่า Gemini 2.5 Pro ได้ 55% คะแนนนี้ถือว่าสูงมาก
    ดูเหมือน Google จะใช้ การบีบอัดความรู้ หรือสถาปัตยกรรม MoE (Mixture of Experts) ได้ดีมาก

    • การประเมิน Omniscience ของ Artificial Analysis ก็เป็นอีกอันที่ควรดู
    • ด้วยโครงสร้าง MoE พวกเขาอาจใช้พารามิเตอร์จำนวนมากบน TPU ได้โดยยังคง throughput ไว้ได้
    • โมเดลแบบนี้น่าจะยอดเยี่ยมมากสำหรับ voice interface ด้วย Apple ก็น่าจะนำไปใช้เหมือนกัน
    • หรือไม่ก็อาจเป็นวิธี reasoning ผ่าน tool call ภายใน (เช่น Google Search)
    • อีกความเป็นไปได้คือเพิ่มจำนวน expert และลดอัตราการ activate ลงเพื่อเพิ่ม sparsity
  • ผมยังไม่ค่อยเข้าใจความต่างระหว่าง ‘Thinking’ กับ ‘Pro’ ของ Gemini 3
    ในคำอธิบายเขียนว่า “แก้ปัญหาซับซ้อน” เทียบกับ “คิดยาวสำหรับคณิตศาสตร์ขั้นสูง·โค้ด”
    น่าจะต่างกันที่ thinking budget

    • ดูเหมือนโครงสร้างจะเป็น Fast = Flash (thinking budget ต่ำ), Thinking = Flash (thinking budget สูง), Pro = Pro (thinking budget สูง)
    • ในทางปฏิบัติน่าจะควบคุมผ่านพารามิเตอร์ thinking_level
    • ผมสงสัยว่า ‘Thinking’ ของ Gemini ต่างจาก AGI ยังไง
      Gemini ยังเป็นแค่การคิดแบบอิงตาม query เสมอ
      ถ้าเพิ่ม loop และ context แบบต่อเนื่องเข้าไป มันอาจดูเหมือน AGI ได้ แต่ต้นทุนก็จะสูงขึ้น
      Google เองก็น่าจะเคยลองอะไรแบบนี้ไปแล้ว
  • ข้อบ่นหลักของผมคือ ไม่มีฟีเจอร์ลบแชต
    ในบัญชีธุรกิจลบแชตรายรายการไม่ได้ และทำได้แค่ตั้งระยะเวลาเก็บข้อมูลทั้งหมดเท่านั้น (ขั้นต่ำ 3 เดือน)
    ในฐานะผู้ใช้แบบจ่ายเงิน รู้สึกว่าฟีเจอร์พื้นฐานยังขาดเมื่อเทียบกับราคาที่แพงขึ้นเรื่อยๆ

    • ถ้าใช้ผ่าน API ก็จะเลี่ยงปัญหานี้ได้
    • ทั้งฝั่งผู้ใช้ทั่วไปและองค์กรต่างก็มี การควบคุมการเก็บข้อมูล ที่แย่มาก ถือว่าแย่สุดในบรรดาคู่แข่งรายใหญ่
  • ถ้าดูการเทียบราคาเร็วๆ จาก LLM Prices จะเห็นว่า
    Gemini 3 Flash มีราคา 1/4 ของ Pro ≤200k และ 1/8 ของ Pro >200k
    ที่น่าประทับใจคือราคามันไม่ขึ้นแม้เกิน 200k token แล้ว
    ถ้าเทียบฝั่ง input มันแพงกว่า GPT-5 Mini สองเท่า แต่ถูกกว่า Claude 4.5 Haiku ครึ่งหนึ่ง