1 คะแนน โดย GN⁺ 2025-09-27 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • Google เปิดตัวพรีวิวเวอร์ชันใหม่ของ Gemini 2.5 Flash และ 2.5 Flash-Lite โดยมีจุดสำคัญคือ ยกระดับคุณภาพและเพิ่มประสิทธิภาพ
  • Flash-Lite เหมาะกับสภาพแวดล้อมที่ต้องการความเร็วสูงและต้นทุนต่ำ ด้วย ความสามารถในการเข้าใจคำสั่งที่ดีขึ้น ลดคำตอบที่เยิ่นเย้อ และเพิ่มความสามารถด้านมัลติโหมดและการแปล
  • Flash มี ความสามารถในการใช้เครื่องมือที่ดีขึ้น และประสิทธิภาพการใช้โทเค็นที่ดีขึ้น ทำให้ประสิทธิภาพสูงขึ้นมากในงานแบบเอเจนต์ที่ซับซ้อน
  • ในการทดสอบจริง คะแนน SWE-Bench Verified เพิ่มขึ้น 5% และในเบนช์มาร์กภายใน ประสิทธิภาพของงานระยะยาว ดีขึ้น 15%
  • ทั้งสองโมเดลรองรับ alias -latest ทำให้ใช้ความสามารถล่าสุดได้โดยไม่ต้องแก้โค้ด และหากต้องการความเสถียร ก็ยังสามารถใช้โมเดล 2.5 เดิมต่อไปได้

ภาพรวมของ Gemini 2.5 Flash และ Flash-Lite

  • Google เปิดตัว Gemini 2.5 Flash และ Flash-Lite เวอร์ชันล่าสุดบน Google AI Studio และ Vertex AI โดยเป้าหมายของรีลีสครั้งนี้คือการมอบคุณภาพโมเดลที่ดีขึ้นอย่างต่อเนื่องและประสิทธิภาพที่สูงขึ้น
  • Flash-Lite และ Flash รุ่นใหม่แสดงให้เห็นถึงการปรับปรุงครั้งใหญ่เมื่อเทียบกับโมเดลก่อนหน้า ทั้งในด้านคุณภาพโดยรวม ความเร็ว และต้นทุน
  • Flash-Lite ลดโทเค็นเอาต์พุตลง 50% และ Flash ลดลง 24% ช่วยประหยัดค่าใช้งานและเพิ่มความเร็วในการประมวลผล

Updated Gemini 2.5 Flash-Lite

  • การทำตามคำสั่งที่ดีขึ้น: ความสามารถในการเข้าใจและปฏิบัติตามคำสั่งที่ซับซ้อนหรือ system prompt ดีขึ้นอย่างมาก
  • กระชับมากขึ้น: สร้างคำตอบที่สั้นลงและเข้าใจง่ายขึ้น ช่วยลดต้นทุนโทเค็นและลดเวลาแฝงในสภาพแวดล้อมที่มีทราฟฟิกขนาดใหญ่
  • ยกระดับคุณภาพด้านมัลติโหมดและการแปล: เพิ่มความน่าเชื่อถือทั้งในการถอดเสียงเสียง การรู้จำภาพ และคุณภาพการแปล
  • สามารถทดลองใช้ Flash-Lite พรีวิวได้ทันทีภายใต้ชื่อโมเดล gemini-2.5-flash-lite-preview-09-2025

Updated Gemini 2.5 Flash

  • ความสามารถในการใช้เครื่องมือที่ดีขึ้น: การใช้งานแบบเอเจนต์ในสถานการณ์หลายขั้นตอนที่ซับซ้อนดีขึ้นอย่างมาก โดยทำคะแนนตามเกณฑ์ SWE-Bench Verified ได้สูงกว่ารุ่นก่อน 5 จุดเปอร์เซ็นต์ (48.9% → 54%)
  • เพิ่มประสิทธิภาพด้านต้นทุน: ใช้โทเค็นน้อยลงแต่ให้คุณภาพเอาต์พุตสูงขึ้น ช่วยลดเวลาแฝงและต้นทุนโครงสร้างพื้นฐาน
  • ฟีดแบ็กจากผู้ใช้ Primer ก็เป็นไปในทางบวก
    • Yichao ‘Peak’ Ji ผู้ร่วมก่อตั้งและ Chief Scientist ของ Manus ประเมินว่า “โมเดล Gemini 2.5 Flash ใหม่มอบทั้งความเร็วและความฉลาดที่น่าทึ่ง ในงานเอเจนต์ที่อิงเป้าหมายระยะยาว ประสิทธิภาพดีขึ้น 15% ทำให้ขยายสเกลได้มากขึ้นบนพื้นฐานของความคุ้มค่าด้านต้นทุน”
  • Gemini 2.5 Flash พรีวิวสามารถใช้งานได้ภายใต้ชื่อโมเดล gemini-2.5-flash-preview-09-2025

เริ่มสร้างด้วย Gemini

  • ตลอดปีที่ผ่านมา การเปิดตัวโมเดลพรีวิวช่วยให้นักพัฒนาสามารถทดลองใช้ความสามารถล่าสุดได้อย่างรวดเร็วและส่งฟีดแบ็กกลับมา
  • พรีวิวเวอร์ชันที่เปิดตัวในวันนี้ยังไม่ใช่การเปลี่ยนสถานะอย่างเป็นทางการไปเป็น เวอร์ชันเสถียร (stable) ใหม่ แต่จะถูกใช้เป็นฐานเพื่อยกระดับคุณภาพของเวอร์ชันทางการถัดไป
  • มีการเพิ่ม alias -latest เพื่อให้ใช้งานโมเดลล่าสุดได้ง่ายโดยไม่ต้องใช้ชื่อโมเดลที่ยาว โดย alias นี้จะชี้ไปยังเวอร์ชันล่าสุดโดยอัตโนมัติ ทำให้ทดลองใช้ความสามารถใหม่ได้โดยไม่ต้องแก้โค้ด
    • gemini-flash-latest
    • gemini-flash-lite-latest
  • หากมีการอัปเดตหรือยุติเวอร์ชันใด จะมีการแจ้งทางอีเมลล่วงหน้าอย่างน้อย 2 สัปดาห์ โดย alias เป็นเพียงการอ้างอิงเท่านั้น ส่วนราคา ฟีเจอร์ และลิมิตอาจแตกต่างกันไปในแต่ละรีลีส
  • หากต้องการความเสถียรในระยะยาว แนะนำให้ใช้ชื่อโมเดล gemini-2.5-flash และ gemini-2.5-flash-lite ต่อไป

ความหมายของการอัปเดตครั้งนี้

  • รีลีสครั้งนี้เป็น การอัปเดตพรีวิว ไม่ใช่การเลื่อนสถานะเป็นเวอร์ชันเสถียรอย่างเป็นทางการ และเป็นกระบวนการทดลองพร้อมเก็บฟีดแบ็กจากผู้ใช้เพื่อเตรียมโมเดลเสถียรในอนาคต
  • Google ยังคงพัฒนา Gemini อย่างต่อเนื่องโดยมุ่งหาสมดุลระหว่าง ความเร็ว ความฉลาด และความคุ้มค่าด้านต้นทุน เพื่อช่วยให้นักพัฒนาสร้างแอปพลิเคชัน AI ที่ดีขึ้น

1 ความคิดเห็น

 
GN⁺ 2025-09-27
ความเห็นจาก Hacker News
  • เป็นเนื้อหาที่ชี้ปัญหาที่รู้สึกได้ดีมากจากการใช้ Gemini ช่วงหลัง ตัวโมเดลเองยอดเยี่ยมจริง แต่เวลาใช้งานจริงมักเกิดปัญหาที่บทสนทนาถูกตัดกลางคันซ้ำ ๆ ดูแล้วไม่น่าใช่เพราะข้อจำกัดโทเคนหรือฟิลเตอร์ แต่คาดว่าเป็นบั๊กที่โมเดลส่งสัญญาณว่าตอบเสร็จแล้วผิดพลาด เรื่องนี้ถูกเปิดเป็นประเด็น P2 อยู่บน GitHub และฟอรัมนักพัฒนามาหลายเดือนแล้ว ถ้าเอาคำตอบฉบับเต็มของ Gemini ไปเทียบกับ Claude หรือ GPT-4 คุณภาพก็ไม่ได้แย่มากนัก แต่ความน่าเชื่อถือสำคัญกว่า ถึงจะไม่สมบูรณ์แบบแต่โมเดลที่ตอบจนจบได้เสมอก็ใช้งานง่ายกว่า แม้ Google จะมีความสามารถทางเทคนิคสูง แต่ถ้ายังไม่แก้ปัญหาพื้นฐานเรื่องลำดับการสนทนาแบบนี้ ต่อให้ benchmark ดีแค่ไหนก็ยังให้ความรู้สึกว่าเสียเมื่อเทียบกับคู่แข่ง ดูอ้างอิงที่ issue #707 และ การสนทนาในฟอรัมนักพัฒนา ได้
    • พูดถึงข้อเสียอีกอย่างของ Gemini คือจัดการทั้ง tool calling และการบังคับให้ส่งออกเป็น JSON พร้อมกันไม่ได้ ถ้าระบุ application/json ตอนร้องขอ ก็จะใช้ทูลไม่ได้ และถ้าจะใช้ทั้งคู่ก็ต้องหวังว่า JSON จะออกมาถูกเองแบบฝืน ๆ (ซึ่งล้มเหลวบ่อย) หรือไม่ก็ใช้ทูลในคำขอแรก แล้วค่อยจัดรูปแบบในคำขอที่สอง ถึงจะยุ่งยากแต่ทางอ้อมก็ยังค่อนข้างตรงไปตรงมา
    • ไม่ได้เป็นปัญหาของ Gemini อย่างเดียว เพราะ ChatGPT เองก็เคยเจอปัญหาใหญ่ด้านความน่าเชื่อถือบ่อยเหมือนกัน
    • ไม่เข้าใจจริง ๆ ว่าทำไมปัญหาเล็ก ๆ แบบนี้ หรือแม้แต่การที่ AI Studio ยังเลื่อนหน้าจอไม่ค่อยได้ ถึงยังมีอยู่ ทั้งที่เป็นเครื่องมือที่น่าทึ่งขนาดนี้แต่กลับขาดฟีเจอร์พื้นฐาน
    • ฉันก็รู้สึกคล้ายกัน Gemini 2.5 Pro เข้ากับงานสถาปัตยกรรมซอฟต์แวร์ได้ดีมาก แต่การต้องคอยกระตุ้นมันตลอดทำให้เหนื่อย Sonnet ก็ทำได้ดีพอเหมือนกัน
    • chatgpt เองก็มีปัญหาความน่าเชื่อถือเยอะเหมือนกัน
  • ได้เพิ่มการรองรับโมเดลนี้ให้กับปลั๊กอิน llm-gemini แล้ว สามารถรันผ่าน uvx ได้โดยไม่ต้องติดตั้งแยก ตัวอย่าง:
export LLM_GEMINI_KEY='...'
uvx --isolated --with llm-gemini llm -m gemini-flash-lite-latest 'An epic poem about frogs at war with ducks'

ดู release note ได้ที่ นี่ และดูประเด็นเกี่ยวกับนกเพลิแกนได้ที่ โพสต์นี้

  • สงสัยว่ารูปตัวอย่าง SVG ของนกเพลิแกนขี่จักรยานกำลังถูกใส่เข้าไปในชุดข้อมูลฝึกอยู่หรือเปล่า ในกลุ่มวิศวกรสายนี้ก็น่าจะมีหลายคนที่เข้า Hacker News บ่อย
  • สุดท้ายแล้วใครจะชนะกันแน่ กบ? เป็ด? หรือเพลิแกน?
  • ถ้า 2.5 เป็นโมเดลที่ปรับปรุงแล้ว ทำไมถึงไม่เป็นเวอร์ชัน 2.6 สับสนเพราะต้องแยก 2.5 ตัวเก่ากับ 2.5 ตัวใหม่ มันชวนปวดหัวคล้ายตอนที่ Apple ออก "the new iPad" โดยไม่ใส่เลขรุ่น
    • นั่นจึงเป็นเหตุผลที่หลายคนเรียก Sonnet v3.5 เวอร์ชันที่สองว่า v3.6 และ Anthropic ก็เลยตั้งตัวถัดไปเป็น v3.7
    • ปกติมักเรียกโมเดลตามเดือน/ปีที่ออก เช่น Gemini 2.5 Flash รุ่นล่าสุดจะเรียกว่า "google/gemini-2.5-flash-preview-09-2025" อ้างอิง
    • 2.5 ไม่ใช่ชื่อเวอร์ชัน แต่เป็นตัวบอกเจเนอเรชันของสถาปัตยกรรม ถ้าเทียบกับ Mazda 3 ก็ไม่ใช่ ‘Mazda 4’ แต่เป็นเหมือนการเพิ่ม trim level ใหม่หรือปรับโฉมเล็กน้อยให้รุ่นเดิม เห็นด้วยว่า SemVer น่าจะดีกว่า
    • เดาว่าอาจตั้งใจสื่อว่าเป็นแค่ระดับ bug fix
    • แต่พอเป็นแบบนี้กลับยิ่งงงว่า ระหว่าง 2.6 Flash กับ 2.5 Pro อะไรดีกว่ากัน
  • Google ดูเหมือนจะโฟกัสกับ latency, TPS และต้นทุนมากเป็นพิเศษในบรรดาผู้ให้บริการ foundation model รายใหญ่ Anthropic และ OpenAI อาจนำในด้านความฉลาดของโมเดล แต่เมื่ออยู่ต่ำกว่าจุดวิกฤตด้านประสิทธิภาพ การตอบช้าจะสร้างความไม่สะดวกให้กับเครื่องมือแบบ collaborative โมเดลที่ฉลาดน้อยลงนิดแต่เร็วแบบ Gemini กลับให้ประสบการณ์ workflow ที่ลื่นกว่า อย่างไรก็ตาม บางครั้งมันก็ให้ความรู้สึกทื่อมากเมื่อเทียบกับ claude หรือ gpt-5
    • ส่วนตัวสงสัยว่ากรอบแบ่งขั้วแบบนี้ตรงกับความจริงแค่ไหน Gemini ดูไม่ได้ด้อยกว่าในด้าน “ความฉลาด” มากขนาดนั้น และคาดว่าช่องว่างระหว่างรอบโมเดลจะยิ่งแคบลงต่อไป อีกทั้ง Google น่าจะทุ่มความสามารถไม่ใช่แค่กับ latency/TPS/ต้นทุน แต่ยังรวมถึงการผสานโมเดลของตัวเองเข้าไปในผลิตภัณฑ์หลากหลายอย่างรวดเร็ว ไม่ใช่แค่ chatbot เช่น Google Workspace, Google Search รวมถึงพื้นที่ใหม่อย่าง jules หรือ labs.google/flow, แดชบอร์ดการเงิน ก็กำลังทดลองอย่างจริงจัง คิดว่าการเอา Gemini ไปใส่ใน YouTube ก็เป็นเรื่องของเวลา
    • ช่วงนี้กำลังลดการใช้ Gemini (2.5-pro) ลง ก่อนหน้านี้เคยประทับใจกับความสามารถด้าน deep research และการอ้างอิงที่น่าเชื่อถือ แต่ในช่วงไม่กี่สัปดาห์ที่ผ่านมา มันเริ่มเถียงมากขึ้นและแยกไม่ออกด้วยว่าตัวเองกำลัง hallucinate เรื่องแหล่งข้อมูล ตัวอย่างคือถามเรื่องการเข้าถึง secrets map ของ Github Actions แต่แทนที่จะตอบตรง ๆ กลับยกตัวอย่าง workflow test ที่ผิดมาให้ และไม่ว่าจะทักท้วงอย่างไรก็ยังเถียงวนไปมา ตรงกันข้าม Chatgpt ตอบได้ไม่มีปัญหา ดูอ้างอิงที่ แรก, สอง
    • ส่วนตัวมองว่าศึกเรื่อง Latency/TPS/cost เป็นการต่อสู้กันระหว่าง grok กับ gemini flash สองตัวนี้ไม่มีใครตามทันในงาน image→text ขณะที่ OpenAI และ Anthropic ดูไม่ได้สนใจด้านนี้มากนัก
    • เมื่อ 10 ปีก่อนมีคำพูดว่า “ก่อนแต่งงาน ลองให้เขานั่งกับอินเทอร์เน็ตช้า ๆ ดู” ตอนนี้น่าจะกลายเป็น “ก่อนแต่งงาน ลองให้เขานั่งหน้าโมเดล AI ที่ช้า ๆ ดู” ;-)
    • ไม่ค่อยเห็นด้วย Gemini ไม่ได้เด่นแค่เรื่องความคุ้มราคา/ประสิทธิภาพ แต่สำหรับผู้ใช้ทั่วไปมันคือโมเดล “ใช้งานประจำวัน” ที่ดีที่สุด โดยเฉพาะในด้าน “agentic” อย่างการเขียนโค้ด มันยังห่างจาก Claude หรือ GPT-5 มาก แต่เรื่องบทสนทนายาว ๆ และการจำบริบทก่อนหน้า Gemini ทำได้ดีที่สุด เวลา debug แล้วเปิดหลายโมเดลพร้อมกัน มีแค่ Gemini ที่หยิบจุดสำคัญจากข้อความก่อนหน้าได้และให้ตัวอย่างโค้ดได้แม่นยำ มันยังเหนือกว่ามากในด้านการรองรับภาษาทรัพยากรต่ำ, OCR และการรู้จำภาพ เพียงแต่ตอนนี้ Google ยังอ่อนที่สุดในด้านการตลาดและ AI UX แต่ถ้าปรับปรุงได้ก็น่าจะโตได้อีกมาก ซึ่งตัวฉันเองก็ใช้ทั้งสามโมเดลควบคู่กันแทบทุกวัน
  • สรุปแบบ Non-AI: ทั้งสองโมเดลฉลาดขึ้นในดัชนีการวิเคราะห์ของ AI และเวลาในการตอบแบบ end-to-end ก็สั้นลง ประสิทธิภาพของ output token ดีขึ้น 24%~50% (ช่วยลดต้นทุนได้) จุดปรับปรุงหลักของ Gemini 2.5 Flash-Lite คือเข้าใจคำสั่งดีขึ้น ลดความเยิ่นเย้อที่ไม่จำเป็น และเสริมความสามารถด้านมัลติโหมด/การแปล ส่วน Gemini 2.5 Flash เด่นเรื่องการใช้ agent tool ที่ทรงพลังขึ้นและการให้เหตุผลที่มีประสิทธิภาพด้านโทเคนมากขึ้น model string คือ gemini-2.5-flash-lite-preview-09-2025 และ gemini-2.5-flash-preview-09-2025
    • คิดว่าสไตล์แบบ “Non-AI summary” น่าจะกลายเป็นเทรนด์ต่อไป แค่รู้ว่ามนุษย์เป็นคนสรุปเองก็ทำให้อ่านสนุกขึ้นแล้ว
    • จะขอยืมคำว่า “Non-AI Summary” ไปใช้
    • สงสัยว่าคำว่า “output token efficiency” หมายถึงอะไร Gemini Flash คิดค่าบริการตามจำนวน input/output token ดังนั้นถ้าผลลัพธ์เท่ากัน ต้นทุนก็ควรเท่ากัน เว้นแต่ว่าจะมีการเปลี่ยน tokenizer หรือวิธีภายในบางอย่าง ไม่อย่างนั้นก็ไม่เข้าใจว่าลดต้นทุนได้อย่างไร
    • 2.5 Flash คือสิ่งที่ทำให้ AI มีประโยชน์จริงเป็นครั้งแรกสำหรับฉัน เดิมทีฉันเป็นพวกเกลียด AI อันดับหนึ่ง แต่ตอนนี้กลับเปิดแอป Gemini ก่อน Google Search เสียอีก เพราะมันแม่นยำกว่า ไม่มีโฆษณา และข้อมูลที่ให้ส่วนใหญ่ก็ถูกต้อง ให้ความรู้สึกเหมือนถือความรู้ที่แม่นยำของอินเทอร์เน็ตไว้ในมือ ฉันนั่งคุยกับแอป Gemini คนเดียวเรื่องอุณหภูมิที่เหมาะกับการหว่านเมล็ดเคลได้เป็นนาน มันโฟกัสกว่าการไล่อ่านบล็อก บอต และ SEO spam สารพัด เพียงแต่ยังมีคำถามว่า Google จะรักษาสภาพนี้ได้นานแค่ไหน และปัญหาเรื่องกินรายได้ผลิตภัณฑ์เดิมก็ยังคงอยู่
    • โดยรวมดูเป็นการปรับปรุงแบบค่อยเป็นค่อยไปเมื่อเทียบกับเวอร์ชันก่อน
  • เป็นการบ่นเล็ก ๆ เรื่องเลขเวอร์ชัน แต่ถ้ามีการปรับปรุงก็ควรเพิ่มเลขทุกครั้งจะตรงไปตรงมากว่า พอออกมาแบบนี้เลยชวนสับสน
    • ฉันก็ไม่ชอบเหมือนกัน Anthropic ก็เคยทำคล้าย ๆ กันจนเกิดดราม่าเรื่อง “nerf” เราซื้อโทเคนเป็นแพ็ก มีอายุใช้งานสั้น และก็แทบไม่รู้เลยว่าโมเดลถูกอัปเดตจริงแค่ไหน ต่อให้ดีขึ้นหรือแย่ลงแค่ 1% ก็ควรเปิดเผย โดยพื้นฐานแล้วบริษัท AI ควรรักษาความโปร่งใสและการเข้าถึงให้ดีกว่านี้ ดูกรณีที่เกี่ยวข้องได้ที่ Claude incident
    • นี่ไม่ใช่แค่เรื่องจุกจิก แต่เป็นปัญหาร้ายแรง เพราะนโยบายแบบนี้ทำให้การนับเวอร์ชันหมดความหมายไปเลย
    • น่าจะเป็นแนวคิดแบบเอามาแทนที่โมเดล 2.5 Flash เดิม ทำให้นึกถึงกรณีที่ openai อัปเดตโมเดล 4-o แบบเงียบ ๆ และเคย rollback เพราะปัญหา glazing
  • ควรมีระบบจัดการเวอร์ชันแบบ semver ที่มีความหมายสำหรับแต่ละโมเดลขึ้นมาใหม่ เพื่อแยกความแตกต่างให้ชัดระหว่างการจูนเล็กน้อยกับการ retrain หรือเปลี่ยนสถาปัตยกรรมแบบเต็มรูปแบบ
  • Gemini 2.5 Flash เป็น LLM ที่ฉันใช้บ่อยที่สุดในช่วงนี้ โดยเฉพาะเรื่อง image input และ structured output มันดีกว่า OpenAI/Anthropic
    • Gemini 2.5 Flash เหนือกว่า ChatGPT 5 แบบขาดลอยในสายงานของฉัน น่าแปลกใจที่มันไม่ค่อยได้รับความนิยมขนาดนั้น
    • ยังไม่ได้เช็กว่าราคาเปลี่ยนหรือไม่
  • มีใครใช้ Gemini คนละตัวกับฉันหรือเปล่า เพราะที่บริษัทใช้ Google Workspace เลยมี Gemini ติดมาด้วย แต่ผลลัพธ์เทียบกับโมเดลอื่นแล้วแย่มากจนตกใจ ทุกคนชมกันใหญ่ แต่ Gemini ที่ฉันเจอทั้งตอบผิด ทั้งยาวเกินไป (อยากได้สรุปแต่กลับได้เรียงความ) จนไม่น่าพอใจเลย ถ้าถามคำถามเดียวกันกับ Gemini และ ChatGPT เวอร์ชันค่อนข้างอ่อนด้วยซ้ำ ChatGPT ยังดีกว่ามาก ฉันพลาดอะไรไปหรือเปล่า?
    • ฉันใช้แค่ใน ai studio และที่นั่นมันดีกว่าโมเดลอื่นชัดเจน ส่วนการผสานกับ IDE อะไรพวกนั้นยังไม่เคยลอง แต่ต้องคอยเตือนมันไม่ให้ชมมากเกินไป และนั่นก็ช่วยเรื่องการจัดการ context window ได้ด้วย
    • ฉันก็คล้ายกัน แทบไม่ได้ใช้เลยนอกจากงานแปล และแม้แต่งานแปลมันก็ยังปฏิเสธหรือทำตัวแปลก ๆ เป็นบางครั้ง ล่าสุดถึงขั้นตอบคำถามพื้นฐานด้วยเครื่องหมายจุลภาคตัวเดียว หรือไม่ก็ปฏิเสธเพราะอ้างประเด็นจริยธรรมแปลก ๆ (เช่น “กระเป๋าเป้ที่มีฮู้ด”) ปัญหาใหญ่ที่สุดคือมันปฏิเสธคำขอที่ไม่น่ามีปัญหาด้วย
    • ขึ้นกับงาน ถ้าเป็น Q&A ตรง ๆ GPT-5 ดีกว่า แต่ถ้าเป็นงานเขียนอย่างเอาประโยคไปทำเป็นรายงาน สรุป หรือเน้นประเด็น Gemini ดีที่สุด
    • ส่วนตัวคิดว่าสิ่งที่ ChatGPT เด่นคือมันตีความคำถามได้ดีโดยไม่ต้องให้คำอธิบายเพิ่ม และจัดรูปแบบให้อ่านง่าย รู้สึกว่า post-training ของ GPT ไปไกลกว่าอีกขั้น
    • อาจเป็นไปได้ว่าคุณกำลังใช้งานมันผิดวิธี
  • Gemini 2.5 Flash เป็นโมเดลที่ประสิทธิภาพต่อราคาน่าประทับใจมาก ถึงอย่างนั้นก็ยังไม่เข้าใจว่าทำไม Gemini 2.0 Flash ถึงยังได้รับความนิยมอยู่ ตัวเลขล่าสุดจาก OpenRouter:
    • xAI: Grok Code Fast 1: 1.15T
    • Anthropic: Claude Sonnet 4: 586B
    • Google: Gemini 2.5 Flash: 325B
    • Sonoma Sky Alpha: 227B
    • Google: Gemini 2.0 Flash: 187B
    • DeepSeek: DeepSeek V3.1 (ฟรี): 180B
    • xAI: Grok 4 Fast (ฟรี): 158B
    • OpenAI: GPT-4.1 Mini: 157B
    • DeepSeek: DeepSeek V3 0324: 142B
    • ข้อเสียอย่างหนึ่งของ OpenRouter คือไม่เปิดเผยจำนวนบริษัทที่ใช้งานจริงของแต่ละโมเดล ถ้าลูกค้ารายใหญ่แค่รายเดียวเปลี่ยนไปใช้ตัวอื่น ตัวชี้วัดก็อาจเปลี่ยนได้เลย อยากให้โปร่งใสมากกว่านี้ในจุดนี้
    • ที่บริษัทเราก็มีงานจำนวนมากที่ยังค้างอยู่บนโมเดลเก่าและไม่ได้อัปเดต
    • เพราะราคาไง 2.0 Flash ถูกกว่า 2.5 Flash และก็ยังเป็นโมเดลที่ดีมากอยู่
    • 2.0 Flash ถูกกว่า 2.5 Flash อย่างชัดเจน และก่อนอัปเดตล่าสุดมันยังดีกว่า 2.5-Flash-Lite ด้วยซ้ำ เหมาะเป็นม้างานสำหรับงานอย่าง text parsing, การสรุป, การรู้จำภาพ แต่ตอนนี้พอ 2.5-Flash-Lite ออกมา ก็น่าจะถูกแทนที่แล้ว
    • น่าจะเป็นเพราะขี้เกียจเปลี่ยนชื่อให้ตรงกับเวอร์ชันล่าสุด เลยทำให้ 2.5 Flash เองก็ยังคงใช้ระบบชื่อเดิมอยู่