- Gemini 2.5 Flash คือ โมเดลการให้เหตุผลแบบไฮบริด ที่ให้บริการผ่าน Google AI Studio และ Vertex AI โดยยกระดับความสามารถด้านการให้เหตุผลขึ้นอย่างมาก พร้อมคงไว้ซึ่งความเร็วและต้นทุน
- มี ฟีเจอร์ thinking (on/off) และการตั้งค่า thinking_budget เพื่อปรับ ประสิทธิภาพ ต้นทุน และเวลาแฝง ได้อย่างละเอียด
- สามารถกำหนด งบการคิด เพื่อควบคุมจำนวนโทเค็นสูงสุดที่โมเดลใช้สร้างคำตอบได้อย่างละเอียด และให้คำตอบที่แม่นยำและครอบคลุมมากขึ้นสำหรับงานที่ซับซ้อน
- เป็น โมเดลการให้เหตุผลที่คุ้มค่าที่สุดของ Google โดยให้ประสิทธิภาพสูงเมื่อเทียบกับต้นทุนต่ำ และปรับใช้อย่างยืดหยุ่นให้เหมาะกับกรณีใช้งานที่หลากหลาย
- ขณะนี้ เปิดให้ใช้งานในรูปแบบพรีวิว บน Google AI Studio และ Vertex AI และสามารถตั้งค่าผ่าน API ได้
เปิดตัวพรีวิว Gemini 2.5 Flash
- Google เปิดตัว Gemini 2.5 Flash ในรูปแบบ พรีวิว (preview) ผ่าน Google AI Studio และ Vertex AI
- ความสามารถด้านการให้เหตุผลดีขึ้นอย่างมากเมื่อเทียบกับ 2.0 Flash โดยยังคง ความเร็วและความคุ้มค่าด้านต้นทุน
- เป็น โมเดลการให้เหตุผลแบบไฮบริดเต็มรูปแบบ รุ่นแรก ที่เปิดให้นักพัฒนา เปิดหรือปิดโหมด thinking ได้
- สามารถใช้การตั้งค่า thinking_budget เพื่อปรับสมดุลระหว่าง คุณภาพ ต้นทุน และเวลาแฝงของการตอบสนอง
- แม้จะปิดโหมดคิด ก็ยังคงมีประสิทธิภาพดีกว่า 2.0 Flash
ความสามารถด้านการให้เหตุผลของ Gemini 2.5 Flash
- Gemini 2.5 Flash ไม่ได้สร้างคำตอบทันที แต่ใช้โครงสร้างที่ คิดก่อนแล้วค่อยตอบ
- สำหรับปัญหาซับซ้อน โจทย์คณิตศาสตร์ หรือคำถามเชิงวิเคราะห์งานวิจัย จะสามารถ สร้างคำตอบที่แม่นยำและครอบคลุมยิ่งขึ้น
- บน เกณฑ์วัดผล Hard Prompts ของ LMArena แสดง ประสิทธิภาพสูงเป็นรองเพียง 2.5 Pro
- ให้ประสิทธิภาพใกล้เคียงกันด้วย ราคาที่ถูกกว่า และ ขนาดโมเดลที่เล็กกว่า เมื่อเทียบกับโมเดลอื่น
โมเดลการให้เหตุผลที่คุ้มค่าที่สุด
- Gemini 2.5 Flash ถูกประเมินว่าเป็น โมเดลการให้เหตุผลที่ให้ประสิทธิภาพต่อราคาดีที่สุด
- ถูกเพิ่มเข้าไปใหม่ใน เส้นโค้งประสิทธิภาพต่อความคุ้มค่าด้านต้นทุน (Pareto frontier) ของ Google
ฟีเจอร์ปรับระดับการคิด: thinking_budget
- มีความสามารถในการ ปรับจูนอย่างละเอียด ระหว่างคุณภาพ ต้นทุน และเวลาแฝง ให้เหมาะกับกรณีใช้งานที่หลากหลาย
- thinking_budget หมายถึง จำนวนโทเค็นสูงสุด ที่โมเดลสามารถใช้ไปกับการคิด
- ตัวอย่าง: หากเพิ่ม budget คุณภาพจะดีขึ้น แต่ต้นทุนและเวลาแฝงก็จะเพิ่มขึ้น
- สำหรับคำถามง่าย ๆ ที่ไม่จำเป็นต้องคิดมาก ระบบจะใช้ budget ต่ำ โดยอัตโนมัติ
- ช่วง budget คือ 0 ~ 24,576 โทเค็น และสามารถปรับได้ด้วยสไลเดอร์หรือพารามิเตอร์ API ใน AI Studio และ Vertex AI
ตัวอย่างพรอมป์ตามระดับการคิด
ต้องการการให้เหตุผลระดับต่ำ
- “Thank you” เป็นภาษาสเปน
- ถามจำนวนจังหวัดของแคนาดา
ต้องการการให้เหตุผลระดับกลาง
- คำนวณความน่าจะเป็นที่จะทอยลูกเต๋าสองลูกแล้วได้ผลรวมเป็น 7
- จัดตารางเวลาที่สามารถเล่นบาสเก็ตบอลได้ 5 ชั่วโมงในวันธรรมดาโดยอิงจากตารางงาน
ต้องการการให้เหตุผลระดับสูง
- ปัญหาการคำนวณความเค้นทางวิศวกรรมเครื่องกลของคาน
- โจทย์การเขียนฟังก์ชันประเมินสูตรสไตล์ Excel
- ต้องมีการแก้ dependency, ลำดับความสำคัญของตัวดำเนินการ และการตรวจจับการอ้างอิงวนซ้ำ
เริ่มต้นใช้งาน
- ใช้งานเวอร์ชัน preview ได้แล้วใน Google AI Studio, Vertex AI และแอป Gemini
- ทดลองพารามิเตอร์
thinking_budget เพื่อ สำรวจความเป็นไปได้ในการแก้ปัญหาที่ซับซ้อน
- ตัวอย่างโค้ด:
from google import genai
client = genai.Client(api_key="GEMINI_API_KEY")
response = client.models.generate_content(
model="gemini-2.5-flash-preview-04-17",
contents="You roll two dice. What’s the probability they add up to 7?",
config=genai.types.GenerateContentConfig(
thinking_config=genai.types.ThinkingConfig(
thinking_budget=1024
)
)
)
print(response.text)
- ดูรายละเอียดเพิ่มเติมได้ที่ เอกสารสำหรับนักพัฒนา และ Gemini Cookbook
- ในอนาคตจะมีการเพิ่มฟีเจอร์อีกมากขึ้น และ จะปรับปรุงอย่างต่อเนื่องจนกว่าจะเปิดตัวอย่างเป็นทางการ
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
การที่ Google เปิดให้ใช้ Gemini 2.5 Pro (เวอร์ชันทดลอง) ฟรีเป็นเรื่องใหญ่มาก ฉันไม่เคยใช้โมเดลที่แพงกว่าของ OpenAI เลยเปรียบเทียบตรงๆ ไม่ได้ แต่เมื่อเทียบกับโมเดลฟรีที่เคยใช้มาก่อน Gemini 2.5 Pro ก้าวหน้าไปมาก โมเดลนี้ฉลาดกว่าฉันในเกือบทุกหัวข้อที่ฉันรับมืออยู่ และมันไม่ได้พยายามเห็นด้วยกับฉัน แต่โต้แย้งกับฉันแทน ตอนนี้การใช้งาน AI แบบสบายๆ ของฉันทั้งหมดไปอยู่ที่ Gemini แล้ว และฉันก็ตั้งตารอที่จะถามเรื่องเชิงลึกมากขึ้น ฉันกำลังสร้างเครื่องมือใหม่เพื่อเพิ่มมูลค่าของโมเดลนี้ให้มากขึ้น
หนึ่งในความสามารถของโมเดล Gemini ที่มักถูกมองข้ามคือ มันสามารถเขียนและรันโค้ด Python ได้โดยตรงผ่าน API ปลั๊กอิน llm-gemini ของฉันรองรับสิ่งนี้: ลิงก์ GitHub ไม่มีค่าใช้จ่ายเพิ่มเติมสำหรับการรันโค้ด โดยจ่ายเฉพาะโทเค็นอินพุตและเอาต์พุตเท่านั้น ตัวอย่างเช่น ใช้อินพุต 10 และเอาต์พุต 1,531 มีค่าใช้จ่าย 0.536 เซนต์
โมเดล Gemini Flash อาจเป็นรุ่นที่ถูกพูดถึงน้อยที่สุด แต่ในการใช้งานจริงมันให้ความคุ้มค่าต่อราคาดีที่สุด และมีเครื่องมือมัลติโหมดให้ด้วย Google กำลังชนะการแข่งขัน AI แบบเงียบๆ
ข้อมูลที่ซ่อนอยู่เมื่อเจาะลึกเอกสารของ Gemini 2.5 Flash: สำหรับอินพุตภาพ โมเดลนี้ไม่เพียงสร้าง 2D bounding boxes ของหัวข้อที่เกี่ยวข้องได้ แต่ยังสร้าง segmentation masks ได้ด้วย การสร้าง segmentation masks ด้วยโมเดล Flash ในระดับราคานี้ถือว่าเจ๋งมาก โดยทำผ่านการสร้างสตริง b64 ที่แทน mask
สำหรับฉันที่ไม่ใช่โปรแกรมเมอร์ Google กำลังดีขึ้นอย่างน่าทึ่ง มันให้โค้ดที่ใช้งานได้ตั้งแต่แรกเริ่ม ตอนที่ฉันขอให้เขียนโค้ดเพื่อ scrape และวิเคราะห์ข้อมูลจากเว็บไซต์ มันก็เขียนโค้ดสำหรับ scrape และวิเคราะห์ข้อมูลให้เลย เป็นแค่การจัดหมวดหมู่และสรุปข้อมูลพื้นฐาน แต่ฉันก็ไม่คาดคิดมาก่อน
นวัตกรรมจาก Google เพิ่มขึ้นอีก OpenAI มีปัญหาใหญ่สองอย่าง อย่างแรกคือชิปไปป์ไลน์แบบบูรณาการแนวดิ่งของ Google และความรู้ด้านซัพพลายเชนกับการปฏิบัติการเชิงลึกที่จำเป็นต่อการผลิตชิป AI ซึ่งให้ความได้เปรียบด้านต้นทุนมหาศาลในทุกขั้นตอน อย่างที่สองคือการขาดแคลนข้อมูล และข้อได้เปรียบที่ไม่เป็นธรรมของโซเชียลมีเดียในฐานะแหล่งความรู้ที่อัปเดตต่อเนื่อง ข้อมูลใหม่กำลังกลายเป็นปัจจัยสร้างความแตกต่างที่มีค่ามากขึ้นเรื่อยๆ SamA รับรู้ปัญหาเหล่านี้ และมองว่ามันเป็นปัญหาเชิงรากฐานที่จะตัดสินว่า OpenAI จะสำเร็จหรือไม่
ราคา Gemini 2.5 Flash เพิ่มขึ้น 50% จาก Gemini 2.0 Flash ฟังดูเหมือนมาก แต่ Flash ก็ยังถูกมากเมื่อเทียบกับโมเดลอื่นที่คุณภาพระดับนี้
เจอจุดที่น่าสนใจในโค้ดของไลบรารี Python API: ลิงก์ GitHub
thinking_budgetมีการทำเอกสารไว้แล้ว แต่include_thoughtsคืออะไรกลับเข้าใจได้ยาก ฉันยังหาวิธีใช้ตัวเลือกนี้เพื่อให้ Gemini ส่งคืนสรุปความคิดไม่ได้แม้ว่า Google จะมีโมเดลที่น่าประทับใจผ่าน API และ AI Studio ฟรี แต่โมเดลที่ใช้ในแอป Gemini กลับดูแย่กว่ามาก ช่วงไม่กี่สัปดาห์ที่ผ่านมา ฉันใช้ Gemini Advanced บนบัญชี Workspace แล้วรู้สึกว่าโมเดลใช้เวลาคิดสั้นกว่า ให้เอาต์พุตสั้นกว่า และหน้าต่างคอนเท็กซ์ก็ดูห่างไกลจาก 1 ล้านโทเค็นตามที่โฆษณาไว้มาก ดูเหมือนว่า Google จงใจจำกัดแอป Gemini เอาไว้
เมื่อรัน PDF ภายในองค์กรของเรา (3 หน้า, ความยากปานกลาง) เป็นเบนช์มาร์ก json: