5 คะแนน โดย GN⁺ 2025-04-18 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • Gemini 2.5 Flash คือ โมเดลการให้เหตุผลแบบไฮบริด ที่ให้บริการผ่าน Google AI Studio และ Vertex AI โดยยกระดับความสามารถด้านการให้เหตุผลขึ้นอย่างมาก พร้อมคงไว้ซึ่งความเร็วและต้นทุน
  • มี ฟีเจอร์ thinking (on/off) และการตั้งค่า thinking_budget เพื่อปรับ ประสิทธิภาพ ต้นทุน และเวลาแฝง ได้อย่างละเอียด
  • สามารถกำหนด งบการคิด เพื่อควบคุมจำนวนโทเค็นสูงสุดที่โมเดลใช้สร้างคำตอบได้อย่างละเอียด และให้คำตอบที่แม่นยำและครอบคลุมมากขึ้นสำหรับงานที่ซับซ้อน
  • เป็น โมเดลการให้เหตุผลที่คุ้มค่าที่สุดของ Google โดยให้ประสิทธิภาพสูงเมื่อเทียบกับต้นทุนต่ำ และปรับใช้อย่างยืดหยุ่นให้เหมาะกับกรณีใช้งานที่หลากหลาย
  • ขณะนี้ เปิดให้ใช้งานในรูปแบบพรีวิว บน Google AI Studio และ Vertex AI และสามารถตั้งค่าผ่าน API ได้

เปิดตัวพรีวิว Gemini 2.5 Flash

  • Google เปิดตัว Gemini 2.5 Flash ในรูปแบบ พรีวิว (preview) ผ่าน Google AI Studio และ Vertex AI
  • ความสามารถด้านการให้เหตุผลดีขึ้นอย่างมากเมื่อเทียบกับ 2.0 Flash โดยยังคง ความเร็วและความคุ้มค่าด้านต้นทุน
  • เป็น โมเดลการให้เหตุผลแบบไฮบริดเต็มรูปแบบ รุ่นแรก ที่เปิดให้นักพัฒนา เปิดหรือปิดโหมด thinking ได้
  • สามารถใช้การตั้งค่า thinking_budget เพื่อปรับสมดุลระหว่าง คุณภาพ ต้นทุน และเวลาแฝงของการตอบสนอง
  • แม้จะปิดโหมดคิด ก็ยังคงมีประสิทธิภาพดีกว่า 2.0 Flash

ความสามารถด้านการให้เหตุผลของ Gemini 2.5 Flash

  • Gemini 2.5 Flash ไม่ได้สร้างคำตอบทันที แต่ใช้โครงสร้างที่ คิดก่อนแล้วค่อยตอบ
  • สำหรับปัญหาซับซ้อน โจทย์คณิตศาสตร์ หรือคำถามเชิงวิเคราะห์งานวิจัย จะสามารถ สร้างคำตอบที่แม่นยำและครอบคลุมยิ่งขึ้น
  • บน เกณฑ์วัดผล Hard Prompts ของ LMArena แสดง ประสิทธิภาพสูงเป็นรองเพียง 2.5 Pro
  • ให้ประสิทธิภาพใกล้เคียงกันด้วย ราคาที่ถูกกว่า และ ขนาดโมเดลที่เล็กกว่า เมื่อเทียบกับโมเดลอื่น

โมเดลการให้เหตุผลที่คุ้มค่าที่สุด

  • Gemini 2.5 Flash ถูกประเมินว่าเป็น โมเดลการให้เหตุผลที่ให้ประสิทธิภาพต่อราคาดีที่สุด
  • ถูกเพิ่มเข้าไปใหม่ใน เส้นโค้งประสิทธิภาพต่อความคุ้มค่าด้านต้นทุน (Pareto frontier) ของ Google

ฟีเจอร์ปรับระดับการคิด: thinking_budget

  • มีความสามารถในการ ปรับจูนอย่างละเอียด ระหว่างคุณภาพ ต้นทุน และเวลาแฝง ให้เหมาะกับกรณีใช้งานที่หลากหลาย
  • thinking_budget หมายถึง จำนวนโทเค็นสูงสุด ที่โมเดลสามารถใช้ไปกับการคิด
    • ตัวอย่าง: หากเพิ่ม budget คุณภาพจะดีขึ้น แต่ต้นทุนและเวลาแฝงก็จะเพิ่มขึ้น
  • สำหรับคำถามง่าย ๆ ที่ไม่จำเป็นต้องคิดมาก ระบบจะใช้ budget ต่ำ โดยอัตโนมัติ
  • ช่วง budget คือ 0 ~ 24,576 โทเค็น และสามารถปรับได้ด้วยสไลเดอร์หรือพารามิเตอร์ API ใน AI Studio และ Vertex AI

ตัวอย่างพรอมป์ตามระดับการคิด

ต้องการการให้เหตุผลระดับต่ำ

  • “Thank you” เป็นภาษาสเปน
  • ถามจำนวนจังหวัดของแคนาดา

ต้องการการให้เหตุผลระดับกลาง

  • คำนวณความน่าจะเป็นที่จะทอยลูกเต๋าสองลูกแล้วได้ผลรวมเป็น 7
  • จัดตารางเวลาที่สามารถเล่นบาสเก็ตบอลได้ 5 ชั่วโมงในวันธรรมดาโดยอิงจากตารางงาน

ต้องการการให้เหตุผลระดับสูง

  • ปัญหาการคำนวณความเค้นทางวิศวกรรมเครื่องกลของคาน
  • โจทย์การเขียนฟังก์ชันประเมินสูตรสไตล์ Excel
    • ต้องมีการแก้ dependency, ลำดับความสำคัญของตัวดำเนินการ และการตรวจจับการอ้างอิงวนซ้ำ

เริ่มต้นใช้งาน

  • ใช้งานเวอร์ชัน preview ได้แล้วใน Google AI Studio, Vertex AI และแอป Gemini
  • ทดลองพารามิเตอร์ thinking_budget เพื่อ สำรวจความเป็นไปได้ในการแก้ปัญหาที่ซับซ้อน
  • ตัวอย่างโค้ด:
    from google import genai  
    
    client = genai.Client(api_key="GEMINI_API_KEY")  
    
    response = client.models.generate_content(  
      model="gemini-2.5-flash-preview-04-17",  
      contents="You roll two dice. What’s the probability they add up to 7?",  
      config=genai.types.GenerateContentConfig(  
        thinking_config=genai.types.ThinkingConfig(  
          thinking_budget=1024  
        )  
      )  
    )  
    
    print(response.text)  
    
  • ดูรายละเอียดเพิ่มเติมได้ที่ เอกสารสำหรับนักพัฒนา และ Gemini Cookbook
  • ในอนาคตจะมีการเพิ่มฟีเจอร์อีกมากขึ้น และ จะปรับปรุงอย่างต่อเนื่องจนกว่าจะเปิดตัวอย่างเป็นทางการ

1 ความคิดเห็น

 
GN⁺ 2025-04-18
ความคิดเห็นจาก Hacker News
  • การที่ Google เปิดให้ใช้ Gemini 2.5 Pro (เวอร์ชันทดลอง) ฟรีเป็นเรื่องใหญ่มาก ฉันไม่เคยใช้โมเดลที่แพงกว่าของ OpenAI เลยเปรียบเทียบตรงๆ ไม่ได้ แต่เมื่อเทียบกับโมเดลฟรีที่เคยใช้มาก่อน Gemini 2.5 Pro ก้าวหน้าไปมาก โมเดลนี้ฉลาดกว่าฉันในเกือบทุกหัวข้อที่ฉันรับมืออยู่ และมันไม่ได้พยายามเห็นด้วยกับฉัน แต่โต้แย้งกับฉันแทน ตอนนี้การใช้งาน AI แบบสบายๆ ของฉันทั้งหมดไปอยู่ที่ Gemini แล้ว และฉันก็ตั้งตารอที่จะถามเรื่องเชิงลึกมากขึ้น ฉันกำลังสร้างเครื่องมือใหม่เพื่อเพิ่มมูลค่าของโมเดลนี้ให้มากขึ้น

  • หนึ่งในความสามารถของโมเดล Gemini ที่มักถูกมองข้ามคือ มันสามารถเขียนและรันโค้ด Python ได้โดยตรงผ่าน API ปลั๊กอิน llm-gemini ของฉันรองรับสิ่งนี้: ลิงก์ GitHub ไม่มีค่าใช้จ่ายเพิ่มเติมสำหรับการรันโค้ด โดยจ่ายเฉพาะโทเค็นอินพุตและเอาต์พุตเท่านั้น ตัวอย่างเช่น ใช้อินพุต 10 และเอาต์พุต 1,531 มีค่าใช้จ่าย 0.536 เซนต์

  • โมเดล Gemini Flash อาจเป็นรุ่นที่ถูกพูดถึงน้อยที่สุด แต่ในการใช้งานจริงมันให้ความคุ้มค่าต่อราคาดีที่สุด และมีเครื่องมือมัลติโหมดให้ด้วย Google กำลังชนะการแข่งขัน AI แบบเงียบๆ

  • ข้อมูลที่ซ่อนอยู่เมื่อเจาะลึกเอกสารของ Gemini 2.5 Flash: สำหรับอินพุตภาพ โมเดลนี้ไม่เพียงสร้าง 2D bounding boxes ของหัวข้อที่เกี่ยวข้องได้ แต่ยังสร้าง segmentation masks ได้ด้วย การสร้าง segmentation masks ด้วยโมเดล Flash ในระดับราคานี้ถือว่าเจ๋งมาก โดยทำผ่านการสร้างสตริง b64 ที่แทน mask

  • สำหรับฉันที่ไม่ใช่โปรแกรมเมอร์ Google กำลังดีขึ้นอย่างน่าทึ่ง มันให้โค้ดที่ใช้งานได้ตั้งแต่แรกเริ่ม ตอนที่ฉันขอให้เขียนโค้ดเพื่อ scrape และวิเคราะห์ข้อมูลจากเว็บไซต์ มันก็เขียนโค้ดสำหรับ scrape และวิเคราะห์ข้อมูลให้เลย เป็นแค่การจัดหมวดหมู่และสรุปข้อมูลพื้นฐาน แต่ฉันก็ไม่คาดคิดมาก่อน

  • นวัตกรรมจาก Google เพิ่มขึ้นอีก OpenAI มีปัญหาใหญ่สองอย่าง อย่างแรกคือชิปไปป์ไลน์แบบบูรณาการแนวดิ่งของ Google และความรู้ด้านซัพพลายเชนกับการปฏิบัติการเชิงลึกที่จำเป็นต่อการผลิตชิป AI ซึ่งให้ความได้เปรียบด้านต้นทุนมหาศาลในทุกขั้นตอน อย่างที่สองคือการขาดแคลนข้อมูล และข้อได้เปรียบที่ไม่เป็นธรรมของโซเชียลมีเดียในฐานะแหล่งความรู้ที่อัปเดตต่อเนื่อง ข้อมูลใหม่กำลังกลายเป็นปัจจัยสร้างความแตกต่างที่มีค่ามากขึ้นเรื่อยๆ SamA รับรู้ปัญหาเหล่านี้ และมองว่ามันเป็นปัญหาเชิงรากฐานที่จะตัดสินว่า OpenAI จะสำเร็จหรือไม่

  • ราคา Gemini 2.5 Flash เพิ่มขึ้น 50% จาก Gemini 2.0 Flash ฟังดูเหมือนมาก แต่ Flash ก็ยังถูกมากเมื่อเทียบกับโมเดลอื่นที่คุณภาพระดับนี้

  • เจอจุดที่น่าสนใจในโค้ดของไลบรารี Python API: ลิงก์ GitHub thinking_budget มีการทำเอกสารไว้แล้ว แต่ include_thoughts คืออะไรกลับเข้าใจได้ยาก ฉันยังหาวิธีใช้ตัวเลือกนี้เพื่อให้ Gemini ส่งคืนสรุปความคิดไม่ได้

  • แม้ว่า Google จะมีโมเดลที่น่าประทับใจผ่าน API และ AI Studio ฟรี แต่โมเดลที่ใช้ในแอป Gemini กลับดูแย่กว่ามาก ช่วงไม่กี่สัปดาห์ที่ผ่านมา ฉันใช้ Gemini Advanced บนบัญชี Workspace แล้วรู้สึกว่าโมเดลใช้เวลาคิดสั้นกว่า ให้เอาต์พุตสั้นกว่า และหน้าต่างคอนเท็กซ์ก็ดูห่างไกลจาก 1 ล้านโทเค็นตามที่โฆษณาไว้มาก ดูเหมือนว่า Google จงใจจำกัดแอป Gemini เอาไว้

  • เมื่อรัน PDF ภายในองค์กรของเรา (3 หน้า, ความยากปานกลาง) เป็นเบนช์มาร์ก json:

    • gemini-flash-2.0: ความแม่นยำประมาณ 60%, 1 ดอลลาร์ต่อ 6,250 หน้า
    • gemini-2.5-flash-preview (ไม่คิด): ความแม่นยำประมาณ 80%, 1 ดอลลาร์ต่อ 1,700 หน้า
    • gemini-2.5-flash-preview (มีการคิด): ความแม่นยำประมาณ 80%, 1 ดอลลาร์ต่อ 350 หน้า
    • gemini-flash-2.5: ความแม่นยำประมาณ 90%, 1 ดอลลาร์ต่อ 150 หน้า
    • อยากให้แยกตัวแปรแบบคิดออกจากแบบปกติไปเลย มันสับสนมากเมื่อพารามิเตอร์ของโมเดลส่งผลต่อราคาอย่างมาก