- Ollama เปิดให้ใช้งานฟีเจอร์ ค้นหาข้อมูลเว็บล่าสุด ผ่าน API เพื่อช่วยลดอาการหลอนของโมเดลและสนับสนุน การเพิ่มความแม่นยำ
- แม้แต่บัญชีฟรีก็มี โควต้าการค้นหาฟรีจำนวนมาก รวมอยู่ด้วย และผู้ใช้ที่ใช้งานถี่สามารถใช้ข้อจำกัดที่สูงขึ้นผ่าน Ollama Cloud
- ให้บริการบนพื้นฐาน REST API และผสานกับ ไลบรารี Python, JavaScript ทำให้โมเดลอย่าง OpenAI
gpt-oss สามารถทำ งานรีเสิร์ช ที่ใช้เวลานานได้
- ฟังก์ชัน
web_search และ web_fetch ส่งคืน ผลลัพธ์ระดับหลายพันโทเค็น พร้อมรองรับ การเชื่อมต่อ กับเครื่องมือต่าง ๆ เช่น Cline, Codex, Goose ผ่านเซิร์ฟเวอร์ MCP
- จึงสามารถนำไปใช้สร้าง search agent ได้โดยตรง ช่วยขยายความสามารถทั่วไปของโมเดล AI ในการโต้ตอบกับข้อมูลล่าสุดอย่างมาก
แนะนำฟีเจอร์ค้นหาเว็บของ Ollama
- Ollama เปิดตัว Web Search API เพื่อมอบสภาพแวดล้อมที่ทำให้โมเดล AI เข้าถึงข้อมูลเว็บล่าสุดได้ทันที
- ด้วยเหตุนี้จึงคาดหวังได้ทั้ง การลดอาการหลอน (hallucination) และ การเพิ่มความแม่นยำ
- สำหรับผู้ใช้ทั่วไป มีการให้ โควต้าการค้นหาฟรี อย่างเพียงพอ และหากต้องการใช้งานมากขึ้นก็สามารถขยายโควต้าได้ผ่านการสมัคร Ollama Cloud
- ให้บริการเป็น REST API และรองรับการผสานเครื่องมือเชิงลึกผ่าน ไลบรารี Python และ JavaScript
- โครงสร้างนี้ทำให้โมเดลหลากหลายอย่าง gpt-oss สามารถทำงานวิจัยและงานค้นหาระยะยาวได้
ตัวอย่างวิธีใช้งาน API
- สามารถเรียกใช้
cURL ด้วย API key ที่ออกให้จากบัญชี Ollama หรือเรียก ollama.web_search() ใน Python และ client.webSearch() ใน JavaScript ได้
- ผลลัพธ์จะถูกส่งกลับในโครงสร้าง JSON ที่มี ชื่อเรื่อง, URL, สรุปเนื้อหา
- หากใช้ API
web_fetch ก็สามารถดึงเนื้อหาของหน้าเว็บตาม URL ได้จนถึงระดับ ข้อความเนื้อหาและรายการลิงก์
การสร้าง search agent บนฐานเว็บค้นหา
- Ollama API สามารถนำไปผสานกับโมเดลอย่าง Qwen3, gpt-oss เพื่อพัฒนา multi-turn search agent แบบอัตโนมัติได้
- ในโค้ดตัวอย่างมีการใช้ โมเดล Qwen3:4B เพื่อทำกระบวนการ ค้นหา → ให้เหตุผล → สรุปผลลัพธ์ แบบอัตโนมัติ
- โดยอาศัยผลการค้นหาเข้าสู่กระบวนการ "Thinking" และใช้ผลจากการเรียกเครื่องมือค้นหา/เฟตช์ซ้ำ ๆ เพื่อทำงานวิจัยหรือสถานการณ์การสำรวจที่ซับซ้อน
- การอัปเกรดใหม่ของเอนจิน Ollama ยังรวมถึง การจัดการหน่วยความจำที่แม่นยำ, การปรับแต่ง GPU/หลาย GPU, การเพิ่มประสิทธิภาพ และการรองรับโมเดล vision (multimodal) อย่างจริงจัง
โมเดลที่แนะนำและข้อมูลด้านประสิทธิภาพ
- แนะนำโมเดลคลาวด์ที่มีความสามารถในการใช้เครื่องมือสูง (เช่น
qwen3:480b-cloud, gpt-oss:120b-cloud, deepseek-v3.1-cloud)
- เนื่องจากเครื่องมือค้นหาและเฟตช์อาจส่งคืนข้อมูลระดับหลายพันโทเค็น จึงแนะนำให้เพิ่ม ความยาวคอนเท็กซ์ของโมเดลเป็นราว 32000 โทเค็น
ฟีเจอร์เฟตช์เว็บเพจรายหน้า
- นอกเหนือจากการค้นหาเว็บ ยังมี API/ฟังก์ชันที่สามารถ เฟตช์ ข้อความและโครงสร้างลิงก์ของเว็บเพจที่ระบุแบบรายหน้าได้โดยตรง
- สามารถส่ง url เป็นอาร์กิวเมนต์ผ่าน Python, JavaScript หรือ cURL เพื่อดึง
title, content และลิงก์ที่เชื่อมต่ออยู่จากหน้าเว็บได้อย่างง่ายดาย
- สามารถดูโค้ดตัวอย่างที่ละเอียดกว่านี้ได้ใน GitHub repository อย่างเป็นทางการ
การผสานเครื่องมือและเอเจนต์
web_search, web_fetch ส่งคืนข้อมูลระดับ หลายพันโทเค็น และแนะนำให้เพิ่มคอนเท็กซ์ของโมเดลเป็น 32K ขึ้นไป
- รองรับเซิร์ฟเวอร์ MCP จึงสามารถ เชื่อมต่อโดยตรง กับสภาพแวดล้อมพัฒนา AI อย่าง Cline, Codex, Goose ได้
- มีโค้ดตัวอย่าง Python และ JavaScript ให้ใน GitHub repository อย่างเป็นทางการ
เริ่มต้นใช้งาน
- การค้นหาเว็บมีให้ใช้เป็นพื้นฐานใน บัญชี Ollama ฟรี และหากต้องการปริมาณการใช้งานที่สูงขึ้นสามารถใช้ผ่านการสมัครแบบเสียเงิน
- สร้างบัญชีบนเว็บไซต์ Ollama และออก API key ก็สามารถเริ่มใช้บริการได้ทันที
3 ความคิดเห็น
ดูแล้ว
ollamaแบบฟรีน่าจะยังไม่ถึงระดับที่เอาไปใช้งานจริงได้..แม้แต่ในหน้าราคาก็ไม่มีคำอธิบายเรื่องโควตาเลย เลยยังประเมินไม่ออกว่าคุ้มค่าหรือเปล่า
ความคิดเห็นจาก Hacker News