13 คะแนน โดย GN⁺ 2025-09-29 | 3 ความคิดเห็น | แชร์ทาง WhatsApp
  • Ollama เปิดให้ใช้งานฟีเจอร์ ค้นหาข้อมูลเว็บล่าสุด ผ่าน API เพื่อช่วยลดอาการหลอนของโมเดลและสนับสนุน การเพิ่มความแม่นยำ
  • แม้แต่บัญชีฟรีก็มี โควต้าการค้นหาฟรีจำนวนมาก รวมอยู่ด้วย และผู้ใช้ที่ใช้งานถี่สามารถใช้ข้อจำกัดที่สูงขึ้นผ่าน Ollama Cloud
  • ให้บริการบนพื้นฐาน REST API และผสานกับ ไลบรารี Python, JavaScript ทำให้โมเดลอย่าง OpenAI gpt-oss สามารถทำ งานรีเสิร์ช ที่ใช้เวลานานได้
  • ฟังก์ชัน web_search และ web_fetch ส่งคืน ผลลัพธ์ระดับหลายพันโทเค็น พร้อมรองรับ การเชื่อมต่อ กับเครื่องมือต่าง ๆ เช่น Cline, Codex, Goose ผ่านเซิร์ฟเวอร์ MCP
  • จึงสามารถนำไปใช้สร้าง search agent ได้โดยตรง ช่วยขยายความสามารถทั่วไปของโมเดล AI ในการโต้ตอบกับข้อมูลล่าสุดอย่างมาก

แนะนำฟีเจอร์ค้นหาเว็บของ Ollama

  • Ollama เปิดตัว Web Search API เพื่อมอบสภาพแวดล้อมที่ทำให้โมเดล AI เข้าถึงข้อมูลเว็บล่าสุดได้ทันที
  • ด้วยเหตุนี้จึงคาดหวังได้ทั้ง การลดอาการหลอน (hallucination) และ การเพิ่มความแม่นยำ
  • สำหรับผู้ใช้ทั่วไป มีการให้ โควต้าการค้นหาฟรี อย่างเพียงพอ และหากต้องการใช้งานมากขึ้นก็สามารถขยายโควต้าได้ผ่านการสมัคร Ollama Cloud
  • ให้บริการเป็น REST API และรองรับการผสานเครื่องมือเชิงลึกผ่าน ไลบรารี Python และ JavaScript
  • โครงสร้างนี้ทำให้โมเดลหลากหลายอย่าง gpt-oss สามารถทำงานวิจัยและงานค้นหาระยะยาวได้

ตัวอย่างวิธีใช้งาน API

  • สามารถเรียกใช้ cURL ด้วย API key ที่ออกให้จากบัญชี Ollama หรือเรียก ollama.web_search() ใน Python และ client.webSearch() ใน JavaScript ได้
  • ผลลัพธ์จะถูกส่งกลับในโครงสร้าง JSON ที่มี ชื่อเรื่อง, URL, สรุปเนื้อหา
  • หากใช้ API web_fetch ก็สามารถดึงเนื้อหาของหน้าเว็บตาม URL ได้จนถึงระดับ ข้อความเนื้อหาและรายการลิงก์

การสร้าง search agent บนฐานเว็บค้นหา

  • Ollama API สามารถนำไปผสานกับโมเดลอย่าง Qwen3, gpt-oss เพื่อพัฒนา multi-turn search agent แบบอัตโนมัติได้
  • ในโค้ดตัวอย่างมีการใช้ โมเดล Qwen3:4B เพื่อทำกระบวนการ ค้นหา → ให้เหตุผล → สรุปผลลัพธ์ แบบอัตโนมัติ
  • โดยอาศัยผลการค้นหาเข้าสู่กระบวนการ "Thinking" และใช้ผลจากการเรียกเครื่องมือค้นหา/เฟตช์ซ้ำ ๆ เพื่อทำงานวิจัยหรือสถานการณ์การสำรวจที่ซับซ้อน
  • การอัปเกรดใหม่ของเอนจิน Ollama ยังรวมถึง การจัดการหน่วยความจำที่แม่นยำ, การปรับแต่ง GPU/หลาย GPU, การเพิ่มประสิทธิภาพ และการรองรับโมเดล vision (multimodal) อย่างจริงจัง

โมเดลที่แนะนำและข้อมูลด้านประสิทธิภาพ

  • แนะนำโมเดลคลาวด์ที่มีความสามารถในการใช้เครื่องมือสูง (เช่น qwen3:480b-cloud, gpt-oss:120b-cloud, deepseek-v3.1-cloud)
  • เนื่องจากเครื่องมือค้นหาและเฟตช์อาจส่งคืนข้อมูลระดับหลายพันโทเค็น จึงแนะนำให้เพิ่ม ความยาวคอนเท็กซ์ของโมเดลเป็นราว 32000 โทเค็น

ฟีเจอร์เฟตช์เว็บเพจรายหน้า

  • นอกเหนือจากการค้นหาเว็บ ยังมี API/ฟังก์ชันที่สามารถ เฟตช์ ข้อความและโครงสร้างลิงก์ของเว็บเพจที่ระบุแบบรายหน้าได้โดยตรง
  • สามารถส่ง url เป็นอาร์กิวเมนต์ผ่าน Python, JavaScript หรือ cURL เพื่อดึง title, content และลิงก์ที่เชื่อมต่ออยู่จากหน้าเว็บได้อย่างง่ายดาย
  • สามารถดูโค้ดตัวอย่างที่ละเอียดกว่านี้ได้ใน GitHub repository อย่างเป็นทางการ

การผสานเครื่องมือและเอเจนต์

  • web_search, web_fetch ส่งคืนข้อมูลระดับ หลายพันโทเค็น และแนะนำให้เพิ่มคอนเท็กซ์ของโมเดลเป็น 32K ขึ้นไป
  • รองรับเซิร์ฟเวอร์ MCP จึงสามารถ เชื่อมต่อโดยตรง กับสภาพแวดล้อมพัฒนา AI อย่าง Cline, Codex, Goose ได้
  • มีโค้ดตัวอย่าง Python และ JavaScript ให้ใน GitHub repository อย่างเป็นทางการ

เริ่มต้นใช้งาน

  • การค้นหาเว็บมีให้ใช้เป็นพื้นฐานใน บัญชี Ollama ฟรี และหากต้องการปริมาณการใช้งานที่สูงขึ้นสามารถใช้ผ่านการสมัครแบบเสียเงิน
  • สร้างบัญชีบนเว็บไซต์ Ollama และออก API key ก็สามารถเริ่มใช้บริการได้ทันที

3 ความคิดเห็น

 
shakespeares 2025-10-06

ดูแล้ว ollama แบบฟรีน่าจะยังไม่ถึงระดับที่เอาไปใช้งานจริงได้..

 
slowandsnow 2025-09-30

แม้แต่ในหน้าราคาก็ไม่มีคำอธิบายเรื่องโควตาเลย เลยยังประเมินไม่ออกว่าคุ้มค่าหรือเปล่า

 
GN⁺ 2025-09-29
ความคิดเห็นจาก Hacker News
  • สงสัยว่าเบื้องหลังใช้เสิร์ชเอนจินตัวไหน เลยไปถามทาง Twitter ด้วย https://twitter.com/simonw/status/1971210260015919488 โดยเฉพาะประเด็นสำคัญคือไลเซนส์ของผลการค้นหา ว่าสามารถเก็บหรือแจกจ่ายต่อได้หรือไม่ ซึ่งกฎของแต่ละผู้ให้บริการก็แตกต่างกัน
    • เราร่วมงานกับผู้ให้บริการค้นหาและรับประกันสภาพแวดล้อมที่ไม่มีนโยบายเก็บรักษาข้อมูลโดยสิ้นเชิง ผลการค้นหาเป็นของผู้ใช้และสามารถใช้งานได้อย่างอิสระ อย่างไรก็ตาม ต้องปฏิบัติตามกฎหมายท้องถิ่นอย่างเคร่งครัด
    • ถ้าบอกว่าใช้เพื่อฝึกโมเดล AI ก็น่าจะเอาไปใช้ได้ตามต้องการ
    • ถ้าผลการค้นหาเป็นแค่รายการลิงก์ ก็ยังสงสัยว่าโดยตัวมันเองจะมีลิขสิทธิ์หรือไม่
    • แปลกที่ปล่อยฟีเจอร์นี้ออกมาโดยไม่มีแม้แต่นโยบายความเป็นส่วนตัว เดาว่าอาจเป็นเคสความร่วมมือหรือเรื่องราวลูกค้ากับ VC partner ที่เพิ่งลงทุนไปหรือเปล่า ขอเดาว่าเป็น Exa ซึ่งช่วงแรกได้รับการสนับสนุนจาก YC และระดม Series B ได้ $85M ส่วน Bing น่าจะแพงเกินกว่าจะให้ใช้งานได้อย่างอิสระหากไม่มีความร่วมมือกับ Microsoft หวังว่า Ollama จะอัปเดตประกาศด้านความเป็นส่วนตัวในเร็ว ๆ นี้ เพราะสำนักงานใหญ่ตั้งอยู่ใน CA จึงเข้าข่าย CCPA แม้ไม่มีรายได้ก็ยังเข้าเกณฑ์ได้ถ้าจัดการข้อมูลของชาวแคลิฟอร์เนีย 50,000 คน https://oag.ca.gov/privacy/ccpa ถ้าสุดท้ายผู้ให้บริการแบ็กเอนด์แบบไม่เก็บข้อมูลคือ Alibaba ก็น่าสนใจว่าจะมีปฏิกิริยาอย่างไร
  • เคยสงสัยว่า Ollama เป็นธุรกิจหรือไม่ ไม่รู้มาก่อนว่าได้รับเงินลงทุนด้วย นึกว่าเป็นยูทิลิตีโอเพนซอร์ส อยากรู้ว่าในอนาคตจะสร้างรายได้จากผู้ใช้อย่างไร แต่ก็ไม่ได้คาดหวังมากนัก
    • ช่วงหลังแทบไม่มีโปรเจ็กต์ที่ปล่อยแบบโอเพนซอร์สเต็มตัวแล้ว ส่วนใหญ่เป็นโมเดลรับบริจาคหรือมีสปอนเซอร์องค์กร และในสาย AI ยิ่งหายากกว่าเดิมอีก
    • Ollama ดำเนินงานโดยพนักงานจาก Docker และใช้แนวทางแบบ Docker
    • ไม่นานมานี้เพิ่งเปิดตัวแพลตฟอร์มโฮสติ้ง
    • ก่อนเห็นคอมเมนต์ตอบของคุณ ฉันนึกว่าบทความนี้เกี่ยวกับ OpenAI
  • อยากให้มีข้อมูลเชิงลึกเกี่ยวกับวิธีที่ Ollama ใช้งานฟีเจอร์นี้มากกว่านี้ เดิมมองว่าเป็นเครื่องมือโอเพนซอร์สและไม่ผูกกับแพลตฟอร์ม แต่ช่วงหลังก็รู้สึกว่าบรรยากาศไม่เหมือนเดิม เลยยังลังเลอยู่
    • เราเคยพิจารณาจะใส่ความสามารถในการดึงผลการค้นหาและเนื้อหาเว็บไซต์เข้าไปใน Ollama ด้วย headless browser หรือวิธีคล้ายกัน แต่กังวลเรื่องคุณภาพผลลัพธ์และการถูกบล็อก IP เพราะอาจดูเหมือน crawler การเพิ่ม hosted API ดูเป็นทางที่ให้ผลได้เร็วกว่า แต่ก็ยังสำรวจตัวเลือกแบบ local อยู่ต่อไป ในอุดมคติแล้ว ถ้าผู้ใช้ต้องการ ก็ควรใช้ฟังก์ชันค้นหาแบบนี้ได้บนสภาพแวดล้อม local ทั้งหมด
    • GUI ไม่ได้เป็นโอเพนซอร์ส ถ้าอยากได้แอปที่ใช้งานง่าย LMStudio อาจเหมาะกว่า (อย่างน้อยก็ไม่ได้ทำตัวเหมือนเป็น OSS) ส่วน ramalama ก็คล้าย ollama ในแง่ที่ทำ LLM ให้เป็นคอนเทนเนอร์ หรือจะกลับไปใช้ “พื้นฐาน” อย่าง llama.cpp หรือ vllm ก็ได้
    • รู้สึกว่าวิธีดำเนินงานของ Ollama แย่ลงเรื่อย ๆ เสียความเชื่อมั่นไปแล้วเลยลบออกจากทุกระบบ
  • ดูเหมือนว่า Ollama กำลังไปในทิศทางที่ไม่ local มากขึ้นเรื่อย ๆ และประสิทธิภาพก็ด้อยกว่า vLLM อยากทำสภาพแวดล้อมให้ผู้ใช้เลือกใช้ LLM ได้หลายตัวผ่าน OpenAI-compatible API แล้วรันอะไรอย่าง open-webui อยู่ เลยสงสัยว่ามีทางเลือกอื่นแทน Ollama สำหรับใช้ RTX 3090 หลายใบ (1~5 ใบ) ที่เหมาะกว่านี้ไหม
    • เคยได้ยินคนพูดถึง Llamaswap หรือ vllm
  • ไม่รู้มาก่อนว่า Ollama มีคลาวด์เซอร์วิสของตัวเอง เดิมทีจุดประสงค์ของ Ollama ไม่ใช่โมเดล local หรอกหรือ? ทำไมต้องจ่ายเดือนละ $20 เพื่อใช้โมเดลเล็กและประสิทธิภาพต่ำกว่าด้วย? ใช้บริษัท AI อย่าง OpenAI หรือ Mistral ไม่ดีกว่าหรือ? ไม่เห็นว่าต้องมีบัญชีเลยเพื่อจะใช้โมเดลบนเครื่องตัวเอง
    • เป็นคำถามที่ดี ในบรรดาโมเดลที่รองรับ มีหลายตัวที่ใหญ่เกินกว่าจะรันบนอุปกรณ์ทั่วไปได้ ตอนนี้ยังเป็นช่วงเริ่มต้น และด้วยความสัมพันธ์ที่เรามีกับผู้ให้บริการโมเดล ทำให้ Ollama สามารถนำโมเดลล้ำสมัยบนคลาวด์เข้ามาให้ใช้ได้ Ollama ทำงานเคียงข้างนักพัฒนาและมุ่งแก้ปัญหาตามความต้องการของพวกเขา https://ollama.com/cloud
    • เหตุผลที่ต้องสร้างบัญชีคือเพื่อใช้โมเดลที่พวกเขาโฮสต์ไว้ หรือเพื่อใช้โมเดลจาก local ผ่าน Ollama API ตอนนี้ฉันจ่าย $100 ให้ Claude และ $200 ให้ GPT-5 อยู่ ดังนั้น $20 ถือว่าถูกมากสำหรับการได้ใช้โมเดลอย่าง Qwen3 235b, Deepseek 3.1 671b, Llama 3.1 405b, GPT OSS 120b ซึ่งไม่ใช่โมเดล “เล็กหรือประสิทธิภาพต่ำ” เลย และอีกจุดที่เจ๋งมากคือสามารถเอา Codex ไปต่อกับ Ollama API เพื่อใช้เครื่องมือกับหลายโมเดลได้
    • มองว่าเป็นแนวโน้มที่ค่อย ๆ เปลี่ยนไปสู่ฟีเจอร์ที่สร้างรายได้ได้เรื่อย ๆ สร้างความเชื่อมั่นและแบรนด์ผ่านโอเพนซอร์สกับแรงงานฟรี ก่อนจะเปลี่ยนไปหารายได้เป็นเงินจริง
    • มีโมเดลที่รัน local ไม่ได้จริง ๆ ด้วย เช่น gpt-oss-120b, deepseek, qwen3-coder 480b เป็นต้น นี่จึงเป็นวิธีทำเงินจากความสำเร็จของ Ollama
    • แม้แต่โมเดล “local” หลายตัวก็ยังมีขนาดดาวน์โหลดใหญ่มากและช้าบนฮาร์ดแวร์ทั่วไป ข้อดีของคลาวด์คือประเมินได้ก่อนในราคาถูก แล้วค่อยตัดสินใจว่าจะดาวน์โหลดมารันเองแบบ local หรือไม่ สิ่งสำคัญคือหลักการที่ว่าเราควร “สามารถ” รันอะไรบางอย่างแบบ local ได้จริง ๆ ฉันไม่ชอบการต้องพึ่งเทคโนโลยีที่คนอื่นจะยึดคืนหรือปิดกั้นเมื่อไรก็ได้
  • เป็นเรื่องคนละมุมนิดหน่อย แต่ฉันกำลังคิดจะทำ “mini Google” สำหรับใช้ส่วนตัวในบ้าน รู้สึกว่ากรณีที่ต้องค้นหาจริง ๆ ส่วนใหญ่ก็อยู่ในเว็บไซต์ราว 1,000 แห่งเท่านั้น การ crawl ทั้งเว็บมันเกินความจำเป็นสำหรับฉัน ภาพรวมสถาปัตยกรรมคือ crawler (scraper เบา ๆ), indexer (แปลงข้อความและทำ inverted index), storage (เก็บ HTML และข้อความแบบบีบอัด), ชั้นค้นหา (scoring แบบ TF-IDF หรือ embedding), มีการอัปเดตเป็นระยะ และมีเว็บ UI ง่าย ๆ สำหรับสำรวจ อยากรู้ว่ามีใครเคยลองโปรเจ็กต์จริงหรือความท้าทายลักษณะนี้ไหม
    • เคยดู Common Crawl dump แล้วพบว่า 99.99% ของเว็บเป็นโฆษณา สื่อลามก สแปม หรือบล็อกไร้สาระ แทบไม่มีประโยชน์เลย อาจมีคุณค่าทางประวัติศาสตร์ วัฒนธรรม หรือวรรณกรรมอยู่บ้าง แต่สำหรับจุดประสงค์ของฉันแทบไม่ช่วยอะไรเลย ทำให้มั่นใจว่าถ้าเลือก index เฉพาะ “หน้าเว็บที่สำคัญจริง ๆ” ก็น่าจะทำได้สบายแม้ใช้แค่ระดับแล็ปท็อป ขนาด Wikipedia ทั้งหมดก็ประมาณ 20GB (แบบบีบอัด) ดังนั้นถ้าดึงเฉพาะหัวข้อที่ฉันสนใจจริง ๆ ก็อาจไม่ถึง 200MB ด้วยซ้ำ
    • YaCy (https://yacy.net) ทำได้เกือบทั้งหมด แต่ถ้า crawl เยอะ ๆ Cloudflare อาจบล็อก IP ได้เร็ว
    • ฉันชอบ https://marginalia-search.com มากเหมือนกัน
    • Drew DeVault เคยพยายามทำอะไรคล้าย ๆ กันในชื่อ SearchHut แต่เลิกไปแล้ว เพราะสุดท้ายไปติดอยู่กับการทำความเข้าใจ Postgres RUM extension ลิงก์เธรด HN ที่พูดถึง SearchHut
    • ไม่เหมือนกันทั้งหมด แต่ฉันก็ใช้ Google CSE แบบจำกัดโดเมนตามหัวข้อที่สนใจ เพื่อให้ผลค้นหามาจากเฉพาะไซต์ที่ต้องการ และเรียกผ่านคีย์ลัดใน Alfred ทำให้ค้นหาเรื่องที่สนใจได้สะดวกมาก https://blog.gingerbeardman.com/2021/04/20/interest-specific-search-engines/
  • ถ้ามีคำแนะนำเรื่อง local/enterprise search ก็น่าสนใจ ตอนนี้ฉันใช้ Ollama แบบ local และทำดัชนีเอกสารของตัวเองอยู่ด้วย สิ่งที่อยากรู้คือจะเชื่อม Ollama เข้ากับระบบ full-text search แบบดั้งเดิมอย่างไร โดยไม่ใช่การทำ embedding หรือ fine-tuning เอกสาร
    • แนะนำ solr เป็น full-text search ที่ดีมาก และมี mcp integration ด้วย ใช้งานได้ไม่ยาก https://github.com/mjochum64/mcp-solr-search ถ้าทำเพิ่มอีกหน่อยก็สามารถทำ vectorization เอกสารแล้วใช้ knn เพื่อค้นหาความคล้ายเชิงความหมายได้ด้วย จึงใช้ได้ทั้ง semantic search และ text search คุณภาพก็ดี อาจจะต่อ chromadb กับ solr เพื่อรวมผลลัพธ์เข้าด้วยกันได้ แต่ถ้าสเกลใหญ่ขึ้นก็ยังลังเลว่า chromadb อาจมีประสิทธิภาพดีกว่าหรือไม่
    • docling ก็อาจเป็นตัวเลือกที่ดี และ full-text search engine ที่ผ่านการพิสูจน์มาแล้วอย่าง Typesense ก็น่าพิจารณาเช่นกัน
  • ก่อนหน้านี้ฉันเชื่อมแพ็กเกจ python DuckDuckGo เข้ากับ LLM เพื่อใช้ฟังก์ชันค้นหาอยู่แล้ว แต่ผลของ Google ดีกว่า เลยไปตั้งค่าอะไรบางอย่างใน developer console แล้วเปลี่ยนมาใช้ Google (จำไม่ได้แล้วว่าทำอะไรไปบ้าง) ฝั่ง DDG เป็นแบบไม่เป็นทางการ ส่วน Google official API ก็มีข้อจำกัดด้าน query เยอะ จึงไม่เหมาะกับงานค้นเชิงลึก ปกติแค่เอาผลค้นหาสักไม่กี่รายการใส่ให้ GPT พร้อมแนบคำถามของตัวเอง ก็มักได้คำตอบที่ดี Ollama ก็ใช้โครงสร้างแบบนี้ได้เหมือนกัน แต่ GPU ของฉันไม่แรงพอ ถ้า context ยาวก็ช้ามาก
    • สงสัยว่าถ้าไม่มี scraping API จะทำให้ใช้งานแบบมีความหมายได้อย่างไร เพราะ official API จำกัดมากเกินไป
  • สับสนว่า “บัญชี Ollama” หมายถึงอะไร ตอนแรกเข้าใจว่า Ollama มีไว้สำหรับ self-host โมเดลเป็นหลัก
    • ถ้าจะใช้ฟีเจอร์เพิ่มหรือโมเดลคลาวด์ที่ Ollama โฮสต์ไว้ จำเป็นต้องสมัครบัญชี แต่โดยพื้นฐานแล้วเป็นตัวเลือกจริง ๆ และยังสามารถสร้างโมเดลเองแบบ local ทั้งหมดแล้วแชร์บน ollama.com ได้ด้วย
  • ตอนนี้ฉันก็กำลังทำเครื่องมือโดยต่อ web search เข้าไปและทดสอบผู้ให้บริการหลายรายอยู่พอดี openAI, xAI, gemini ใช้ไม่ได้กับเว็บไซต์ของคู่แข่งเพราะถูกบล็อก แต่ในวิดีโอ YT การค้นหานี้ทำงานได้ดีจากการทดสอบง่าย ๆ และเข้าถึงได้ต่างจาก OpenAI web search ส่วนบน X ใช้งานได้ไม่ดีนัก แต่บางครั้งก็ให้ผลลัพธ์ที่โอเค แม้ไม่สมบูรณ์แบบ แต่โดยเฉลี่ยแล้วถือว่าใช้ได้