30 คะแนน โดย xguru 2026-01-20 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • เครื่องมือ กราฟิก UI ที่ออกแบบมาเพื่อให้รัน LLM บนฮาร์ดแวร์ส่วนตัวได้อย่างง่ายดาย
  • ทำงานอัตโนมัติในขั้นตอนที่ซับซ้อน เช่น การจัดการแบ็กเอนด์ การดาวน์โหลดโมเดล และการตั้งค่าการเร่งความเร็วด้วยฮาร์ดแวร์
  • ทำงานบนพื้นฐานของ KoboldCpp ที่ฟอร์กมาจาก llama.cpp และรองรับทั้งการสร้างข้อความและภาพ
  • รองรับการรันแบบเนทีฟบน Windows, macOS, Linux (โดยเฉพาะรวมถึง Wayland)
  • ทำงานได้แม้บนระบบที่ใช้ CPU อย่างเดียว และรองรับการเร่งความเร็วด้วย GPU บนพื้นฐานของ CUDA, ROCm, Vulkan, CLBlast, Metal
  • มีฟีเจอร์สร้างภาพในตัว : มีพรีเซ็ตเวิร์กโฟลว์หลัก เช่น Flux, Chroma, Qwen Image, Z-Image
  • ฟังก์ชันค้นหาแบบผสานกับ HuggingFace ช่วยให้ค้นหาโมเดล ดูโมเดลการ์ด และ ดาวน์โหลดไฟล์ GGUF ได้โดยตรง ภายในแอป
  • สามารถรันผ่าน เทอร์มินัล ได้ด้วยตัวเลือก --cli โดยใช้แบ็กเอนด์เดียวกันโดยไม่ต้องมี GUI และ ใช้ทรัพยากรน้อยที่สุด
  • ไลเซนส์ AGPL-3.0

1 ความคิดเห็น

 
vigorous5537 2026-01-20

มีข้อดีอะไรบ้างเมื่อเทียบกับ ollama?