- เครื่องมือ กราฟิก UI ที่ออกแบบมาเพื่อให้รัน LLM บนฮาร์ดแวร์ส่วนตัวได้อย่างง่ายดาย
- ทำงานอัตโนมัติในขั้นตอนที่ซับซ้อน เช่น การจัดการแบ็กเอนด์ การดาวน์โหลดโมเดล และการตั้งค่าการเร่งความเร็วด้วยฮาร์ดแวร์
- ทำงานบนพื้นฐานของ KoboldCpp ที่ฟอร์กมาจาก llama.cpp และรองรับทั้งการสร้างข้อความและภาพ
- รองรับการรันแบบเนทีฟบน Windows, macOS, Linux (โดยเฉพาะรวมถึง Wayland)
- ทำงานได้แม้บนระบบที่ใช้ CPU อย่างเดียว และรองรับการเร่งความเร็วด้วย GPU บนพื้นฐานของ CUDA, ROCm, Vulkan, CLBlast, Metal
- มีฟีเจอร์สร้างภาพในตัว : มีพรีเซ็ตเวิร์กโฟลว์หลัก เช่น Flux, Chroma, Qwen Image, Z-Image
- ฟังก์ชันค้นหาแบบผสานกับ HuggingFace ช่วยให้ค้นหาโมเดล ดูโมเดลการ์ด และ ดาวน์โหลดไฟล์ GGUF ได้โดยตรง ภายในแอป
- สามารถรันผ่าน เทอร์มินัล ได้ด้วยตัวเลือก
--cli โดยใช้แบ็กเอนด์เดียวกันโดยไม่ต้องมี GUI และ ใช้ทรัพยากรน้อยที่สุด
- ไลเซนส์ AGPL-3.0
1 ความคิดเห็น
มีข้อดีอะไรบ้างเมื่อเทียบกับ ollama?