- เครื่องมือ CLI ข้ามแพลตฟอร์มสำหรับประเมิน จำนวนโทเคนและค่าใช้จ่าย API ได้อย่างรวดเร็วและแม่นยำ สำหรับผู้ให้บริการ/โมเดล LLM หลายราย เช่น OpenAI, Claude, Gemini, OpenRouter เป็นต้น
- รองรับการคำนวณโทเคนตามแต่ละโมเดล และ คำนวณค่าใช้จ่ายของการเรียก API อัตโนมัติ จากราคาต่อโทเคนของแต่ละโมเดล
- ไม่ได้รองรับแค่พรอมป์ต์เดี่ยว แต่ยังมีฟีเจอร์ที่เหมาะกับเวิร์กโฟลว์ใช้งานจริง เช่น รูปแบบแชต JSON, การแยกโทเคนตามบทบาท (system/user/assistant), การเปรียบเทียบโทเคนและค่าใช้จ่ายระหว่างหลายโมเดล, Markdown minify, โหมด diff, โหมด watch
- เมื่อเปิดฟีเจอร์
load-test จะทำงานเป็น ตัวรันทดสอบโหลดที่วัด concurrency, latency, error rate, โทเคน และค่าใช้จ่ายได้พร้อมกัน สำหรับ OpenAI, Anthropic, OpenRouter และ custom endpoint
- มี โหมด dry-run สำหรับคาดการณ์ค่าใช้จ่ายได้โดยไม่ต้องเรียกใช้งานจริง
- รองรับรูปแบบอินพุต/เอาต์พุตที่หลากหลาย
- อินพุต: รองรับทั้งข้อความทั่วไปและรูปแบบแชต JSON พร้อมทั้งมีฟีเจอร์ รับข้อมูลจากไฟล์, standard input, และ เปรียบเทียบพรอมป์ต์ (diff)
- เอาต์พุต: รองรับรูปแบบผลลัพธ์หลากหลาย เช่น text/json/csv/Prometheus/markdown
- สามารถรักษา ความแม่นยำของการประเมินค่าใช้จ่าย ได้แม้ราคาของแต่ละโมเดลเปลี่ยนแปลง โดยใช้ไฟล์ราคากำหนดเอง (TOML)
- มีโครงสร้างแบบแยกโมดูลสำหรับ tokenizer, คำจำกัดความของโมเดล, parser, output, HTTP/provider และ simulator จึงเหมาะกับ การเพิ่มโมเดลใหม่ ผู้ให้บริการใหม่ หรือผสานเข้ากับ CI/ไปป์ไลน์อัตโนมัติ
ยังไม่มีความคิดเห็น