• เครื่องมือ CLI ข้ามแพลตฟอร์มสำหรับประเมิน จำนวนโทเคนและค่าใช้จ่าย API ได้อย่างรวดเร็วและแม่นยำ สำหรับผู้ให้บริการ/โมเดล LLM หลายราย เช่น OpenAI, Claude, Gemini, OpenRouter เป็นต้น
  • รองรับการคำนวณโทเคนตามแต่ละโมเดล และ คำนวณค่าใช้จ่ายของการเรียก API อัตโนมัติ จากราคาต่อโทเคนของแต่ละโมเดล
  • ไม่ได้รองรับแค่พรอมป์ต์เดี่ยว แต่ยังมีฟีเจอร์ที่เหมาะกับเวิร์กโฟลว์ใช้งานจริง เช่น รูปแบบแชต JSON, การแยกโทเคนตามบทบาท (system/user/assistant), การเปรียบเทียบโทเคนและค่าใช้จ่ายระหว่างหลายโมเดล, Markdown minify, โหมด diff, โหมด watch
  • เมื่อเปิดฟีเจอร์ load-test จะทำงานเป็น ตัวรันทดสอบโหลดที่วัด concurrency, latency, error rate, โทเคน และค่าใช้จ่ายได้พร้อมกัน สำหรับ OpenAI, Anthropic, OpenRouter และ custom endpoint
    • มี โหมด dry-run สำหรับคาดการณ์ค่าใช้จ่ายได้โดยไม่ต้องเรียกใช้งานจริง
  • รองรับรูปแบบอินพุต/เอาต์พุตที่หลากหลาย
    • อินพุต: รองรับทั้งข้อความทั่วไปและรูปแบบแชต JSON พร้อมทั้งมีฟีเจอร์ รับข้อมูลจากไฟล์, standard input, และ เปรียบเทียบพรอมป์ต์ (diff)
    • เอาต์พุต: รองรับรูปแบบผลลัพธ์หลากหลาย เช่น text/json/csv/Prometheus/markdown
  • สามารถรักษา ความแม่นยำของการประเมินค่าใช้จ่าย ได้แม้ราคาของแต่ละโมเดลเปลี่ยนแปลง โดยใช้ไฟล์ราคากำหนดเอง (TOML)
  • มีโครงสร้างแบบแยกโมดูลสำหรับ tokenizer, คำจำกัดความของโมเดล, parser, output, HTTP/provider และ simulator จึงเหมาะกับ การเพิ่มโมเดลใหม่ ผู้ให้บริการใหม่ หรือผสานเข้ากับ CI/ไปป์ไลน์อัตโนมัติ

ยังไม่มีความคิดเห็น

ยังไม่มีความคิดเห็น