• หลักสูตรฟรีแบบโอเพนซอร์ส ที่ช่วยให้เรียนรู้ เทคโนโลยีการรันโมเดล AI บนอุปกรณ์เอดจ์โดยตรง ได้อย่างเป็นลำดับขั้น
  • เป้าหมายคือการ รันโมเดล AI บนอุปกรณ์โดยตรงแทนคลาวด์ เพื่อให้เกิด ความหน่วงต่ำลง การคุ้มครองความเป็นส่วนตัว การลดต้นทุน และการพึ่งพาเครือข่ายน้อยลง
  • ผู้เรียนสามารถทำโปรเจ็กต์เชิงปฏิบัติได้จริง เช่น การดีพลอย SLM การสร้างระบบมัลติเอเจนต์ การทำ local RAG pipeline และ model routing พร้อมเรียนรู้ เทคนิคการดีพลอยในสภาพแวดล้อม Windows, มือถือ, embedded และ hybrid
  • อธิบายวิธี ปรับปรุงประสิทธิภาพ (เพิ่มความเร็วได้สูงสุด 85%, ลดขนาดโมเดลได้ 75%) ผ่านเครื่องมือเพิ่มประสิทธิภาพหลักอย่าง Llama.cpp, Microsoft Olive, OpenVINO, Apple MLX โดยเน้นการลงมือปฏิบัติ
  • หลักสูตร (เวลาโดยประมาณทั้งหมด: 36–45 ชั่วโมง)
    • 0. ภาพรวมของ EdgeAI และแนะนำเป้าหมายการเรียนรู้ (เริ่มต้น : 1–2 ชั่วโมง)
    • 1. แนวคิดพื้นฐานและกรณีใช้งานของ Edge AI (ระดับต้น : 3–4 ชั่วโมง)
    • 2. โครงสร้างและตระกูลของโมเดล SLM (ระดับต้น : 4–5 ชั่วโมง)
    • 3. เวิร์กช็อปการดีพลอยแบบ local และ cloud (ระดับกลาง : 4–5 ชั่วโมง)
    • 4. ชุดเครื่องมือเพิ่มประสิทธิภาพโมเดล (Llama.cpp เป็นต้น) (ระดับกลาง : 5–6 ชั่วโมง)
    • 5. SLMOps และการ fine-tuning (ระดับสูง : 5–6 ชั่วโมง)
    • 6. AI agent และ Function Calling (ระดับสูง : 4–5 ชั่วโมง)
    • 7. การพัฒนาแบบข้ามแพลตฟอร์ม (ระดับสูง : 3–4 ชั่วโมง)
    • 8. โปรเจ็กต์ตัวอย่าง Foundry Local (ระดับผู้เชี่ยวชาญ : 8–10 ชั่วโมง)

ยังไม่มีความคิดเห็น

ยังไม่มีความคิดเห็น