- หลักสูตรฟรีแบบโอเพนซอร์ส ที่ช่วยให้เรียนรู้ เทคโนโลยีการรันโมเดล AI บนอุปกรณ์เอดจ์โดยตรง ได้อย่างเป็นลำดับขั้น
- เป้าหมายคือการ รันโมเดล AI บนอุปกรณ์โดยตรงแทนคลาวด์ เพื่อให้เกิด ความหน่วงต่ำลง การคุ้มครองความเป็นส่วนตัว การลดต้นทุน และการพึ่งพาเครือข่ายน้อยลง
- ผู้เรียนสามารถทำโปรเจ็กต์เชิงปฏิบัติได้จริง เช่น การดีพลอย SLM การสร้างระบบมัลติเอเจนต์ การทำ local RAG pipeline และ model routing พร้อมเรียนรู้ เทคนิคการดีพลอยในสภาพแวดล้อม Windows, มือถือ, embedded และ hybrid
- อธิบายวิธี ปรับปรุงประสิทธิภาพ (เพิ่มความเร็วได้สูงสุด 85%, ลดขนาดโมเดลได้ 75%) ผ่านเครื่องมือเพิ่มประสิทธิภาพหลักอย่าง Llama.cpp, Microsoft Olive, OpenVINO, Apple MLX โดยเน้นการลงมือปฏิบัติ
- หลักสูตร (เวลาโดยประมาณทั้งหมด: 36–45 ชั่วโมง)
- 0. ภาพรวมของ EdgeAI และแนะนำเป้าหมายการเรียนรู้ (เริ่มต้น : 1–2 ชั่วโมง)
- 1. แนวคิดพื้นฐานและกรณีใช้งานของ Edge AI (ระดับต้น : 3–4 ชั่วโมง)
- 2. โครงสร้างและตระกูลของโมเดล SLM (ระดับต้น : 4–5 ชั่วโมง)
- 3. เวิร์กช็อปการดีพลอยแบบ local และ cloud (ระดับกลาง : 4–5 ชั่วโมง)
- 4. ชุดเครื่องมือเพิ่มประสิทธิภาพโมเดล (Llama.cpp เป็นต้น) (ระดับกลาง : 5–6 ชั่วโมง)
- 5. SLMOps และการ fine-tuning (ระดับสูง : 5–6 ชั่วโมง)
- 6. AI agent และ Function Calling (ระดับสูง : 4–5 ชั่วโมง)
- 7. การพัฒนาแบบข้ามแพลตฟอร์ม (ระดับสูง : 3–4 ชั่วโมง)
- 8. โปรเจ็กต์ตัวอย่าง Foundry Local (ระดับผู้เชี่ยวชาญ : 8–10 ชั่วโมง)
ยังไม่มีความคิดเห็น