- ใช้ ไลบรารี MLX เพื่อรันบน Mac ได้โดยตรง และ เสิร์ฟแบบโลคัล ด้วยโมเดลล่าสุดที่ทรงพลังอย่าง Qwen3-30B-A3B-8bit
- เชื่อมต่อเข้ากับ Localforge ในรูปแบบ OpenAI API เพื่อสร้าง agent loop
- เพิ่มการตั้งค่า โมเดลเสริมบนพื้นฐาน ollama (Gemma3) เพื่อแยกบทบาทผู้ช่วยของเอเจนต์และทำให้ใช้เครื่องมือได้อย่างมีประสิทธิภาพ
- หลังตั้งค่าเอเจนต์ใน UI ของ Localforge แล้ว สามารถทำได้ตั้งแต่ "รันเครื่องมือ LS", สร้างเว็บไซต์ ไปจนถึงรันเกมงูอัตโนมัติ
- ทุกขั้นตอนนี้ ฟรีและสามารถทำงานแบบอัตโนมัติเต็มรูปแบบบนเครื่องโลคัลได้, เป็นโปรเจกต์ที่ผู้ใช้ Mac น่าลองทำตาม
รัน Qwen3 แบบโลคัลบน Mac
การตั้งค่า Localforge
- เว็บไซต์ทางการ: https://localforge.dev
- หลังติดตั้งแล้ว ต้องตั้งค่าดังนี้:
-
เพิ่ม provider
- a) provider ของ Ollama (โมเดลเสริม)
- ชื่อ: LocalOllama
- ประเภท: ollama
- ต้องติดตั้ง: โมเดล gemma3:latest (เหมาะกับงานประมวลผลภาษาที่ไม่ซับซ้อน)
-
b) provider ของ Qwen3 (โมเดลหลัก)
-
สร้างเอเจนต์
- ชื่อ: qwen3-agent
- โมเดลหลัก: qwen3:mlx:30b (ชื่อโมเดล:
mlx-community/Qwen3-30B-A3B-8bit)
- โมเดลเสริม: LocalOllama (ชื่อโมเดล:
gemma3:latest)
สรุป
- บน Mac สามารถ รันโมเดลขนาดใหญ่แบบโลคัลฟรีเพื่อทำระบบเขียนโค้ดอัตโนมัติแบบเอเจนต์ได้
- หากเลือกโมเดลหรือปรับแต่ง system prompt ก็สามารถได้ผลลัพธ์ที่ละเอียดขึ้นอีก
- Localforge + MLX + Qwen3 เป็นชุดผสานที่ มีประโยชน์มากสำหรับการทดลอง LLM ส่วนบุคคล
3 ความคิดเห็น
ถ้ารัน 30b บนเครื่องโลคัลได้ก็น่าประทับใจมากเลยนะ? Qwen2.5-Coder ไม่ค่อยดีเท่าไหร่ แต่ตัวนี้ก็น่าลองดูครับ
Qwen3 - โมเดลภาษายุคถัดไปที่คิดได้ลึกกว่าและลงมือได้เร็วกว่า
ความคิดเห็นบน Hacker News
กำลังใช้งานโมเดล Qwen3-30B-A3B แบบโลคัลอยู่ และน่าประทับใจมาก สำหรับคนที่รอ GPT-4 อยู่ก็น่าจะเป็นทางเลือกได้ บน M3 Max ได้ความเร็ว 70 tok/s เลยใช้งานได้ดีมาก
การรัน qwen3 แล้วเรียกใช้เครื่องมือ
lsไม่ใช่ "vibe coding" มันดูเหมือนโฆษณาให้ LocalForge มากกว่าอยากชม MLX และ MLX-LM กำลังใช้มันปรับจูน Gemma 3 แบบโลคัล และไลบรารีกับเครื่องมือที่นักพัฒนา Apple สร้างมาก็จัดวางมาอย่างดี
บังเอิญทำให้ Qwen3 ติดลูปด้วยพรอมป์ต์ง่าย ๆ
มีใครรู้จักการตั้งค่าที่ทำให้ local LLM ทำงานร่วมกันผ่าน MCP ได้บ้างไหม ไม่ว่าจะช่วยกันทำงาน บีบอัดคอนเท็กซ์ หรือร่วมมือกับคลาวด์เอเจนต์
อยากแชร์ทิวทอเรียลสั้น ๆ สำหรับการรัน autonomous agent จริง ๆ บนเครื่องโลคัลให้ทำงานง่าย ๆ ได้
ดีใจที่ได้เจอ LocalForge และมีคำถามเกี่ยวกับมัน สามารถเอาเอเจนต์สองตัวมารวมกันได้ไหม เพื่อส่งภาพไปให้ multimodal agent ที่จะสร้าง html/css แล้วให้อีกเอเจนต์เขียนโค้ดส่วนที่เหลือ
น่าประทับใจมาก ไม่จำเป็นต้องดีเท่ากับโมเดลโทเค็นแบบเสียเงินก็ได้
ดูดีเลย กำลังหา IDE ช่วยเขียนโค้ดแบบ AI ที่เน้นโลคัลเป็นหลักเพื่อใช้กับ Gemma 3 27B ของ Google
การรันโมเดลบนเครื่องเริ่มน่าสนใจขึ้นแล้ว โดยเฉพาะเวอร์ชัน 30B-A3B ที่ดูไปในทิศทางที่มีอนาคต แม้บน VRAM 16 GB จะยังเอาไม่ถึง แต่ก็ถือว่าเข้าถึงได้พอสมควร