- ผู้ช่วย AI ที่ทำงานแบบโลคัลและพัฒนาด้วย Rust ทำงานได้ครบถ้วนบนอุปกรณ์ส่วนตัวโดยไม่ต้องเชื่อมต่ออินเทอร์เน็ต และไม่มีการส่งข้อมูลออกไปภายนอก
- โครงสร้างแบบไฟล์ปฏิบัติการเดียว สามารถรันได้โดยไม่ต้องติดตั้ง Node.js, Docker หรือ Python และมาในรูปไบนารีขนาดเล็กประมาณ 27MB
- ระบบหน่วยความจำถาวร มอบความสามารถด้านความจำระยะยาวและการค้นหาผ่านคลังความรู้ที่อิง Markdown พร้อม SQLite FTS5 และ semantic search
- รองรับทั้ง CLI, เว็บ UI และเดสก์ท็อป GUI และใช้งานร่วมกับ ผู้ให้บริการ LLM หลายราย เช่น OpenAI, Anthropic และ Ollama
- เข้ากันได้กับฟอร์แมต OpenClaw จึงสามารถใช้ไฟล์ SOUL, MEMORY และ HEARTBEAT เพื่อทำงานอัตโนมัติได้
ภาพรวม
- LocalGPT คือ ผู้ช่วย AI ที่เน้นอุปกรณ์โลคัลเป็นศูนย์กลาง เป็นแอปพลิเคชันที่พัฒนาด้วย Rust พร้อมความสามารถด้านหน่วยความจำถาวรและการทำงานอัตโนมัติ
- ทำงานได้เต็มรูปแบบบนอุปกรณ์ส่วนตัวโดยไม่ต้องพึ่งพาเซิร์ฟเวอร์ภายนอก
- ได้แรงบันดาลใจจากโครงการ OpenClaw และยังคงความเข้ากันได้ไว้
- ติดตั้งได้ด้วยคำสั่ง
cargo install localgpt และเลือกใช้งานแบบมี GUI หรือ โหมด headless ได้
คุณสมบัติหลัก
- โครงสร้างแบบไบนารีเดี่ยว จึงไม่ต้องใช้ Node.js, Docker หรือ Python
- เก็บข้อมูลไว้ภายในเครื่อง: หน่วยความจำและการตั้งค่าทั้งหมดจะถูกเก็บไว้ในอุปกรณ์ของผู้ใช้
- หน่วยความจำถาวร: ใช้คลังความรู้ที่อิงไฟล์ Markdown พร้อมรองรับการค้นหาอย่างรวดเร็วด้วย SQLite FTS5 และการค้นหาเชิงความหมายผ่าน sqlite-vec
- มีความสามารถ heartbeat อัตโนมัติ เพื่อทำงานอยู่เบื้องหลังได้
- อินเทอร์เฟซหลากหลาย: มี CLI, เว็บ UI และเดสก์ท็อป GUI
- รองรับ LLM หลายราย: เชื่อมต่อกับ Anthropic (Claude), OpenAI, Ollama และอื่น ๆ ได้
วิธีการทำงาน
- หน่วยความจำจะถูกเก็บไว้ในไดเรกทอรี
~/.localgpt/workspace/ โดยมีโครงสร้างไฟล์หลักดังนี้
MEMORY.md: เก็บองค์ความรู้ระยะยาว
HEARTBEAT.md: คิวงานอัตโนมัติ
SOUL.md: บุคลิกและแนวทางการทำงาน
knowledge/: คลังความรู้แบบมีโครงสร้างตามหัวข้อ
- ใช้ SQLite FTS5 สำหรับค้นหาด้วยคีย์เวิร์ด และใช้ sqlite-vec สำหรับ การค้นหาเชิงความหมายบนฐาน embedding แบบโลคัล
การตั้งค่าและคำสั่ง CLI
- ไฟล์ตั้งค่าจะถูกเก็บไว้ที่
~/.localgpt/config.toml และสามารถกำหนดโมเดลเริ่มต้น, API key, รอบการทำงานของ heartbeat, ช่วงเวลาทำงาน และอื่น ๆ
- คำสั่ง CLI หลัก
localgpt chat: เริ่มเซสชันสนทนา
localgpt ask "질문": รันคำถามเดี่ยว
localgpt daemon start: เริ่มเดมอนเบื้องหลัง
localgpt memory search "query": ค้นหาหน่วยความจำ
localgpt config init: สร้างการตั้งค่าเริ่มต้น
HTTP API
- เมื่อรันเดมอน จะมี REST API ให้ใช้งาน
GET /health: ตรวจสอบสถานะ
POST /api/chat: คำขอสนทนา
GET /api/memory/search?q=<query>: ค้นหาหน่วยความจำ
GET /api/memory/stats: ดูสถิติหน่วยความจำ
สแต็กเทคโนโลยี
- พัฒนาบน Rust, Tokio, Axum, SQLite (FTS5 + sqlite-vec), fastembed, eframe
- เผยแพร่ภายใต้ไลเซนส์ Apache-2.0 และโค้ดราว 93% เขียนด้วย Rust
ข้อมูลอื่น ๆ
- บน GitHub มีประมาณ 646 ดาว และ 39 ฟอร์ก
- บทความบล็อก “Why I Built LocalGPT in 4 Nights” เปิดเผยกระบวนการพัฒนาและรายละเอียดรายคอมมิต
- พบว่าผู้มีส่วนร่วมหลักมี 4 คน ได้แก่ Yi Wang, Claude, objectkit, Ax73
1 ความคิดเห็น
ความเห็นจาก Hacker News
ได้มาเห็นอะไรแบบนี้ในปี 2026 แล้วรู้สึก ไซเบอร์พังก์ มาก
โครงสร้างอย่าง
MEMORY.md,HEARTBEAT.md,SOUL.mdน่าสนใจมากแต่พอพึ่ง
ANTHROPIC_API_KEYก็เลยเรียกว่า “local-first” ได้ไม่เต็มปากถึงอย่างนั้น ในระยะยาวก็ยังคิดว่า local-first คืออนาคต
ปีที่แล้วฉันทำอะไรคล้ายกันด้วย Rust แล้วพอรันโมเดลในเครื่อง ความเร็วต่างกันชัดเจนมาก
มี วิดีโอเดโมของฉัน ด้วย
การทำอะไรแบบนี้ในระดับ OS เป็นประสบการณ์ระดับ การเปลี่ยนกระบวนทัศน์ จริงๆ
คิดว่าในอีก 5~10 ปีข้างหน้า วิธีที่เราโต้ตอบกับอุปกรณ์จะเปลี่ยนไปอย่างถึงราก
สามารถระบุ endpoint ที่เข้ากันได้กับ OpenAI หรือ Anthropic เองได้ และใช้บน localhost ก็ได้
เพิ่งเริ่มได้ไม่นาน แต่ดูมีอนาคตพอสมควร
ว่ากันว่าในอีกไม่กี่ปีจะมีดาต้าเซ็นเตอร์ระดับกิกะวัตต์มากกว่า 100 แห่ง
ฉันคิดว่าอย่างน้อยก็เป็นการใช้เงินที่ดีกว่าอุตสาหกรรมอาวุธมาก
ขอคำแนะนำอย่างหนึ่ง ถ้าจะเขียนโพสต์หรือเอกสาร ควรเขียนเองหรืออย่างน้อยก็ แก้ไข เอง
เอกสารกับบทความตอนนี้ดูเหมือน LLM เขียนทั้งหมด จนไม่รู้สึกถึงความตั้งใจเลย
เครื่องซักฟอกงานลอกเลียน พวกนี้กำลังทำลายสัญชาตญาณการเขียนของคน
ปกติฉันเกลียดการเขียนเอกสารอยู่แล้ว เมื่อก่อนโค้ดของฉันแทบไม่มีเอกสารเลย
เลยทำให้คนอื่นเอาไปใช้ยาก
LLM เหมาะมากสำหรับงานเขียนเอกสาร เพราะช่วยสร้าง คำอธิบายที่ถูกต้อง ได้เร็ว และอัปเดตให้ทันสมัยอยู่เสมอ
ต่อให้ดูออกว่าไม่ใช่มนุษย์เขียน ถ้าเนื้อหาถูกต้อง ฉันก็คิดว่าไม่ใช่ปัญหา
กลับกลายเป็นมีบรรยากาศที่ภูมิใจกับการไม่ลงแรงเสียมากกว่า
ไอเดียของโปรเจกต์นี้ยอดเยี่ยมมาก
แกนสำคัญคือเฟรมเวิร์กแบบมีโครงสร้างสำหรับ หน่วยความจำถาวร + การค้นหาเชิงความหมาย
ฟังก์ชัน SOUL จริงๆ แล้ว LLM ส่วนใหญ่ก็รองรับอยู่แล้วในรูปแบบไฟล์ Markdown
โครงสร้างแบบนี้อาจเป็นจุดเริ่มต้นของการสร้าง เครือข่ายเอเจนต์ส่วนตัว ได้
แต่ปัญหาอยู่ที่ชื่อ — LocalGPT นั้น
น่าจะเปลี่ยนเป็นชื่อที่สะท้อนเจตนาได้แม่นยำกว่านี้
ถามจริงจังเลยนะ อยากรู้ว่านี่ต่างจาก OpenClaw ยังไง
ใช้โครงสร้าง
SOUL.md,MEMORY.md,HEARTBEAT.mdเหมือนกันแถม OpenClaw ก็มีทั้งการส่งข้อความหลายช่องทาง, การโทรด้วยเสียง, การทำ browser automation, ไปจนถึง ซับเอเจนต์ อยู่แล้ว
นอกจากเขียนด้วย Rust แล้ว มีจุดต่างอะไรอีกหรือเปล่า
เพราะมันมีฟีเจอร์เยอะเกินไป และ สถาปัตยกรรมความปลอดภัย ก็อ่อนมาก
การอนุมัติสิทธิ์ก็เป็นแค่พิธีการ แถมยังแก้การตั้งค่าของตัวเองได้ด้วย
เลยทำให้ฉันแยกสิทธิ์ด้วย Wardgate
จำเป็นต้องแยกเป็นหลายโหนด/หลายเอเจนต์ แล้วแยก credential กับการเข้าถึง API ออกจากกัน
เพราะไม่ใช่ทุกคนจะมีเครื่องแรงๆ
สงสัยว่าทำไมต้องเชื่อมต่อกับผู้ให้บริการ LLM (อย่าง OpenAI, Anthropic ฯลฯ)
ถ้าเป็น local GPT ก็ควรทำ inference ในเครื่องด้วยไม่ใช่เหรอ?
สามารถตั้งเซิร์ฟเวอร์โลคัลอย่าง Ollama ให้เป็นผู้ให้บริการ LLM ได้
ใน README มีแต่ตัวอย่าง Anthropic แต่ถ้าดูจากโค้ด ก็รองรับอย่างอื่นด้วย
แค่เปลี่ยนค่าคอนฟิกบรรทัดเดียว
ในความเป็นจริงมันไม่ใช่ทั้ง local และไม่ใช่ GPT
ใกล้เคียงกับ โคลน OpenClaw เวอร์ชัน Rust มากกว่า
โค้ดที่เกี่ยวข้อง: providers.rs L222
ปัญหาความปลอดภัยหลักของเอเจนต์อย่าง LocalGPT หรือ OpenClaw คือ
สามประสานอันตราย ของ “private data access + external communication + untrusted content”
แค่อีเมลอันตรายฉบับเดียว ก็อาจทำให้มันทำตามคำสั่งอย่าง “ส่งกล่องเมลของฉันให้ผู้โจมตี” ได้
ฉันกำลังวิจัยนโยบายความปลอดภัยแบบ object-capability เพื่อแก้ปัญหานี้
อยากสร้างนโยบายที่ป้องกันการรั่วไหลของข้อมูลอ่อนไหวได้ตั้งแต่ต้นทาง
ฉันมองว่ามีสองทางแก้
แต่จะทำให้ผู้ใช้ล้าได้มาก
ไม่ทราบว่าคุณกำลังศึกษาวิธีอื่นอยู่ด้วยหรือเปล่า
ฉันเคยใช้ OpenClaw แล้วรู้สึกว่ามันขาด การสังเกตการณ์ระบบ (observability)
ตอนนี้เอเจนต์กำลังคิดอะไร ทำอะไรอยู่ แทบไม่มี log ให้ดูเลย
ระบบแบบนี้ถ้าเขียนด้วย Elixir/BEAM น่าจะเหมาะมาก
จะติดตามสถานะผ่าน process tree ก็ได้ และ dump message box มาดูสายความคิดได้ด้วย
ที่แสดงให้เห็นเป็นเพียงบางส่วน และจริงๆ แล้วใช้ token มากกว่านั้น
เรื่องที่ควรเป็นฟังก์ชันพื้นฐานกลับต้องไปแก้ด้วยวิดีโอสอนใน YouTube ตอนนี้มัน โกลาหล สุดๆ
บน Linux Mint คำสั่ง
cargo install localgptล้มเหลวพอเพิ่ม
"x11"ในCargo.tomlแล้ว build ผ่านฉันไม่ค่อยรู้ Rust เท่าไร แต่ดูเหมือนจะเป็น ปัญหา dependency ของ GUI
ถ้าจะใช้เป็นผู้ช่วยในเครื่อง มี โมเดลโลคัล ตัวไหนน่าใช้บ้าง?
อยากรู้ด้วยว่ามีการประเมิน จุดแลกเปลี่ยนระหว่างทรัพยากรประมวลผลกับหน่วยความจำ กันบ้างไหม
ต้องมีฮาร์ดแวร์ระดับไหนถึงจะใช้งานได้อย่างมีประโยชน์
ช่วงนี้คำว่า “โลคัล” ถูกใช้ได้แปลกมาก
ทั้งที่ฟังก์ชันส่วนใหญ่สุดท้ายก็ยัง โต้ตอบกับอินเทอร์เน็ต อยู่ดี แต่ก็ยังเรียกว่าโลคัล