2 คะแนน โดย GN⁺ 2026-02-09 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • ผู้ช่วย AI ที่ทำงานแบบโลคัลและพัฒนาด้วย Rust ทำงานได้ครบถ้วนบนอุปกรณ์ส่วนตัวโดยไม่ต้องเชื่อมต่ออินเทอร์เน็ต และไม่มีการส่งข้อมูลออกไปภายนอก
  • โครงสร้างแบบไฟล์ปฏิบัติการเดียว สามารถรันได้โดยไม่ต้องติดตั้ง Node.js, Docker หรือ Python และมาในรูปไบนารีขนาดเล็กประมาณ 27MB
  • ระบบหน่วยความจำถาวร มอบความสามารถด้านความจำระยะยาวและการค้นหาผ่านคลังความรู้ที่อิง Markdown พร้อม SQLite FTS5 และ semantic search
  • รองรับทั้ง CLI, เว็บ UI และเดสก์ท็อป GUI และใช้งานร่วมกับ ผู้ให้บริการ LLM หลายราย เช่น OpenAI, Anthropic และ Ollama
  • เข้ากันได้กับฟอร์แมต OpenClaw จึงสามารถใช้ไฟล์ SOUL, MEMORY และ HEARTBEAT เพื่อทำงานอัตโนมัติได้

ภาพรวม

  • LocalGPT คือ ผู้ช่วย AI ที่เน้นอุปกรณ์โลคัลเป็นศูนย์กลาง เป็นแอปพลิเคชันที่พัฒนาด้วย Rust พร้อมความสามารถด้านหน่วยความจำถาวรและการทำงานอัตโนมัติ
    • ทำงานได้เต็มรูปแบบบนอุปกรณ์ส่วนตัวโดยไม่ต้องพึ่งพาเซิร์ฟเวอร์ภายนอก
    • ได้แรงบันดาลใจจากโครงการ OpenClaw และยังคงความเข้ากันได้ไว้
  • ติดตั้งได้ด้วยคำสั่ง cargo install localgpt และเลือกใช้งานแบบมี GUI หรือ โหมด headless ได้

คุณสมบัติหลัก

  • โครงสร้างแบบไบนารีเดี่ยว จึงไม่ต้องใช้ Node.js, Docker หรือ Python
  • เก็บข้อมูลไว้ภายในเครื่อง: หน่วยความจำและการตั้งค่าทั้งหมดจะถูกเก็บไว้ในอุปกรณ์ของผู้ใช้
  • หน่วยความจำถาวร: ใช้คลังความรู้ที่อิงไฟล์ Markdown พร้อมรองรับการค้นหาอย่างรวดเร็วด้วย SQLite FTS5 และการค้นหาเชิงความหมายผ่าน sqlite-vec
  • มีความสามารถ heartbeat อัตโนมัติ เพื่อทำงานอยู่เบื้องหลังได้
  • อินเทอร์เฟซหลากหลาย: มี CLI, เว็บ UI และเดสก์ท็อป GUI
  • รองรับ LLM หลายราย: เชื่อมต่อกับ Anthropic (Claude), OpenAI, Ollama และอื่น ๆ ได้

วิธีการทำงาน

  • หน่วยความจำจะถูกเก็บไว้ในไดเรกทอรี ~/.localgpt/workspace/ โดยมีโครงสร้างไฟล์หลักดังนี้
    • MEMORY.md: เก็บองค์ความรู้ระยะยาว
    • HEARTBEAT.md: คิวงานอัตโนมัติ
    • SOUL.md: บุคลิกและแนวทางการทำงาน
    • knowledge/: คลังความรู้แบบมีโครงสร้างตามหัวข้อ
  • ใช้ SQLite FTS5 สำหรับค้นหาด้วยคีย์เวิร์ด และใช้ sqlite-vec สำหรับ การค้นหาเชิงความหมายบนฐาน embedding แบบโลคัล

การตั้งค่าและคำสั่ง CLI

  • ไฟล์ตั้งค่าจะถูกเก็บไว้ที่ ~/.localgpt/config.toml และสามารถกำหนดโมเดลเริ่มต้น, API key, รอบการทำงานของ heartbeat, ช่วงเวลาทำงาน และอื่น ๆ
  • คำสั่ง CLI หลัก
    • localgpt chat: เริ่มเซสชันสนทนา
    • localgpt ask "질문": รันคำถามเดี่ยว
    • localgpt daemon start: เริ่มเดมอนเบื้องหลัง
    • localgpt memory search "query": ค้นหาหน่วยความจำ
    • localgpt config init: สร้างการตั้งค่าเริ่มต้น

HTTP API

  • เมื่อรันเดมอน จะมี REST API ให้ใช้งาน
    • GET /health: ตรวจสอบสถานะ
    • POST /api/chat: คำขอสนทนา
    • GET /api/memory/search?q=<query>: ค้นหาหน่วยความจำ
    • GET /api/memory/stats: ดูสถิติหน่วยความจำ

สแต็กเทคโนโลยี

  • พัฒนาบน Rust, Tokio, Axum, SQLite (FTS5 + sqlite-vec), fastembed, eframe
  • เผยแพร่ภายใต้ไลเซนส์ Apache-2.0 และโค้ดราว 93% เขียนด้วย Rust

ข้อมูลอื่น ๆ

  • บน GitHub มีประมาณ 646 ดาว และ 39 ฟอร์ก
  • บทความบล็อก “Why I Built LocalGPT in 4 Nights” เปิดเผยกระบวนการพัฒนาและรายละเอียดรายคอมมิต
  • พบว่าผู้มีส่วนร่วมหลักมี 4 คน ได้แก่ Yi Wang, Claude, objectkit, Ax73

1 ความคิดเห็น

 
GN⁺ 2026-02-09
ความเห็นจาก Hacker News
  • ได้มาเห็นอะไรแบบนี้ในปี 2026 แล้วรู้สึก ไซเบอร์พังก์ มาก
    โครงสร้างอย่าง MEMORY.md, HEARTBEAT.md, SOUL.md น่าสนใจมาก
    แต่พอพึ่ง ANTHROPIC_API_KEY ก็เลยเรียกว่า “local-first” ได้ไม่เต็มปาก
    ถึงอย่างนั้น ในระยะยาวก็ยังคิดว่า local-first คืออนาคต
    ปีที่แล้วฉันทำอะไรคล้ายกันด้วย Rust แล้วพอรันโมเดลในเครื่อง ความเร็วต่างกันชัดเจนมาก
    มี วิดีโอเดโมของฉัน ด้วย
    การทำอะไรแบบนี้ในระดับ OS เป็นประสบการณ์ระดับ การเปลี่ยนกระบวนทัศน์ จริงๆ
    คิดว่าในอีก 5~10 ปีข้างหน้า วิธีที่เราโต้ตอบกับอุปกรณ์จะเปลี่ยนไปอย่างถึงราก

    • อันนี้ไม่ใช่ local-first นะ เหมือนตั้งชื่อผิด
    • ไม่จำเป็นต้องใช้ LLM ของบุคคลที่สามก็ได้
      สามารถระบุ endpoint ที่เข้ากันได้กับ OpenAI หรือ Anthropic เองได้ และใช้บน localhost ก็ได้
    • ดูโค้ดที่เกี่ยวข้องได้ที่: providers.rs L222
    • ฉันเองก็กำลังลองรัน OpenClaw กับ Qwen3 Coder Next แบบ local-first บน LAN อยู่
      เพิ่งเริ่มได้ไม่นาน แต่ดูมีอนาคตพอสมควร
    • จะชอบหรือไม่ชอบ AI ก็ตาม ขนาดการลงทุนตอนนี้ก็เหมือน โครงการ Apollo ของคนรุ่นเรา
      ว่ากันว่าในอีกไม่กี่ปีจะมีดาต้าเซ็นเตอร์ระดับกิกะวัตต์มากกว่า 100 แห่ง
      ฉันคิดว่าอย่างน้อยก็เป็นการใช้เงินที่ดีกว่าอุตสาหกรรมอาวุธมาก
  • ขอคำแนะนำอย่างหนึ่ง ถ้าจะเขียนโพสต์หรือเอกสาร ควรเขียนเองหรืออย่างน้อยก็ แก้ไข เอง
    เอกสารกับบทความตอนนี้ดูเหมือน LLM เขียนทั้งหมด จนไม่รู้สึกถึงความตั้งใจเลย

    • ทุกวันนี้มีหลายคนที่เลิกพยายามเขียนเกินไม่กี่ประโยคไปแล้ว
      เครื่องซักฟอกงานลอกเลียน พวกนี้กำลังทำลายสัญชาตญาณการเขียนของคน
    • ฉันก็เห็นด้วย พอเขียนเอกสารเองจริงๆ กลับสนุกกว่าอีก
    • ก็มีอีกมุมหนึ่งเหมือนกัน
      ปกติฉันเกลียดการเขียนเอกสารอยู่แล้ว เมื่อก่อนโค้ดของฉันแทบไม่มีเอกสารเลย
      เลยทำให้คนอื่นเอาไปใช้ยาก
      LLM เหมาะมากสำหรับงานเขียนเอกสาร เพราะช่วยสร้าง คำอธิบายที่ถูกต้อง ได้เร็ว และอัปเดตให้ทันสมัยอยู่เสมอ
      ต่อให้ดูออกว่าไม่ใช่มนุษย์เขียน ถ้าเนื้อหาถูกต้อง ฉันก็คิดว่าไม่ใช่ปัญหา
    • อยากให้มันเป็นแรงยับยั้งต่อ โพสต์คุณภาพต่ำ แบบนี้ได้ แต่ความจริงไม่ใช่
      กลับกลายเป็นมีบรรยากาศที่ภูมิใจกับการไม่ลงแรงเสียมากกว่า
  • ไอเดียของโปรเจกต์นี้ยอดเยี่ยมมาก
    แกนสำคัญคือเฟรมเวิร์กแบบมีโครงสร้างสำหรับ หน่วยความจำถาวร + การค้นหาเชิงความหมาย
    ฟังก์ชัน SOUL จริงๆ แล้ว LLM ส่วนใหญ่ก็รองรับอยู่แล้วในรูปแบบไฟล์ Markdown
    โครงสร้างแบบนี้อาจเป็นจุดเริ่มต้นของการสร้าง เครือข่ายเอเจนต์ส่วนตัว ได้
    แต่ปัญหาอยู่ที่ชื่อ — LocalGPT นั้น

    1. ไม่ได้อยู่ในเครื่อง และ
    2. ก็ไม่ใช่โมเดล GPT
      น่าจะเปลี่ยนเป็นชื่อที่สะท้อนเจตนาได้แม่นยำกว่านี้
  • ถามจริงจังเลยนะ อยากรู้ว่านี่ต่างจาก OpenClaw ยังไง
    ใช้โครงสร้าง SOUL.md, MEMORY.md, HEARTBEAT.md เหมือนกัน
    แถม OpenClaw ก็มีทั้งการส่งข้อความหลายช่องทาง, การโทรด้วยเสียง, การทำ browser automation, ไปจนถึง ซับเอเจนต์ อยู่แล้ว
    นอกจากเขียนด้วย Rust แล้ว มีจุดต่างอะไรอีกหรือเปล่า

    • คนจำนวนมากรวมถึงฉันรู้สึกว่า OpenClaw น่ากลัว
      เพราะมันมีฟีเจอร์เยอะเกินไป และ สถาปัตยกรรมความปลอดภัย ก็อ่อนมาก
      การอนุมัติสิทธิ์ก็เป็นแค่พิธีการ แถมยังแก้การตั้งค่าของตัวเองได้ด้วย
      เลยทำให้ฉันแยกสิทธิ์ด้วย Wardgate
      จำเป็นต้องแยกเป็นหลายโหนด/หลายเอเจนต์ แล้วแยก credential กับการเข้าถึง API ออกจากกัน
    • อันนี้ดูเหมือนเป็นแค่ ตัวสร้างเว็บสแตติกสำหรับ vibe coding
    • ข้อดีคือมันเล็กและไม่ได้ใช้ Node
      เพราะไม่ใช่ทุกคนจะมีเครื่องแรงๆ
  • สงสัยว่าทำไมต้องเชื่อมต่อกับผู้ให้บริการ LLM (อย่าง OpenAI, Anthropic ฯลฯ)
    ถ้าเป็น local GPT ก็ควรทำ inference ในเครื่องด้วยไม่ใช่เหรอ?

    • ไม่จำเป็นต้องต่อออกภายนอกเสมอไป
      สามารถตั้งเซิร์ฟเวอร์โลคัลอย่าง Ollama ให้เป็นผู้ให้บริการ LLM ได้
      ใน README มีแต่ตัวอย่าง Anthropic แต่ถ้าดูจากโค้ด ก็รองรับอย่างอื่นด้วย
      แค่เปลี่ยนค่าคอนฟิกบรรทัดเดียว
    • ความพยายามน่าชื่นชม แต่ชื่อนี้ชวนให้เข้าใจผิด
      ในความเป็นจริงมันไม่ใช่ทั้ง local และไม่ใช่ GPT
      ใกล้เคียงกับ โคลน OpenClaw เวอร์ชัน Rust มากกว่า
    • ถ้าไม่ได้ตั้งค่าโลคัลไว้ มันจะ fallback ไปหาผู้ให้บริการออนไลน์โดยอัตโนมัติ
      โค้ดที่เกี่ยวข้อง: providers.rs L222
    • ไม่ได้จำเป็นต้องใช้
  • ปัญหาความปลอดภัยหลักของเอเจนต์อย่าง LocalGPT หรือ OpenClaw คือ
    สามประสานอันตราย ของ “private data access + external communication + untrusted content”
    แค่อีเมลอันตรายฉบับเดียว ก็อาจทำให้มันทำตามคำสั่งอย่าง “ส่งกล่องเมลของฉันให้ผู้โจมตี” ได้
    ฉันกำลังวิจัยนโยบายความปลอดภัยแบบ object-capability เพื่อแก้ปัญหานี้
    อยากสร้างนโยบายที่ป้องกันการรั่วไหลของข้อมูลอ่อนไหวได้ตั้งแต่ต้นทาง

    • ปัญหาสามประสานนี้คือ งานเร่งด่วนที่สุด ของวงการนี้ในตอนนี้
      ฉันมองว่ามีสองทางแก้
      1. จำกัดการส่งออกภายนอกทั้งหมดให้ต้อง อนุมัติด้วยมือ (เช่น OTP)
        แต่จะทำให้ผู้ใช้ล้าได้มาก
      2. หลีกเลี่ยงสามประสานนี้ตั้งแต่ขั้นออกแบบ — เช่น เอเจนต์แบบสององค์ประกอบ ที่ตัดการสื่อสารภายนอกออกไป
        ไม่ทราบว่าคุณกำลังศึกษาวิธีอื่นอยู่ด้วยหรือเปล่า
  • ฉันเคยใช้ OpenClaw แล้วรู้สึกว่ามันขาด การสังเกตการณ์ระบบ (observability)
    ตอนนี้เอเจนต์กำลังคิดอะไร ทำอะไรอยู่ แทบไม่มี log ให้ดูเลย
    ระบบแบบนี้ถ้าเขียนด้วย Elixir/BEAM น่าจะเหมาะมาก
    จะติดตามสถานะผ่าน process tree ก็ได้ และ dump message box มาดูสายความคิดได้ด้วย

    • โปรเจกต์ lemon ดูเหมือนทำอะไรแบบนั้นอยู่พอดี
    • โมเดลอย่าง GPT หรือ Claude จงใจ ซ่อนความคิดภายใน เอาไว้
      ที่แสดงให้เห็นเป็นเพียงบางส่วน และจริงๆ แล้วใช้ token มากกว่านั้น
    • ไอเดียดีมาก น่าลองทำเองเลย
    • ฉันก็เห็นด้วยว่าเรื่องการสังเกตการณ์ยังแย่มาก
      เรื่องที่ควรเป็นฟังก์ชันพื้นฐานกลับต้องไปแก้ด้วยวิดีโอสอนใน YouTube ตอนนี้มัน โกลาหล สุดๆ
  • บน Linux Mint คำสั่ง cargo install localgpt ล้มเหลว
    พอเพิ่ม "x11" ใน Cargo.toml แล้ว build ผ่าน
    ฉันไม่ค่อยรู้ Rust เท่าไร แต่ดูเหมือนจะเป็น ปัญหา dependency ของ GUI

    • ขั้นตอนติดตั้งมีดังนี้
      git clone https://github.com/localgpt-app/localgpt.git  
      cd localgpt/  
      เพิ่ม "x11" ใน Cargo.toml  
      cargo install --path ~/.cargo/bin
      
      แล้วคุณ Kai Lentit นี่กำลัง รับสมัครงาน อยู่หรือเปล่า?
  • ถ้าจะใช้เป็นผู้ช่วยในเครื่อง มี โมเดลโลคัล ตัวไหนน่าใช้บ้าง?
    อยากรู้ด้วยว่ามีการประเมิน จุดแลกเปลี่ยนระหว่างทรัพยากรประมวลผลกับหน่วยความจำ กันบ้างไหม
    ต้องมีฮาร์ดแวร์ระดับไหนถึงจะใช้งานได้อย่างมีประโยชน์

  • ช่วงนี้คำว่า “โลคัล” ถูกใช้ได้แปลกมาก
    ทั้งที่ฟังก์ชันส่วนใหญ่สุดท้ายก็ยัง โต้ตอบกับอินเทอร์เน็ต อยู่ดี แต่ก็ยังเรียกว่าโลคัล