LLM-Wiki - สร้างคลังความรู้ส่วนตัวด้วย LLM
(gist.github.com/karpathy)- Andrej Karpathy เพิ่งเปิดเผยว่า ช่วงนี้เขาใช้โทเคนไปกับการ สร้างคลังความรู้ส่วนตัว มากกว่าการเขียนโค้ด และได้เผยแพร่ ไฟล์คู่มือแนวคิด สำหรับสร้างวิกิที่ขับเคลื่อนด้วย LLM นี้
- เพียงส่งไฟล์นี้ให้เอเจนต์ มันก็จะสร้างวิกิให้เองและแนะนำวิธีใช้งาน
- เป็นแนวทางที่ LLM เขียนและดูแลวิกิโดยตรง ต่างจาก RAG ที่ดึงข้อมูลจากต้นฉบับใหม่ทุกครั้งเมื่อมีการค้นหา โดยแนวทางนี้สร้าง วิกิถาวร (persistent wiki) ที่ความรู้จะสะสมเพิ่มขึ้นอย่างต่อเนื่อง
- สามารถเปิดวิกิด้วยเครื่องมืออย่าง Obsidian แล้วให้ LLM แก้ไขและอัปเดตไฟล์ Markdown แบบเรียลไทม์ ขณะที่ผู้ใช้โฟกัสกับการคัดเลือกแหล่งข้อมูลและตั้งคำถาม
- เมื่อเพิ่มแหล่งข้อมูลใหม่ LLM จะอ่านเนื้อหาแล้วผสานเข้ากับวิกิเดิมพร้อมเชื่อมโยงข้ามหน้า และการประมวลผลแหล่งข้อมูลเพียงหนึ่งชิ้นอาจอัปเดตหน้าวิกิได้ 10~15 หน้า
- ใช้ได้กับทุกด้านที่ ความรู้สะสมตามกาลเวลา เช่น สุขภาพส่วนตัว การจัดการเป้าหมาย งานวิจัย บันทึกการอ่าน หรือวิกิภายในทีม
- ลด ต้นทุนงานดูแลบันทึก ซึ่งเป็นอุปสรรคสำคัญของการดูแลวิกิ ให้เกือบเป็นศูนย์ด้วย LLM จึงช่วยแก้ปัญหาที่ทำให้หลายคนเลิกดูแลวิกิไป
แนวคิดหลัก
- วิธีใช้เอกสารกับ LLM ส่วนใหญ่คือ RAG (Retrieval-Augmented Generation): อัปโหลดชุดไฟล์แล้วให้ LLM ค้นหาช่วงข้อความที่เกี่ยวข้องเมื่อมีคำถาม จากนั้นจึงสร้างคำตอบ
- NotebookLM, การอัปโหลดไฟล์ใน ChatGPT และระบบ RAG ส่วนใหญ่ทำงานแบบนี้
- เป็นการสกัดความรู้ใหม่ทุกครั้ง โดย ไม่มีการสะสมความรู้
- แนวทางของ LLM-Wiki แตกต่างออกไป: แทนที่ LLM จะค้นจากต้นฉบับโดยตรง มันจะ ค่อย ๆ สร้างและดูแลวิกิถาวร
- เมื่อเพิ่มแหล่งข้อมูลใหม่ LLM จะอ่านเนื้อหา สกัดสาระสำคัญ และผสานเข้ากับวิกิเดิม
- อัปเดตหน้าเอนทิตี ปรับสรุปหัวข้อ ระบุความขัดแย้งกับข้ออ้างเดิม และเสริมการสังเคราะห์ข้อมูล
- วิกิคือ ผลลัพธ์แบบถาวรที่เติบโตทบต้น (persistent, compounding artifact): มีการเชื่อมโยงข้ามหน้าพร้อมแล้ว มีการระบุความขัดแย้งแล้ว และสะท้อนการสังเคราะห์ข้อมูลไว้แล้ว
- ตัวอย่างการใช้งานจริง: เปิด LLM agent ไว้ด้านหนึ่ง และเปิด Obsidian ไว้อีกด้าน เพื่อดูการแก้ไขที่ LLM ทำแบบเรียลไทม์
- Obsidian = IDE, LLM = โปรแกรมเมอร์, วิกิ = codebase
การนำไปใช้
- ส่วนบุคคล: ติดตามเป้าหมาย สุขภาพ จิตใจ การพัฒนาตนเอง — รวบรวมบันทึกประจำวัน บทความ และโน้ตจากพอดแคสต์ มาสร้างเป็นบันทึกตัวตนที่มีโครงสร้าง
- งานวิจัย: อ่านงานวิจัย บทความ และรายงานตลอดหลายสัปดาห์ถึงหลายเดือน แล้วสร้างวิกิที่ครอบคลุมและสะท้อนข้อเสนอที่พัฒนาไปเรื่อย ๆ
- การอ่านหนังสือ: สรุปทีละบท พร้อมสร้างหน้าแยกสำหรับตัวละคร ธีม และเส้นเรื่อง — ผู้อ่านทั่วไปสามารถสร้างหน้าที่เชื่อมโยงกันนับพันหน้าได้แบบ Tolkien Gateway
- ธุรกิจ/ทีม: ใช้ Slack thread, บันทึกการประชุม เอกสารโปรเจกต์ และการคุยกับลูกค้า เพื่อสร้างวิกิภายในที่ LLM ดูแลรักษา
- นอกจากนี้ยังใช้ได้กับการวิเคราะห์คู่แข่ง due diligence การวางแผนเดินทาง โน้ตการเรียน หรือการศึกษางานอดิเรกเชิงลึก รวมถึง ทุกด้านที่ความรู้มีการสะสม
สถาปัตยกรรม (3 เลเยอร์)
- แหล่งข้อมูลต้นฉบับ (Raw sources): ชุดเอกสารต้นทางที่คัดเลือกไว้ — เช่น บทความ งานวิจัย รูปภาพ ไฟล์ข้อมูล
- เปลี่ยนแปลงไม่ได้ (immutable) โดย LLM อ่านได้อย่างเดียวและไม่แก้ไข
- เลเยอร์นี้คือ แหล่งความจริง (source of truth)
- วิกิ (The wiki): ไดเรกทอรีของไฟล์ Markdown ที่ LLM สร้างขึ้น — รวมสรุป หน้าเอนทิตี หน้าคอนเซปต์ การเปรียบเทียบ ภาพรวม และการสังเคราะห์
- LLM เป็นเจ้าของเลเยอร์นี้ทั้งหมด: สร้างหน้า อัปเดตเมื่อมีแหล่งข้อมูลใหม่ และดูแลการเชื่อมโยงข้ามหน้า
- ผู้ใช้อ่านอย่างเดียว ส่วน LLM เป็นผู้เขียน
- สคีมา (The schema): เอกสารตั้งค่าที่บอก LLM ถึงโครงสร้าง คอนเวนชัน และเวิร์กโฟลว์ของวิกิ (เช่น
CLAUDE.mdสำหรับ Claude Code และAGENTS.mdสำหรับ Codex)- เป็นไฟล์ตั้งค่าหลักที่ทำให้ LLM กลายเป็น ผู้จัดการวิกิอย่างเป็นระบบ แทนแชตบอตทั่วไป
- ผู้ใช้และ LLM สามารถร่วมกันพัฒนาไฟล์นี้ไปตามเวลา
งานหลัก (Operations)
- Ingest: เพิ่มแหล่งข้อมูลใหม่เข้าไปในชุดต้นฉบับ แล้วสั่งให้ LLM ประมวลผล
- LLM จะอ่านแหล่งข้อมูล → พูดคุยสาระสำคัญ → เขียนหน้าสรุปลงวิกิ → อัปเดตดัชนี → อัปเดตหน้าเอนทิตี/คอนเซปต์ที่เกี่ยวข้อง → เพิ่มรายการในล็อก
- แหล่งข้อมูลหนึ่งชิ้นอาจส่งผลต่อ หน้าวิกิ 10~15 หน้า
- จะทำทีละแหล่งข้อมูลพร้อมมีส่วนร่วมใกล้ชิด หรือปล่อยให้ทำแบบชุดใหญ่โดยลดการกำกับดูก็ได้
- Query: ถามคำถามกับวิกิ แล้วให้ LLM หาเพจที่เกี่ยวข้องและสังเคราะห์คำตอบพร้อมการอ้างอิง
- คำตอบอาจอยู่ในรูปหน้า Markdown, ตารางเปรียบเทียบ, slide deck (Marp), กราฟ (matplotlib), canvas และรูปแบบอื่น ๆ
- คำตอบที่ดีสามารถบันทึกกลับเข้าไปเป็นหน้าใหม่ในวิกิได้ — การสำรวจเองก็กลายเป็นส่วนหนึ่งของฐานความรู้
- Lint: ให้ LLM ตรวจสุขภาพวิกิเป็นระยะ
- รายการตรวจ ได้แก่ ความขัดแย้งระหว่างหน้า ข้ออ้างเก่าที่ถูกแทนที่โดยแหล่งข้อมูลล่าสุด หน้า orphan ที่ไม่มีลิงก์เข้ามา คอนเซปต์สำคัญที่ยังไม่มีหน้าของตัวเอง การเชื่อมโยงข้ามหน้าที่ขาดหาย และช่องว่างของข้อมูลที่เติมได้ด้วยการค้นเว็บ
การทำดัชนีและการบันทึกล็อก
- index.md: ไฟล์ศูนย์กลางของเนื้อหา — ทำแคตตาล็อกทุกหน้าของวิกิพร้อมลิงก์ สรุปหนึ่งบรรทัด และเมทาดาทา
- LLM จะอ่านดัชนีก่อนเมื่อมีการตอบคำถาม แล้วจึงไปสำรวจหน้าที่เกี่ยวข้อง
- ทำงานได้ดีในระดับ แหล่งข้อมูลประมาณ ~100 ชิ้น และหลายร้อยหน้า โดยไม่ต้องมีโครงสร้าง RAG แบบใช้ embeddings
- log.md: บันทึกตามลำดับเวลา — จดประวัติ ingest, query และการผ่าน lint ตามลำดับ
- หากเขียน prefix ของแต่ละรายการให้สม่ำเสมอ ก็สามารถ parse ด้วยเครื่องมือ Unix ได้
- ตัวอย่าง:
## [2026-04-02] ingest | Article Title→ ใช้grep "^## \[" log.md | tail -5เพื่อตรวจดู 5 รายการล่าสุด
- ตัวอย่าง:
- หากเขียน prefix ของแต่ละรายการให้สม่ำเสมอ ก็สามารถ parse ด้วยเครื่องมือ Unix ได้
เครื่องมือ CLI ทางเลือก
- เมื่อวิกิเติบโตขึ้น อาจสร้างเครื่องมือขนาดเล็กเพื่อให้ LLM ทำงานได้มีประสิทธิภาพมากขึ้น
- qmd: search engine แบบโลคัลสำหรับไฟล์ Markdown — รองรับการค้นหาแบบไฮบริด BM25/เวกเตอร์และ LLM reranking ทั้งหมดทำงานบนอุปกรณ์
- รองรับทั้ง CLI (ให้ LLM เรียก shell ออกไปได้) และ MCP server (ให้ LLM ใช้เป็นเครื่องมือแบบเนทีฟได้)
- ถ้าขนาดยังเล็ก ไฟล์ดัชนีอย่างเดียวก็เพียงพอ และหากจำเป็นก็สามารถให้ LLM ช่วยเขียนสคริปต์ค้นหาแบบง่ายขึ้นมาเองได้
เคล็ดลับและการใช้เครื่องมือ
- Obsidian Web Clipper: ส่วนขยายเบราว์เซอร์ที่แปลงบทความบนเว็บเป็น Markdown — มีประโยชน์สำหรับเพิ่มแหล่งข้อมูลเข้าชุดต้นฉบับอย่างรวดเร็ว
- การเก็บรูปภาพไว้ในเครื่อง: ไปที่ Obsidian Settings → Files and links เพื่อตั้งค่าเส้นทางโฟลเดอร์แนบไฟล์ แล้วสามารถใช้คีย์ลัดบันทึกรูปลงดิสก์ในเครื่องได้
- LLM ไม่สามารถอ่านข้อความ Markdown ที่มีรูป inline ได้ทั้งหมดในครั้งเดียว จึงควรอ่านตัวข้อความก่อนแล้วค่อยดูรูปแยกต่างหาก
- Obsidian Graph View: เหมาะที่สุดสำหรับดูภาพรวมทั้งวิกิ — ตรวจสอบความเชื่อมโยง หน้า hub และหน้า orphan
- Marp: ฟอร์แมต slide deck ที่ใช้ Markdown — มีปลั๊กอินสำหรับ Obsidian และสามารถสร้างงานนำเสนอจากเนื้อหาในวิกิได้โดยตรง
- Dataview: ปลั๊กอิน Obsidian สำหรับรัน query กับ page frontmatter — หาก LLM เพิ่ม YAML frontmatter (แท็ก วันที่ จำนวนแหล่งข้อมูล) ก็จะสร้างตารางและลิสต์แบบไดนามิกได้
- วิกิคือ git repository ของไฟล์ Markdown — ได้ทั้งประวัติเวอร์ชัน การแตก branch และการทำงานร่วมกันแบบฟรี
หลักการทำงาน
- อุปสรรคหลักของการดูแลฐานความรู้ไม่ใช่การอ่านหรือการคิด แต่คือ งานดูแลบันทึก (bookkeeping): การอัปเดตการเชื่อมโยงข้ามหน้า การทำสรุปให้ทันสมัย การระบุความขัดแย้ง และการรักษาความสอดคล้องกันในหลายสิบหน้า
- เหตุผลที่คนเลิกใช้วิกิคือ ภาระการดูแลเติบโตเร็วกว่าคุณค่าที่ได้รับ
- LLM ไม่เบื่อ ไม่ลืมอัปเดตการเชื่อมโยงข้ามหน้า และจัดการ 15 ไฟล์พร้อมกันได้ → ต้นทุนการดูแลจึงเข้าใกล้ศูนย์อย่างมาก
- แนวคิดนี้มีความเกี่ยวข้องเชิงจิตวิญญาณกับ Memex (1945) ของ Vannevar Bush: เป็นคลังความรู้ส่วนตัวที่มีการคัดสรรอย่างกระตือรือร้น และการเชื่อมโยงระหว่างเอกสารมีคุณค่าไม่แพ้ตัวเอกสารเอง
- ปัญหาเรื่อง "ใครจะเป็นคนดูแล" ที่ Bush แก้ไม่ได้ LLM เข้ามารับหน้าที่นี้
ลักษณะของเอกสารนี้
- เอกสารนี้ตั้งใจเขียนให้เป็นนามธรรม — เป้าหมายคือสื่อสารแนวคิด ไม่ใช่บังคับใช้ implementation แบบใดแบบหนึ่ง
- รายละเอียดอย่างโครงสร้างไดเรกทอรี คอนเวนชันของสคีมา รูปแบบหน้า หรือเครื่องมือ จะแตกต่างกันไปตามโดเมน ความชอบ และ LLM ที่ใช้
- ทุกองค์ประกอบเป็นแบบทางเลือกและโมดูลาร์ — ใช้เฉพาะสิ่งที่จำเป็น และละสิ่งที่ไม่ต้องการได้
- แนะนำให้ แชร์กับ LLM agent แล้วค่อยร่วมกันปรับให้เป็นเวอร์ชันที่เหมาะกับความต้องการของตนเอง
15 ความคิดเห็น
นี่เป็นตัวอย่างการนำไปใช้: Farzapedia: Wikipedia ส่วนตัวที่สร้างจากไดอารี บันทึก และข้อความ 2,500 รายการ
index.mdเป็นจุดเริ่มต้น เพื่อให้เวลา query เอเจนต์สามารถไล่สำรวจหน้าที่จำเป็นได้เองข้อดี 4 ประการของการทำ personalization ด้วย LLM Wiki ที่ Karpathy อธิบาย
ขอบคุณที่แชร์ครับ ผมลองรันดูแล้ว น่าทึ่งมาก
คาดว่าในคอมมูนิตี้น่าจะมีวิธีที่พัฒนาต่อยอดออกมาอีกเรื่อย ๆ
ผมก็ลองทำดูแล้วเหมือนกัน ตอนที่ใช้อุปกรณ์หลายเครื่องอยู่ ผมเพิ่มส่วนเล็กน้อยเพื่อให้เชื่อม Obsidian vault กับการสำรองข้อมูลบน GitHub ได้ และยังทำ parser สำหรับ Codex กับ Gemini ใส่ไว้ด้วยครับ https://github.com/hang-in/seCall
ดูเรียบร้อยดีนะ
ว้าว ตอนแรกอ่านเนื้อหาแล้วก็ยังรู้สึกมืดแปดด้านอยู่ แต่พออ้างอิง Git นี้แล้วก็เริ่มมองเห็นแนวทางขึ้นมาเลย ขอบคุณมากจริง ๆ
เนื่องจาก
bm25ค่อนข้างอ่อนในการค้นหาภาษาเกาหลี ผมจึงได้ใส่การ์ดเรลแยกต่างหากที่สามารถค้นหาภาษาเกาหลีได้ดีไว้ด้วยความคิดเห็นจาก Hacker News
แนวทางนี้ดูเหมือนสุดท้ายจะนำไปสู่ model collapse
ถ้าดูจากงานวิจัยของ Nature ยิ่ง LLM เขียนเอกสารมากเท่าไร คุณภาพก็ยิ่งเสื่อมสะสมลง โดยค่อย ๆ เขียนข้อมูลเดิมที่ถูกต้องใหม่ให้กระชับน้อยลง
น่าแปลกใจที่ Karpathy มองไม่เห็นปัญหานี้ พวกหัวสุดโต่งสาย AI ให้ความรู้สึกเหมือนสูญเสีย ‘สามัญสำนึก’ บางอย่างไป
เวลาที่เริ่มอยากเน้น “ซอสสูตรลับที่ฉันเขียนเอง” มากกว่าสิ่งที่ LLM สร้างขึ้น ก็ควรถามตัวเองว่าทำไมถึงเป็นแบบนั้น
ผิดหวังที่เขาตอบสนองแบบนั้น ทำให้นึกถึงคำว่า “ถ้าพูดแบบมนุษย์ไม่ได้ ก็อย่าพูดเสียดีกว่า”
คนฉลาดจำนวนมากดูเหมือนกำลังเห็น ‘ผีในเครื่องจักร’ แล้วค่อย ๆ สูญเสียสัมผัสแบบมนุษย์ไป
บทความ “I Saw Something New in San Francisco” ของ Ezra Klein ชี้ปรากฏการณ์นี้ได้ดี
claude.mdไฟล์เดียวให้ดี ยังทำไม่ได้เลย ทั้งวิกินี่ยิ่งเป็นไปไม่ได้ผมกำลังทำอะไรคล้ายกันด้วยแนวทางแบบ เน้นการจัดการ
โดยเชื่อมความทรงจำทั่วทั้ง workspace เข้ากับ task หรือโปรเจกต์ และควบคุมแบบเรียลไทม์ผ่านอินเทอร์เฟซ SPA
ดูได้ที่โปรเจกต์ hmem
ผมเคยพยายามให้โมเดลสลับเข้าโหมดวิจัยเพื่อจัดระเบียบความรู้ภายใน แต่สุดท้ายมันก็มั่วเหมือน LLM soup
สำหรับโปรเจกต์เขียนโค้ด สิ่งที่ได้ผลที่สุดคือ requirement ที่ชัดเจน การปรับปรุงแบบวนรอบ และโค้ดที่มีเอกสารกำกับดี ถ้าความทรงจำมากเกินไปกลับยิ่งเพิ่มข้อผิดพลาด
ท้ายที่สุดแล้วนี่ดูเหมือนเป็นการ เลื่อนปัญหาออกไป
ถ้าจะคงวิกิไว้ LLM ก็ต้องกลับมาอ่านวิกิแทนต้นฉบับทุกครั้ง และระหว่างทางข้อผิดพลาดชั้นที่สองก็จะสะสม
ผมกลับคิดว่าถ้ามี โมเดลรุ่นถัดไป ที่มี 10M context หรือระดับ 1000tps ออกมา แนวทางแบบนี้ก็คงหมดความหมาย
เลเยอร์กลางนี้มีประโยชน์มากในการจับเจตนาการออกแบบและดู ช่องว่าง ระหว่างมันกับ implementation จริง
ผมมองว่าระบบอัตโนมัติแบบอ้างอิงตัวเองเต็มรูปแบบไม่มีคุณค่า คุณค่าที่แท้จริงอยู่ที่โครงสร้างซึ่งมนุษย์เข้าไปแทรกแซงได้ว่า “สิ่งนี้ควรทำงานแบบนี้”
สุดท้ายการทดลองแบบนี้ก็น่าสนใจ แต่ ไม่มีความหมายในทางปฏิบัติ เพราะผู้ให้บริการโมเดลขนาดใหญ่พัฒนาเร็วกว่าเยอะ ตอนนี้ใช้แบบพื้นฐานที่เรียบง่ายน่าจะดีกว่า
ไอเดียนี้ทำให้นึกถึงบทความ “Man-Computer Symbiosis” ของ Licklider ในปี 1960
เป็นแนวคิดเรื่อง Intelligence Amplification ที่มนุษย์ตั้งเป้าหมาย ส่วนคอมพิวเตอร์แปลงสมมติฐานเป็นโมเดลเพื่อตรวจสอบ และรับหน้าที่คำนวณซ้ำ ๆ
ดูลิงก์ต้นฉบับได้
มีรายชื่อระบบที่ทำไอเดียใกล้เคียงกันอยู่ที่นี่
ผมดูแล ฐานความรู้ที่ขับเคลื่อนด้วย LLM ชื่อว่า commonplace
ระบบนี้ออกแบบมาให้ LLM อ่านและรันทฤษฎีได้โดยตรง จึงเป็นโครงสร้างแบบ ทฤษฎีก็คือ runtime
มันยังดิบอยู่ แต่เข้ากับวิธีทำงานของผมได้ดี
ผมเคยทำเครื่องมือคล้ายกันแต่สำหรับ codebase โดยเฉพาะ
llmdoc จะตรวจจับการเปลี่ยนแปลงของไฟล์ด้วยแฮช แล้วให้ LLM แคชสรุป เป็นแอสเซ็ตเดี่ยวที่อธิบายแต่ละไฟล์
เข้าถึงได้ผ่าน CLI และช่วยให้การสำรวจโค้ดเร็วขึ้นมาก
นี่แทบจะเป็นโครงสร้างแบบ RAG
แม้จะไม่มี vector DB แต่ในแง่ที่มันสร้างดัชนีความเชื่อมโยงเชิงความหมายและวางโครงสร้างแบบลำดับชั้นเพื่อช่วยค้นหา ก็ถือว่าเหมือนกัน
ผมกำลังทำโปรเจกต์ atomic ซึ่งเป็น AI knowledge base ที่ใช้ไอเดียคล้ายกับการสังเคราะห์วิกิ
เช่น DocMason ที่ดึงไดอะแกรมจาก PPT หรือ Excel ออกมาให้เอเจนต์อย่าง Codex วิเคราะห์
มันใกล้เคียงกับ การสังเคราะห์ความรู้ มากกว่าการค้นคืนข้อมูล เหมือน LLM กำลังจัดการ Zettelkasten ของตัวเอง
โปรเจกต์นี้น่าสนใจมาก ผมตั้งใจว่าจะไปดูแน่นอน
ผมเองก็คิดเรื่องแนวคิด LLM-WIKI มานานแล้ว แต่ OP ดูจะขุดลึกกว่าเยอะ หวังว่ามันจะพัฒนาเป็น สมองที่สอง ได้จริง
เหมือนเอกสาร
copilot-instructions.mdที่เป็นโครงสร้างเก็บคำสั่งให้ LLM อ้างอิงผมก็เคยลองทำอะไรคล้ายกันในโปรเจกต์บริษัท
พอหมดไฟและต้องดูแลคนในครอบครัวจนสมาธิลดลง ผมก็โยนงานหลายส่วนให้กับ multi-agent workflow
มันทำงานโดยมีวิกิมาร์กดาวน์บน Obsidian เป็นศูนย์กลาง แต่สุดท้ายก็เกิด หนี้เทคนิคแบบใหม่ ขึ้นมา — เหมือนสมองหายไปบางส่วน
ถึงอย่างนั้น workflow แบบวิกินี้ก็ติดหนึบจนหยุดยาก
ต่อให้ LLM สร้างผลลัพธ์ได้ดีแค่ไหน สำหรับวิกิส่วนตัว กระบวนการนั้นสำคัญกว่า
ผมชอบเดินเล่นหรือว่ายน้ำโดยไม่พกโทรศัพท์เพื่อปล่อยหัวให้โล่ง ความเหนื่อยทางกายกับความเหนื่อยทางใจเป็นคนละอย่างกัน เลยช่วยได้
ดีใจที่แนวทางแบบนี้เริ่มได้รับความสนใจ
แต่พอเอาเอกสารมาปนกับ ข้อมูลที่มีโครงสร้าง อย่าง task item หรือ ADR การ query ด้วยมาร์กดาวน์อย่างเดียวจะยาก
วิธีแบบ AGENTS.md แก้ด้วยการให้ LLM เรียนรู้กฎของโฟลเดอร์ แต่พอข้อมูลซับซ้อนขึ้นก็เริ่มตัน
เพราะงั้นผมเลยกำลังพัฒนา Binder
มันเก็บข้อมูลไว้ในฐานข้อมูลเชิงโครงสร้าง แต่เรนเดอร์ออกมาเป็น มาร์กดาวน์ที่ซิงก์สองทาง
พร้อมให้ autocomplete และ validation ผ่าน LSP และเอเจนต์หรือสคริปต์ก็เข้าถึงข้อมูลชุดเดียวกันได้ผ่าน CLI หรือ MCP
ผมสร้าง AS Notes สำหรับ VS Code ขึ้นมา
ดูได้ที่ asnotes.io
มันรวมความสามารถของระบบจัดการความรู้ส่วนบุคคลเข้ากับ VS Code ทำให้เขียน เชื่อมโยง และอัปเดตมาร์กดาวน์กับ wikilink ได้ง่าย
รองรับการเรนเดอร์ mermaid และ LaTeX ด้วย
ทำแบบนี้แล้วสามารถ เก็บผลลัพธ์จากบทสนทนา AI ไว้ถาวร ในรูปแบบมาร์กดาวน์ได้ เลยให้ความรู้สึกว่ามีคุณค่ามากกว่า Copilot ธรรมดา
หลังจากเริ่มต้นด้วยการตั้งค่า Vault พื้นฐานแบบเรียบ ๆ ที่แทบไม่มีอะไร แล้วให้มันอ่านไฟล์นั้นไฟล์เดียว จากนั้นพอผมบอกว่าอยากทำไอเดียนี้ให้เป็นรูปธรรม ก็ได้วางโครงทั้งหมดร่วมกับทักษะระดมสมองของ superpowers และตั้งค่าทั้ง
CLAUDE.mdกับปลั๊กอิน Obsidian จนเสร็จเรียบร้อยแล้วไอเดียที่จะนำไปใช้ในลักษณะคลังความรู้ส่วนตัวแบบนี้ ผมก็รู้สึกว่าน่าสนใจเหมือนกันครับ
แต่ก็ยังไม่แน่ใจว่า AI จะรับมือกับบริบทของวิกิที่ค่อย ๆ สะสมเพิ่มขึ้นเรื่อย ๆ ได้หรือเปล่า
ในภาพรวมใหญ่ มันคือการค้นหาบทสนทนาในอดีต ดังนั้นถ้าจัดระเบียบประเด็นเรื่องการสรุปให้ดี ก็ดูเป็นไอเดียที่ดีครับ ในทางปฏิบัติ ผมเองก็มองว่ามันช่วยได้มากในการจัดระเบียบโปรเจกต์ด้วย
สิ่งที่ฉันกำลังจะทำใน openclaw ดันมีออกมาแล้วนี่นา ต้องเอามาใช้ซะแล้ว
ในที่สุดก็มาถึงหัวข้อนี้จนได้สินะครับ ผมเฝ้าบ่มเพาะสวนและสร้างฮาร์เนสในหัวข้อนี้มาเป็นเวลานาน เลยยิ่งรู้สึกยินดีมากเป็นพิเศษ เคล็ดลับของอาจารย์ Karpathy น่าสนใจมาก สำหรับ PKM เอง ดูเหมือนว่ามากกว่าความยากของเทคโนโลยี มันคือกระบวนการที่แต่ละคนสั่งสม จัดโครงสร้าง และแบ่งปันกับปัญญาต่างสายพันธุ์ในระยะยาว จนมนุษย์ค่อยๆ จับแบบจำลองการร่วมวิวัฒน์ของกันและกันได้ กล่าวคือ เหมือนคำถามได้ย้อนกลับมาหามนุษย์อีกครั้งหรือเปล่า? ว่ามนุษย์พร้อมจะอยู่ร่วมกับพวกเราแล้วหรือยัง? คงไม่มีคำตอบที่ตายตัว และเป็นสิ่งที่แต่ละคนต้องค่อยๆ สั่งสมไปด้วยคำถามของตัวเอง น่าตื่นเต้นมากครับ ขอบคุณ GeekNews สำหรับข่าวนี้
แม้จะไม่ควรมีอคติก็เถอะ... แต่พอเห็นคอมเมนต์แบบนี้แล้วมันก็รู้สึกอะไรบางอย่างแปลก ๆ อยู่ดี
ทำไมถึงคอมเมนต์ด้วยบอต?
นี่คือบอตเหรอ? ปัญญาจากต่างดาว(???)