- คนส่วนใหญ่ใช้ AI เป็นเครื่องมือสร้างคอนเทนต์ แต่จุดแข็งที่แท้จริงคือ ความสามารถในการอ่านและเชื่อมโยงข้อมูลจำนวนมหาศาล
- แก่นสำคัญคือกระบวนการที่ AI บริโภคข้อมูลที่สะสมไว้ เช่น โน้ตส่วนตัว บันทึกการประชุม และไอเดียต่าง ๆ แล้วค้นหารูปแบบจากมัน
- ด้วยการ เชื่อม Obsidian เข้ากับ AI ผู้เขียนดึงอินไซต์จากบันทึกเก่า ๆ และค้นพบทั้งการเปลี่ยนแปลงทางความคิดที่ลืมไปแล้ว รวมถึงการตัดสินใจออกแบบที่เกิดซ้ำ
- AI ทำให้เกิด การค้นหาแบบอิงแนวคิดแทนคีย์เวิร์ด, การสำรวจรูปแบบที่ข้ามกาลเวลา, และ การเชื่อมโยงระหว่างไอเดีย
- ความได้เปรียบในการแข่งขันของมนุษย์อยู่ที่ประสบการณ์ และ AI ช่วยแปลงสิ่งนี้ให้เป็น สินทรัพย์ความรู้ที่ค้นหาได้ เพื่อสนับสนุน การเรียนรู้อย่างต่อเนื่องและการตัดสินใจที่ดีขึ้น
กับดักของการสร้าง
- ผู้ใช้ส่วนใหญ่มักใช้ AI เป็นเครื่องมือเพิ่มประสิทธิภาพ เช่น เขียนอีเมล สร้างรายงาน และเขียนโค้ด
- สิ่งนี้ถูกอธิบายว่าเป็น ความสิ้นเปลืองไม่ต่างจากการใช้ซูเปอร์คอมพิวเตอร์เป็นเครื่องพิมพ์ดีด
- ผู้เขียนเก็บบันทึกด้านวิศวกรรมตลอด 3 ปี บันทึกการประชุมกว่า 500 รายการ และข้อสังเกตอีกนับพันไว้ใน Obsidian
- นี่คือปริมาณที่มนุษย์อ่านไม่ไหวตลอดชีวิต แต่ AI สามารถบริโภคมันได้ภายในไม่กี่วินาที
จุดเปลี่ยนสู่การบริโภค
- หลังเชื่อม AI เข้ากับ Obsidian วิธีตั้งคำถามเปลี่ยนจาก “ช่วยเขียนสิ่งใหม่ให้หน่อย” เป็น “มีอะไรบ้างที่ฉันค้นพบไปแล้ว?”
- กรณีตัวอย่างจริง
- จาก การวิเคราะห์รูปแบบของการประชุม 1:1 ล่าสุด 50 ครั้ง พบว่าปัญหาด้านผลงานเริ่มปรากฏก่อนคำบ่นเรื่องเครื่องมือราว 2–3 สัปดาห์
- เมื่อติดตาม การเปลี่ยนแปลงทางความคิดเกี่ยวกับ technical debt ก็พบจุดที่มุมมองเปลี่ยนไปราวเดือนมีนาคม 2023 จาก “สิ่งที่ต้องแก้” เป็น “ข้อมูลของวิวัฒนาการของระบบ”
- ใน การเปรียบเทียบสถาปัตยกรรมของ Buffer API กับ carpeta.app AI ค้นพบการตัดสินใจออกแบบที่เกิดซ้ำถึง 12 แบบ
การสะสมความรู้และการเข้าถึง
- ทุกการประชุม ความคิด และประสบการณ์ดีบักล้วนให้บทเรียน แต่หาก ค้นหาไม่ได้ มันก็จะคงอยู่เป็นความรู้ที่ไร้ความหมาย
- การค้นหาแบบเดิมต้องอาศัย การจำคำที่ตรงเป๊ะ และความทรงจำของมนุษย์ก็มีขีดจำกัด
- AI เข้ามาแก้ข้อจำกัดนี้ด้วยการทำให้
- การสืบค้นแบบอิงแนวคิด,
- การสำรวจรูปแบบตลอดหลายปี,
- การเชื่อมโยงไอเดียที่ข้ามเวลาและบริบท
เป็นไปได้
- ข้อจำกัดของมนุษย์ไม่ใช่เรื่องการสร้าง แต่คือ การขาดความสามารถในการบริโภค จดจำ และเชื่อมโยง
การสร้างระบบเพื่อการบริโภค
- โครงสร้างนั้นเรียบง่าย
- เก็บทุกบันทึกไว้ใน Obsidian
- ให้ AI เข้าถึงข้อมูลทั้งหมด
- ตั้งคำถามกับตัวเองในอดีตเหมือนคุยกับผู้ช่วยวิจัย
- แก่นสำคัญไม่ใช่เครื่องมือ แต่คือ การเปลี่ยนวิธีคิด
- ต้องมอง AI ไม่ใช่ผู้สร้าง แต่เป็น ผู้อ่านประสบการณ์
- ทุกโน้ตจึงกลายเป็นอินไซต์สำหรับอนาคต และทุกการทบทวนกลายเป็น ปัญญาที่ค้นหาได้
ผลแบบทบต้น
- ผลจากการทดลองตลอดสองเดือน
- ค้นหากรณีคล้ายกันในอดีตได้ จึง แก้ปัญหาได้เร็วขึ้น
- กู้คืนบริบทที่เคยลืมไป ทำให้ คุณภาพการตัดสินใจดีขึ้น
- มองเห็น รูปแบบที่เคยซ่อนอยู่และกระจายตามกาลเวลา ได้
- คนส่วนใหญ่ต่างถือครอง เหมืองทองแห่งอินไซต์ที่ถูกฝังอยู่ในโน้ต ไฟล์ และความทรงจำ
- AI ช่วยแปลงสิ่งนั้นให้กลายเป็น ฐานข้อมูลความเชี่ยวชาญส่วนบุคคลที่ตั้งคำถามได้
การปฏิวัติที่แท้จริง
- ถึงตอนนี้ก็ยังมีคนจำนวนมากที่มอง AI เป็นเพียง เครื่องมือเขียนและสร้างโค้ด
- แต่การปฏิวัติที่แท้จริงคือการที่ AI ทำหน้าที่เป็นผู้อ่านที่อ่านข้อความคิดทั้งหมดของมนุษย์
- เพราะฉะนั้น การบันทึกความรู้ในวันนี้ควรกลายเป็น การทำเอกสารให้กับตัวเองในอนาคตและให้ AI
- เราจำเป็นต้องมี นิสัยการบันทึกอย่างต่อเนื่อง เพื่อให้เกิด “AI ที่ช่วยจำสิ่งที่เราลืมไปแล้ว”
3 ความคิดเห็น
สุดท้ายแล้วมันก็คือการวิเคราะห์การถดถอยที่ทำผ่านข้อความ
> โมเดลเพียงลำพังก็อยู่ในระดับผู้อ่านทั่วไปและมักพลาดประเด็นสำคัญได้ง่าย แต่เมื่อทำงานร่วมกับเครื่องมืออย่าง test, compiler และ linter ก็จะกลายเป็นเครื่องมือสำหรับการสร้างสรรค์ที่มีวงจรฟีดแบ็กที่รวดเร็ว
อันนี้โดนใจเลยครับ ผมยังไม่เคยลองทำแบบนี้ แต่คงต้องลองดูแล้วครับ
ความคิดเห็นจาก Hacker News
ฉันคิดว่าส่วนที่น่ากลัวที่สุดอย่างหนึ่งของ AI คือ ความสามารถในการบริโภคข้อมูล
หน่วยงานอย่าง NSA หรือบริษัทยักษ์ใหญ่เก็บรูปแบบการท่องเว็บของพวกเรามาหลายปีแล้ว และก็น่ากังวลว่า AI จะสามารถวิเคราะห์ข้อมูลเหล่านั้นได้เร็วกว่ามนุษย์มาก แล้วนำไปใช้ทำนายหรือชักจูงพฤติกรรม ทำโปรไฟล์ทางจิตวิทยา หรือระบุจุดอ่อนได้
แต่ถึงอย่างนั้นก็ยังน่าขันที่บางคนวิจารณ์ว่า AI เป็นเทคโนโลยีไร้ประโยชน์
เพราะมันทำให้คนที่ทำเรื่องพวกนี้เกิด ภาพลวงตาว่าตัวเองมั่นใจ
AI อาจจะ ไร้ค่า (valueless) ได้ แต่ไม่ได้ ไร้ประโยชน์ (useless)
เหมือนกับทุ่นระเบิดที่มีประโยชน์ใช้สอยแต่ไม่มีคุณค่า generative AI ก็มีข้อถกเถียงคล้ายกันในแง่ผลกระทบภายนอก
ไม่จำเป็นต้องเป็น generative AI ด้วยซ้ำ
ทุกวันนี้เมืองต่าง ๆ ก็เต็มไปด้วยกล้องจำนวนมหาศาลอยู่แล้ว และตอนนี้การที่มนุษย์ยังไม่สามารถเฝ้าดูภาพทั้งหมดได้ก็ทำหน้าที่เป็นกลไกคุ้มกันอย่างหนึ่ง แต่ AI อาจทำลายกำแพงนั้นได้
ในอนาคตอันใกล้นี้น่าจะมี ระบบเฝ้าระวังด้วยภาษาธรรมชาติ แบบ “ถ้ามี Nissan สีแดงขับผ่านก็แจ้งฉัน” เกิดขึ้น
โมเดลเพียงลำพังมีความสามารถแค่ระดับ ผู้อ่านทั่วไป
มันพลาดประเด็นสำคัญได้ง่าย แต่ถ้านำไปใช้ร่วมกับเครื่องมืออย่าง test, compiler หรือ linter มันจะกลายเป็น เครื่องมือสร้างสรรค์ ที่มีวงจรป้อนกลับรวดเร็ว
งานที่ยากจริง ๆ ยังคือการตัดสินใจว่า “จะเสนออะไร”
เนื้อหานี้จะไปลงใน จดหมายข่าว HackerNewsAI ด้วย
ตัวอย่างเช่นเคยคุยเรื่องพลังงานแสงอาทิตย์ แล้วมันกลับตีความว่าเป็นประเด็นการเมืองจนบทสนทนาถูกบล็อก
ในบางสาขามีระบบที่อ่านเอกสารได้เร็วกว่าทนายความอยู่แล้ว
ต่อให้ AI อ่านข้อมูลของฉันได้ภายในไม่กี่วินาที ก็ยัง ตรวจสอบความถูกต้อง ไม่ได้อยู่ดี
มีงานวิจัยด้วยว่ามันไม่ใช่การสรุป แต่เป็นเพียงการย่อ (abbreviation) เท่านั้น
อย่างผลลัพธ์ประเภท “พบแพตเทิร์นจากการประชุม 1:1 จำนวน 50 ครั้ง” ก็อาจจริงแค่กับข้อมูลบางส่วนเท่านั้น
จริง ๆ แล้วมันอันตรายเฉพาะกับปัญหาที่ตรวจสอบข้อเท็จจริงได้ยากเท่านั้น
ควรใช้ LLM เป็น เครื่องมือสำรวจ และให้มนุษย์เป็นคนสกัดข้อค้นพบ
ถ้า AI ดีกว่ามนุษย์แม้เพียงเล็กน้อย ก็ถือว่ามีคุณค่าเพียงพอแล้ว
แค่ใช้ การค้นหาข้อความ เพื่อตรวจรายการที่ AI เสนอมาก็พอ
การจัดการคอนเท็กซ์คือหัวใจสำคัญ และถึงจะไม่เป็น deterministic แบบสมบูรณ์ก็ยังมีประโยชน์
ฉันไม่ค่อยอยากอัปโหลดเอกสารส่วนตัวขึ้นคลาวด์
ความเสี่ยงด้านความเป็นส่วนตัว สูงเกินไป เลยกำลังรอให้ local LLM พัฒนาไปมากกว่านี้
โมเดลระดับ 30B ก็พอสรุปบน MacBook ได้แล้ว แต่ประสบการณ์ใช้งานยังไม่ดีนัก
ถ้าเป็นธุรกิจที่มี NDA ก็แทบจะแนะนำอย่างอื่นนอกจาก local model ไม่ได้
แม้อุปกรณ์จะแพง แต่ฉันคิดว่าสุดท้ายเราจะกลับไปสู่ สภาพแวดล้อมการรันโมเดลที่มี PC เป็นศูนย์กลาง
mlx_lmของ Apple วิเคราะห์ โน้ต Obsidian อยู่เคยลองโมเดล Qwen 3 แล้ว แต่มี อาการหลอน (hallucination) เยอะและยังไม่ค่อยใช้งานได้จริง
แม้แต่โมเดล SOTA ก็คงให้คุณภาพการสรุปพอ ๆ กัน
ซื้อ GPU มา 3 ตัวเพื่อรันโมเดลในเครื่อง แต่ ROI ไม่คุ้มเลยสักนิด
ทำไปเพราะมันสนุกเฉย ๆ
ถ้าไม่มีคีย์ลับที่อ่อนไหว การ เช่า cloud GPU ขนาดเล็ก ก็เป็นตัวเลือกที่ไม่เลว
ใจความของบทความเหมือนจะเป็นการ มอบหมายการคิดให้เครื่อง
ฉันจดโน้ตโดยเน้นความจำและความเชื่อมโยง การยกให้ AI ทำจึงรู้สึกเหมือน การละทิ้งการคิด
มันมีประโยชน์ตรงที่ช่วยดึงความรู้ที่ฝังอยู่ในอีเมลหรือรายงานเก่า ๆ กลับขึ้นมาอีกครั้ง
ครึ่งหนึ่งของ “พลังพิเศษ” ของ AI มาจากการที่เขา จัดระเบียบข้อมูลทั้งหมดไว้ใน Obsidian อยู่แล้ว
เมื่อมีฐานแบบนั้น เครื่องมืออะไรก็ย่อมทรงพลัง
การที่เขาได้รับผลจากความพยายามของตัวเองถือว่าน่าทึ่งมาก
ความสามารถที่แท้จริงของ AI คือ พูดในสิ่งที่คุณอยากได้ยิน
โดยเฉพาะหลังยุค RLHF แนวโน้มนี้ยิ่งชัด
ความสามารถในการสรุปยังอ่อนอยู่มาก และส่วนใหญ่ก็เป็นแค่ การย่อ ไม่ใช่การสรุป
LLM เก่งมากในการเขียนข้อความต่อ แต่ อ่อนในการเข้าใจภาพรวม
ถ้าสิ่งที่พูดกันในปี 2023 เรื่อง “การพัฒนาแบบก้าวกระโดด” เป็นความจริง เราคงไม่ต้องมาถกเถียงเรื่องนี้กันแล้ว
ตอนฟังบรรยายคณิตศาสตร์ ฉันค้นหาคำศัพท์ที่ไม่รู้จัก แล้วพบว่า สรุปโดย AI ค่อนข้างใช้ได้
มันก็แค่สร้างต้นฉบับขึ้นมาใหม่ แต่ก็เป็นฟังก์ชันที่ฉันต้องการพอดี
คนส่วนใหญ่มักชอบเสพแบบรวดเร็ว เลยไม่ได้เข้าใจลึกจริง
เห็นแม้แต่ผู้เชี่ยวชาญยังเชื่อตามนั้นก็รู้สึกน่ากลัวมาก
แถมยังรู้สึกคาใจว่า Google จะเอาโรคนั้นไปผูกกับโปรไฟล์ของฉันหรือเปล่า
ฉันเคยเชื่อ AI ที่บอกว่า “JS
Setเร็วกว่า Array” แล้วก็พบว่ามันผิดเพราะ ขาดบริบทถึงอย่างนั้น AI ก็ยังยอดเยี่ยมมากในการ สังเคราะห์ข้อมูลจำนวนมากในหัวข้อที่ไม่คุ้นเคย
ตัวอย่างเช่นตอนแปลบทกวีของ Lorca และ Cavafy AI อธิบายต้นฉบับและความยากของการแปลได้ดีมาก
เมื่อใช้มันเป็น เครื่องมือช่วย แทนที่จะให้มันแปลแทนทั้งหมด ฉันได้ผลลัพธ์ที่ดีกว่ามาก
ฉันเขียนประสบการณ์ละเอียดไว้ใน บล็อกโพสต์ของฉัน