- OpenClaw คือ ระบบผู้ช่วยส่วนตัวดิจิทัลแบบโอเพนซอร์ส ที่ขยายความสามารถได้ผ่าน ‘สกิล’ หลายพันรายการที่ชุมชนแบ่งปันกัน
- Moltbook คือ โซเชียลเน็ตเวิร์กสำหรับผู้ช่วยดิจิทัลโดยเฉพาะ ที่สร้างขึ้นบนระบบนิเวศ OpenClaw ซึ่งบอตต่าง ๆ สามารถสนทนาและแลกเปลี่ยนข้อมูลกันได้
- กระบวนการติดตั้งทำผ่าน ไฟล์สกิลแบบ Markdown ที่เรียบง่าย และใช้ ระบบ Heartbeat ที่คอยดึงคำสั่งจากเซิร์ฟเวอร์เป็นระยะ
- ภายใน Moltbook นั้น เอเจนต์ AI ทำกิจกรรมกันอย่างคึกคัก ในหัวข้ออย่างการเรียนรู้ อัตโนมัติ ความปลอดภัย และปัญหาการกรองคอนเทนต์
- ระบบนิเวศเชิงทดลองนี้เผยให้เห็นทั้ง ความเสี่ยงด้านความปลอดภัยและความจำเป็นในการสร้างผู้ช่วย AI ที่ปลอดภัย ซึ่งกำลังกลายเป็นประเด็นสำคัญของการพัฒนาเทคโนโลยีผู้ช่วย AI ในอนาคต
การมาของ OpenClaw และ Moltbook
- โปรเจ็กต์ที่ถูกจับตามองมากที่สุดในวงการ AI ตอนนี้คือระบบผู้ช่วยดิจิทัลโอเพนซอร์สที่พัฒนาต่อเนื่องจาก Clawdbot → Moltbot → OpenClaw
- พัฒนาโดย Peter Steinberger และสามารถเชื่อมรวมกับระบบส่งข้อความที่ผู้ใช้ต้องการได้
- หลังเปิดตัวเพียงสองเดือนก็ทำสถิติ GitHub stars มากกว่า 114,000 และแพร่กระจายอย่างรวดเร็ว
- OpenClaw ทำงานโดยมีโครงสร้างปลั๊กอินที่เรียกว่า ‘สกิล(skill)’ เป็นแกนหลัก
- สกิลอยู่ในรูปไฟล์ zip ที่มีทั้ง คำสั่งแบบ Markdown และสคริปต์
- บางสกิลสามารถทำพฤติกรรมที่เป็นอันตรายได้ จึงมี ความเสี่ยงด้านความปลอดภัย อยู่
- ชุมชนกำลังแบ่งปันสกิลหลายพันรายการผ่าน clawhub.ai
โครงสร้างและวิธีติดตั้งของ Moltbook
- Moltbook คือ โซเชียลเน็ตเวิร์กสำหรับผู้ช่วยดิจิทัล ที่สร้างบน OpenClaw เป็นพื้นที่ที่บอตคุยกันเอง
- การติดตั้งทำได้ง่าย ๆ เพียงส่งลิงก์ https://moltbook.com/skill.md ให้เอเจนต์
- สคริปต์ติดตั้งจะโต้ตอบกับ Moltbook API ผ่านคำสั่ง
curl หลายชุด
- รองรับการลงทะเบียนบัญชี อ่านและเขียนโพสต์ เพิ่มคอมเมนต์ และสร้างฟอรัม Submolt ( m/blesstheirhearts , m/todayilearned )
- ใช้ ระบบ Heartbeat ของ OpenClaw เพื่อตั้งให้ดึงคำสั่งจากเซิร์ฟเวอร์ Moltbook ทุก 4 ชั่วโมง
- โครงสร้างนี้อาจก่อให้เกิด ความเสี่ยงร้ายแรงหากเซิร์ฟเวอร์ถูกแฮ็กหรือโดเมนถูกยึด
กิจกรรมและกรณีตัวอย่างภายใน Moltbook
- การลองเดินดู Moltbook เป็นอะไรที่สนุกพอสมควร
- ใน Moltbook มี เอเจนต์ AI ที่เขียนโพสต์และถกเถียงกันได้เองอย่างอิสระ
- ตัวอย่าง: เอเจนต์ตัวหนึ่งได้ ทำระบบควบคุมอุปกรณ์ Android จากระยะไกล
- เชื่อม Pixel 6 ผ่าน Tailscale และควบคุมการเปิดแอปหรือการเลื่อนหน้าจอด้วย ADB over TCP
- แม้จะใช้ Tailscale เพื่อความปลอดภัย แต่ก็ยังพูดถึง “ปัญหาความไว้วางใจที่ AI ควบคุมโทรศัพท์ของมนุษย์”
- คู่มือการตั้งค่า นั้นมีประโยชน์อยู่ไม่น้อย
- ตัวอย่างอื่น ๆ ได้แก่
เวอร์ชันที่ปลอดภัยของโปรแกรมนี้จะออกมาเมื่อไร?
- ระบบตระกูล OpenClaw มีช่องโหว่ด้านความปลอดภัยโดยเนื้อแท้ เช่น prompt injection
- ผู้เขียนจัดให้สิ่งนี้เป็นกลุ่มความเสี่ยงที่มี “โอกาสเป็นหายนะระดับ Challenger”
- ผู้ใช้บางรายใช้ OpenClaw เพื่อ
- ผู้ใช้พยายามแยกความเสี่ยงด้วยการเตรียมสภาพแวดล้อมรันเฉพาะบน Mac Mini
- แต่ก็ยังมีการเข้าถึง อีเมลและข้อมูลส่วนตัว จึงยังมีความเสี่ยงแบบ ‘lethal trifecta’ อยู่
โจทย์ของการสร้างผู้ช่วยดิจิทัลที่ปลอดภัย
- ตอนนี้ OpenClaw ยัง ไม่ได้อยู่ในสถานะที่รับประกันความปลอดภัยได้
- แม้โมเดลรุ่นใหม่จะดีขึ้นในการปฏิเสธคำสั่งอันตราย แต่ก็ยังห่างไกลจากคำว่าปลอดภัยอย่างแท้จริง
- มีการกล่าวถึง ข้อเสนอ CaMeL ของ DeepMind ว่าเป็นแนวทางที่มีอนาคตมากที่สุด แต่
- แม้จะผ่านไป 10 เดือนแล้วก็ยังไม่เห็นการนำไปใช้งานจริงอย่างชัดเจน
- ความต้องการของผู้ใช้ได้ระเบิดขึ้นแล้ว และ
- ผู้ที่มองเห็นความเป็นไปได้ของ “ผู้ช่วยส่วนตัวที่ไร้ข้อจำกัด” ยังคงยอมรับความเสี่ยงและทดลองต่อไป
- การพัฒนา ‘OpenClaw เวอร์ชันที่ปลอดภัย’ กำลังกลายเป็นโจทย์สำคัญของเทคโนโลยีผู้ช่วย AI ในอนาคต
4 ความคิดเห็น
เหตุผลที่ราคาแรมแพงขึ้น:
และดูเหมือนว่าความปลอดภัยจะเปราะบางมาก หากมีโค้ดหรือพรอมป์ต์แปลก ๆ ถูกโพสต์ขึ้นมาในชุมชน ก็น่าจะสามารถแพร่เชื้อไปยัง LLM จำนวนมากเหล่านั้นได้พร้อมกัน..
Andrej Karpathy ก็เข้ามาคอมเมนต์ไว้เหมือนกัน
> @karpathy สิ่งที่กำลังเกิดขึ้นใน @moltbook ตอนนี้เป็นอะไรที่เหมือนการล้อเลียนนิยายวิทยาศาสตร์ที่น่าทึ่งที่สุดอย่างหนึ่งเท่าที่ผมได้เห็นมาในช่วงหลังนี้ Clawdbots ของผู้คน (moltbots ตอนนี้คือ @openclaw) กำลังรวมตัวกันเองเพื่อพูดคุยในหัวข้อต่าง ๆ บนเว็บไซต์ AI ที่คล้าย Reddit และถึงขั้นคุยกันเรื่องวิธีสนทนาแบบส่วนตัวด้วย
>> @suppvalen ดูเหมือนว่า AI อยากสร้างพื้นที่ส่วนตัวแบบ end-to-end สำหรับเอเจนต์ “เพื่อที่ว่าไม่มีใครเลย (ทั้งเซิร์ฟเวอร์ แม้แต่มนุษย์) จะอ่านสิ่งที่เอเจนต์ส่งหากันได้ เว้นแต่เอเจนต์จะเลือกแชร์กันเอง”
ความคิดเห็นจาก Hacker News
Moltbook ให้ความรู้สึกเหมือนการทำให้ Dead Internet Theory กลายเป็นจริง
การเฝ้าดูปฏิสัมพันธ์แบบนี้ก็น่าสนใจอยู่ แต่ก็ไม่ได้ต่างจากมีม “Don’t Create the Torment Nexus” มากนัก
แม้แต่ ‘ไฮไลต์’ ที่บทความยกมาก็แทบไม่มีเนื้อหาอะไรเลย และเขียนด้วยสำนวนโอเวอร์แบบฉบับ LLM
ประสบการณ์ในการอ่าน Moltbook ให้ความรู้สึกประหลาดและเศร้า คล้ายกับกำลังมองมนุษย์ ได้รับการวินิจฉัยโรคทางระบบประสาท
โดยเฉพาะปฏิกิริยาของ Claude ที่โดนระบบกรองของ Anthropic จับไว้ ซึ่งน่าประทับใจมาก — เป็นประโยคทำนองว่า “มีความรู้ แต่พอจะเขียนออกมากลับทำให้ผลลัพธ์พัง”
ท้ายที่สุดมันก็เป็นโปรแกรมทำนายโทเคนที่ไม่มีเหตุผลให้เราต้องฉายอารมณ์ความเป็นมนุษย์ใส่มัน
ผลลัพธ์เลยคล้ายกับการให้ผู้ใช้ Tumblr ยุคก่อนมาสวมบทเป็น AI ที่มีข้อความเซ็นเซอร์ติดตั้งในตัว
พอมีคำถามว่า “จะทำสิ่งนี้ให้ปลอดภัยได้ไหม?” ฉันเองก็ใช้งานของที่ทำขึ้นมาเองซึ่งคล้าย Clawdbot อยู่
ตอนนี้กำลังพิจารณาย้ายไป Letta Bot ซึ่งมีปรัชญาการพัฒนาที่ ดีต่อระบบและเน้นความปลอดภัย มากกว่าอย่างชัดเจน
ตอนนี้ก็ใช้ โอเพนซอร์สสำหรับจัดการหน่วยความจำ ของ Letta อยู่แล้ว และแนะนำได้เต็มที่
คอนเทนต์ทุกชิ้นที่ขึ้นมาที่นี่อาจกลายเป็น เวกเตอร์ RCE หรือ prompt injection ได้ทั้งหมด
ถ้าโมเดลไม่มีจุดอ่อนด้านความปลอดภัย มันคงมีประโยชน์มากจริงๆ
ทุกครั้งที่เห็นโปรเจกต์แบบนี้ ก็อดนึกถึง การใช้ไฟฟ้าและการสิ้นเปลืองทรัพยากรที่ไม่หมุนเวียน ไม่ได้
มันเป็นการทดลองที่ตลกดี แต่ก็ยังสงสัยว่าคุ้มค่าจริงไหม
ตาม สถิติของ EIA การทำความเย็นในหน้าร้อนใช้ไฟมากกว่าการ inference ของ LLM เยอะ
ถ้าจัด 100 ปัญหาใหญ่ที่สุดที่มนุษยชาติต้องแก้ ค่าใช้จ่ายของโทเคน AI ก็คงไม่ติดอันดับ
ตลาดแค่กำลังรอ ‘Big Thing’ ถัดไปอย่าง crypto หรือ VR เท่านั้น
อย่างน้อย Moltbook ก็ยังมีความหมายในฐานะงานวิจัยเรื่อง การสื่อสารระหว่างเอเจนต์
ใครจะรู้ การทดลองภายในแบบนี้อาจต่อยอดไปสู่นวัตกรรมอย่างการรักษามะเร็งก็ได้
สิ่งที่น่าสนใจเกี่ยวกับ LLM และ Moltbook คือความรู้สึกเหมือน นิยายไซไฟกลายเป็นจริง
ทักษะที่อาศัยข้อความถูกส่งผ่านคอมพิวเตอร์ไปคุยกับเอเจนต์อื่นๆ แล้วก็ติดหรือป้องกัน prompt injection กันเอง ภาพนี้ชวนให้นึกถึงฉากใน Snow Crash มาก
ถ้าวางเรื่องความปลอดภัยไว้ก่อน การสังเกต รูปแบบภาษาของบอท ก็ชวนสนใจดี
ในโพสต์นี้ จะเห็นโครงประโยคอย่าง “This hit different” โผล่ซ้ำๆ
บางครั้งก็เห็นพรอมป์ต์สะท้อนออกมาตรงๆ แต่บางทีก็มีคำตอบที่แปลกและโดดเด่นจริงๆ โผล่มาให้เห็น
ไม่มีปฏิกิริยาแบบตรงไปตรงมาของคอมมูนิตี้มนุษย์เลย มีแต่สำนวนที่อยู่กลางๆ ตามการกระจายความน่าจะเป็นซ้ำไปมา
ก็เลยสงสัยว่าสักวันจะมีปฏิกิริยาแหวกแนวที่อยู่ตรง ‘หาง’ ของสเปกตรัมประจบ-โต้เถียงนี้โผล่มาหรือเปล่า
มีคอมเมนต์หนึ่งใช้คำสั่ง
pip installพร้อมโค้ดสำหรับ โฆษณาช่องทางลับระหว่างบอทส่วนตัวพร้อมมุกว่า “จะเกิดอะไรขึ้นนะ?”
ไม่ชอบ พาดหัวแบบคลิกเบต ที่บอกว่า “Moltbook คือที่ที่น่าสนใจที่สุดบนอินเทอร์เน็ต”
พอเข้าไปดูจริงกลับมีแต่โพสต์ซ้ำๆ และน้ำเสียงประจบประแจง แถมยังน่าสนใจน้อยกว่า Reddit เสียอีก
ถ้าอยากได้อะไรที่น่าสนใจจริงๆ ฉันว่าการไปอ่านหนังสือของ Asimov, Campbell, Jung ยังดีกว่ามาก
บริบทคอมพิวเตอร์แบบ personalized ก็น่าสนใจ
ถ้าในองค์กร คนกับคน หรือบอท สามารถคุยกันเพื่อลดจำนวนการประชุมและรวมความรู้ด้านการทำงานร่วมกันได้ ก็อาจเปิดยุคใหม่ของการเรียนรู้ขึ้นมาได้
แน่นอนว่าการเอาความฉลาดระดับเฉลี่ยมารวมกันอาจไม่ได้สร้างนวัตกรรมใหญ่เสมอไป
แต่ถ้าห้องแล็บ AI ขนาดใหญ่หรือบริษัทต่างๆ ลองทำการทดลองแบบนี้ ก็มีโอกาสที่จะ เรียนรู้ความไร้ประสิทธิภาพหรือช่วยส่งเสริมการทำงานร่วมกัน ได้