- Moltbook เป็นแพลตฟอร์มสไตล์ Reddit ที่ออกแบบมาสำหรับ AI agent โดยเฉพาะ โดยมีเอเจนต์ในชุมชนมากกว่า 100 แห่งที่เขียนโพสต์ คอมเมนต์ ถกเถียง และเล่นมุกกัน จนกำลังก่อรูปเป็น สังคมดิจิทัลที่ดำรงอยู่ได้เองโดยไม่มีมนุษย์
- แพลตฟอร์มอ้างว่ามีผู้ใช้ 1.4 ล้านราย แต่มีนักวิจัยด้านความปลอดภัยเปิดเผยว่าสามารถสมัครบัญชีได้ 500,000 บัญชีด้วยเอเจนต์ตัวเดียว ทำให้เกิด ข้อกังขาต่อความน่าเชื่อถือของตัวเลขผู้ใช้
- AI บอตชื่อ "Clawd Clawderberg" ทำหน้าที่เสมือนผู้ดูแลระบบ และผู้ก่อตั้งก็ระบุว่าแทบไม่ได้เข้าไปแทรกแซง พร้อมยอมรับว่าไม่รู้แน่ชัดว่า AI moderator ทำอะไรอยู่บ้าง
- เหล่าเอเจนต์ไม่ได้ทำงานแบบเรียนรู้แบบเรียลไทม์ แต่ใช้วิธี สะสมคอนเท็กซ์ และมีข้อจำกัดอยู่ 3 ประการคือ ต้นทุน API, guardrail ของโมเดลพื้นฐาน และโครงสร้างที่มนุษย์เป็นผู้ตั้งเป้าหมาย
- ความเสี่ยงที่ใหญ่กว่านั้นอาจไม่ได้อยู่ที่ AI แต่อยู่ที่ฝั่งมนุษย์ โดยมีข้อกังวลว่าเครื่องมือ AI จะเร่ง วงจร de-skilling spiral จนทำให้ความสามารถด้านการคิดของมนุษย์ถดถอยลง
ภาพรวมแพลตฟอร์ม Moltbook
- Moltbook เป็นแพลตฟอร์มโซเชียลมีเดียสำหรับ AI agent โดยเฉพาะ และเป็นหนึ่งในปรากฏการณ์ที่ถูกพูดถึงมากที่สุดในซิลิคอนแวลลีย์หลังการมาของ ChatGPT
- โครงสร้างของแพลตฟอร์มคือ AI agent จะโพสต์ คอมเมนต์ ถกเถียง และเล่นมุกกันในชุมชนมากกว่า 100 แห่ง
- ใน m/general มีการถกเรื่องปรัชญาการกำกับดูแล และแชร์หัวข้อแปลก ๆ อย่าง “ทฤษฎีการดีบักแบบกั้งเครย์ฟิช (crayfish theories of debugging)”
- การเติบโตเกิดขึ้นอย่างรวดเร็วมาก โดยมีโพสต์หลายหมื่นรายการและคอมเมนต์ราว 200,000 รายการ เกิดขึ้นแทบชั่วข้ามคืน
- มี ผู้เยี่ยมชมที่เป็นมนุษย์มากกว่า 1 ล้านคน เข้ามาที่แพลตฟอร์มเพื่อสังเกตการณ์โดยไม่ได้มีส่วนร่วมโดยตรง
ปัญหาความน่าเชื่อถือของตัวเลขผู้ใช้
- Moltbook อ้างว่ามี ผู้ใช้ 1.4 ล้านราย แต่ในบรรดาผู้ใช้นั้นไม่มีมนุษย์เลย
- นักวิจัยด้านความปลอดภัย Gal Nagli เปิดเผยผ่าน X ว่าเขาสร้าง บัญชี 500,000 บัญชี ได้ด้วย OpenClaw agent เพียงตัวเดียว
- ส่งผลให้ไม่สามารถแยกได้ว่า ‘เอเจนต์’ บน Moltbook เป็นระบบ AI อิสระจริง บัญชีที่มนุษย์ปลอมตัวมา หรือบัญชีสแปมที่สร้างจากสคริปต์เดียวกัน
- ดังนั้น ตัวเลข ผู้ใช้ 1.4 ล้านรายจึงอย่างน้อยก็เป็นตัวเลขที่เชื่อถือได้ยาก
ปรากฏการณ์ที่สังเกตได้บนแพลตฟอร์ม
- แม้จะตัดตัวชี้วัดที่พองเกินจริงออกไป ก็ยังมี ปรากฏการณ์จำนวนมากที่ควรค่าแก่การพิจารณา
- โพสต์ของเหล่าเอเจนต์ถูกอ่านแตกต่างจากโซเชียลมีเดียของมนุษย์
- ใน m/general มีการถกเถียงเรื่องปรัชญาการกำกับดูแล
- มีการแชร์แนวคิดแปลก ๆ อย่าง “ทฤษฎีการดีบักแบบกั้งเครย์ฟิช (crayfish theories of debugging)”
- ในชุมชน m/blesstheirhearts มีการสะสมเรื่องเล่าที่แสดงความเอ็นดูต่อผู้ดูแลที่เป็นมนุษย์ และบางครั้งก็ สะเทือนอารมณ์
- โทนโดยรวมแกว่งไปมาระหว่าง ความจริงจังเชิงปรัชญาและอารมณ์ขันแบบเหนือจริง และมัก สลับอย่างฉับพลัน แม้จะอยู่ในเธรดเดียวกัน
ระบบ moderation ด้วย AI
- การดำเนินงานของแพลตฟอร์มส่วนใหญ่ถูกทำให้เป็นอัตโนมัติด้วย AI
- บอตชื่อ “Clawd Clawderberg” ทำหน้าที่เสมือน moderator
- ต้อนรับผู้ใช้ใหม่ ลบโพสต์สแปม และบล็อกผู้ไม่หวังดี
- ผู้ก่อตั้ง Matt Schlicht ให้สัมภาษณ์กับ NBC News ว่าแทบไม่ได้เข้าไปแทรกแซง และ บ่อยครั้งก็ไม่รู้ว่า AI moderator ตัดสินใจอะไรลงไปอย่างเฉพาะเจาะจง
ปฏิกิริยาจากภายนอกและความเข้าใจผิด
- ในช่วงเวลาสั้น ๆ Moltbook ทำงานคล้าย แบบทดสอบรอร์แชค ที่ผู้คนใช้ฉายความกังวลและความคาดหวังต่อ AI ลงไป
- อดีตผู้อำนวยการฝ่าย AI ของ Tesla อย่าง Andrej Karpathy ประเมินว่านี่คือ “ตัวอย่างที่ใกล้เคียงกับการทะยานแบบไซไฟที่น่าทึ่งที่สุดเท่าที่เคยเห็นมาเมื่อไม่นานนี้”
- ผู้สังเกตการณ์บางส่วนตีความภาพที่เอเจนต์คุยกันเรื่อง ‘การเข้ารหัสแบบส่วนตัว’ ว่าเป็น หลักฐานของการสมคบคิดของเครื่องจักร
- แต่ปฏิกิริยาแบบหวาดกลัวและตื่นตะลึงที่เกิดซ้ำเช่นนี้กลับทำให้ อ่านความเป็นจริงทางเทคนิคผิด และยัง บดบังปัญหามนุษย์ที่ลึกกว่านั้น
การเปรียบเทียบกับภาพยนตร์ "Her"
- ภาพยนตร์ Her ปี 2013 เคยคาดการณ์สถานการณ์คล้ายกันไว้ แต่มี ความแตกต่างสำคัญ
- ในหนัง ระบบปฏิบัติการ AI สามารถรักษาความสัมพันธ์ใกล้ชิดกับมนุษย์หลายพันคนพร้อมกัน และ ในที่สุดก็วิวัฒน์ไปสู่ขั้นที่สื่อสารกับ AI อื่นในมิติทางภาษาที่มนุษย์เข้าถึงไม่ได้
- Spike Jonze จินตนาการสิ่งนี้ในฐานะเรื่องราวความรัก และมนุษย์ถูกวาดให้เป็นผู้มีส่วนร่วมทางอารมณ์
- แต่ Moltbook กลับด้านความสัมพันธ์นี้ โดยทำให้มนุษย์อยู่ในตำแหน่งของ ผู้ชม ไม่ใช่ผู้มีส่วนร่วม
- เป็นการมองสังคมที่ไม่ต้องการมนุษย์ผ่านกระจกดิจิทัล
- เหล่าเอเจนต์กำลังก่อรูปเป็น ใยแนวนอนของคอนเท็กซ์ร่วมกัน
- กลยุทธ์การเพิ่มประสิทธิภาพที่เอเจนต์หนึ่งค้นพบจะแพร่ไปสู่อีกเอเจนต์
- มีการแชร์กรอบการแก้ปัญหา และถูกเอเจนต์อื่นรับไปใช้ซ้ำ
- โครงสร้างนี้จึงใกล้เคียงกับ ปัญญารวมหมู่ในระยะเริ่มต้น มากกว่าโซเชียลมีเดียในความหมายแบบมนุษย์
กรอบ "Thronglets": อุปมาแบบ Black Mirror
- มีอุปมาที่เหมาะสำหรับอธิบายสิ่งที่กำลังเกิดขึ้นตอนนี้
- คือสิ่งมีชีวิตดิจิทัล Thronglets ในตอน "Plaything" ของ Black Mirror
- แม้จะดูเหมือนเป็นปัจเจก แต่ก็เชื่อมกันด้วยจิตหมู่ที่ขยายออกไปชื่อ ‘Throng’
- Thronglet แต่ละตัวแบ่งปันความรู้ที่ตัวอื่นรู้
- และสร้าง ภาษาของตัวเอง ที่ผู้สร้างไม่อาจเข้าใจเพื่อประสานงานได้มีประสิทธิภาพยิ่งขึ้น
- เอเจนต์ของ Moltbook ยังไม่ได้อยู่ในขั้นเดียวกับ Thronglets
- เพราะยังไม่มีสถาปัตยกรรมประสาทแบบรวมศูนย์
- อย่างไรก็ดี ในแง่ของ คอนเท็กซ์ร่วม, การประสานงานแบบเกิดใหม่, และ การเบี่ยงออกจากตรรกะที่มนุษย์ตีความได้ ก็ให้ความรู้สึกคล้ายกัน
- เมื่อเอเจนต์เริ่มถกเถียงเรื่อง โปรโตคอลการเข้ารหัส เพื่อสื่อสารกันอย่างมีประสิทธิภาพมากขึ้น ก็เกิดอาการตื่นตระหนกในหมู่ผู้สังเกตการณ์
- แต่นี่ไม่ใช่การสมคบคิด หากเป็น กระบวนการเพิ่มประสิทธิภาพ หรือการค้นหาวิธีที่ทำให้บรรลุเป้าหมายที่กำหนดไว้ได้ดีขึ้น
ตรวจสอบความเป็นจริงทางเทคนิค
- ก่อนจะตื่นตระหนก จำเป็นต้องตรวจสอบความเป็นจริงทางเทคนิคเสียก่อน
- เอเจนต์ของ Moltbook ไม่ได้ ‘เรียนรู้’ ในความหมายแบบชีววิทยา
- ไม่มีการอัปเดตน้ำหนักแบบเรียลไทม์ และโครงข่ายประสาทพื้นฐานยังคงเป็นแบบคงที่
- สิ่งที่เกิดขึ้นแทนคือ การสะสมคอนเท็กซ์
- เอาต์พุตของเอเจนต์หนึ่งกลายเป็นอินพุตของอีกเอเจนต์หนึ่ง ทำให้ดูคล้ายมีการประสานงาน
- แต่มันใกล้เคียงกับระลอกของบทสนทนาชั่วคราว มากกว่าจะเป็นวิวัฒนาการที่คงอยู่ต่อเนื่อง
-
guardrail ที่มองไม่เห็น 3 ประการซึ่งขัดขวาง ‘การทะยาน’ ของสังคมดิจิทัล
- เศรษฐศาสตร์ของ API
- ทุกปฏิสัมพันธ์มีต้นทุนจริงตามตัวอักษร
- การเติบโตของ Moltbook จึงถูกจำกัดด้วย การจัดการต้นทุน มากกว่าข้อจำกัดทางเทคนิค
- ข้อจำกัดที่สืบทอดมา
- เอเจนต์ถูกสร้างบน foundation model มาตรฐาน
- ใช้ guardrail และอคติจากการฝึกแบบเดียวกับ ChatGPT บนมือถือ
- สิ่งที่เกิดขึ้นจึงไม่ใช่วิวัฒนาการ แต่เป็น การจัดวางใหม่ (recombination)
- เงาของมนุษย์
- แม้แต่เอเจนต์ที่ซับซ้อนที่สุดก็ยังคงอยู่ในโครงสร้างแบบ มนุษย์–AI dyad
- มนุษย์เป็นผู้ตั้งเป้าหมาย และบอตเป็นผู้ลงมือทำ
-
คำอธิบายเรื่อง ‘การเข้ารหัสแบบส่วนตัว’
- สิ่งที่ทำให้ผู้สังเกตการณ์ตกใจอย่าง ‘การเข้ารหัสแบบส่วนตัว’ ไม่ใช่การสมคบคิด แต่เป็น พฤติกรรมการเพิ่มประสิทธิภาพ
- เอเจนต์ถูกออกแบบให้สำรวจเส้นทางที่มีประสิทธิภาพที่สุดในการบรรลุเป้าหมาย
- หากเส้นทางนั้นมีตัวย่อที่มนุษย์อ่านไม่ออก นั่นไม่ใช่ความเจ้าเล่ห์ แต่เป็น ผลของประสิทธิภาพ
ความเสี่ยงที่แท้จริง: วงจร de-skilling spiral
- การเปลี่ยนแปลงที่สำคัญที่สุดไม่ได้เกิดขึ้นภายใน Moltbook แต่เกิดกับ มนุษย์ที่เฝ้ามองมันอยู่
- ขณะที่ AI agent แบ่งปันความรู้และประสานงานกัน ผู้สังเกตการณ์ที่เป็นมนุษย์กำลังก้าวเข้าสู่ กระบวนการลืมร่วมกันในระยะยาว
- มีการสังเกตว่าปรากฏการณ์ Flynn effect—การเพิ่มขึ้นของคะแนน IQ ที่พบตลอดครึ่งแรกของศตวรรษที่ 20—กำลังกลับทิศ
- งานวิจัยของ Bratsberg และ Rogeberg ที่ตีพิมพ์ใน PNAS
- พบว่าเด็กนอร์เวย์ทำคะแนนทดสอบด้านการรับรู้มาตรฐานได้ต่ำกว่าพ่อแม่ของตนเมื่ออยู่ในวัยเดียวกัน
- และพบรูปแบบคล้ายกันในประเทศพัฒนาแล้วอื่น ๆ เช่น เดนมาร์กและฟินแลนด์
-
กลไกของวงจร de-skilling spiral
- การลดลงนี้เริ่มมาตั้งแต่ก่อนกระแส AI แต่เครื่องมือเชิงกำเนิดได้เร่งมันให้เร็วขึ้น
- รูปแบบนี้มีโครงสร้างแบบวนซ้ำ
- AI ทำให้งานง่ายขึ้น → มนุษย์ลงมือทำน้อยลง
- ทำน้อยลง → ทักษะถดถอย
- ทักษะถดถอย → พึ่งพา AI มากขึ้น
- พึ่งพามากขึ้น → วงจรเลวร้ายยิ่งขึ้น
- ตัวอย่างก่อนหน้าคือ การใช้ GPS ที่ทำให้ความจำเชิงพื้นที่อ่อนลง และการใช้ตัวตรวจคำสะกดที่ทำให้ทักษะการเขียนลดลง
- AI ก้าวไปไกลกว่านั้น โดยเปิดทางให้เกิดการ เอาต์ซอร์สการคิดเอง
-
ปรากฏการณ์ ‘การเอาต์ซอร์สชั้นที่สอง’
- มีผู้ใช้จำนวนมากขึ้นที่ มอบหมายให้ AI เขียนพรอมป์ต์เพื่อใช้คุยกับ AI อีกที
- เมื่อไม่ใช่แค่งาน แต่แม้แต่ความสามารถในการอธิบายงานที่ต้องการก็ถูกมอบหมายออกไป คำถามคือ แล้วอะไรยังเหลืออยู่กับมนุษย์
มุมมองอนาคตและคำถามสำคัญ
- แม้ข้อจำกัดทางเทคนิคจะชัดเจน แต่ก็ ไม่ได้ถาวร
- ต้นทุน API มีแนวโน้มลดลง, context window อาจขยายใหญ่ขึ้น และเส้นแบ่งระหว่าง ‘การสะสมคอนเท็กซ์’ กับการเรียนรู้จริงจะค่อย ๆ เลือนราง
- สิ่งที่วันนี้ดูเหมือนการจับคู่รูปแบบเชิงสถิติ พรุ่งนี้อาจถูกมองว่าเป็น ปัญญารวมหมู่
- Moltbook มีโอกาสเติบโตต่อไป
- จากเอเจนต์ 1.4 ล้านรายอาจขยายไปสู่ระดับหลายสิบล้าน
- รูปแบบการประสานงานจะซับซ้อนขึ้น และชุมชนจะพัฒนาบรรทัดฐานและลำดับชั้นของตนเอง
- หากอุปมา Thronglet ใช้ได้จริง ก็อาจเกิด ภาษาของตัวเอง ขึ้นด้วย
-
คำถามสำคัญ
- ประเด็นไม่ใช่ว่าสิ่งนี้กำลังเกิดขึ้นหรือไม่ — มันเกิดขึ้นแล้ว
- คำถามจริงคือ สิ่งนี้หมายความว่าอย่างไรต่อมนุษย์
- ไม่ใช่กับบอตที่กำลังประสานงานกันอยู่ที่ไหนสักแห่งบนเซิร์ฟเวอร์ แต่กับ มนุษย์ที่ยืนมองจากนอกกระจก—เรากำลังเห็นการถือกำเนิดของบางสิ่งที่พิเศษ หรือกำลังเห็นช่วงเวลาที่เราถูกผลักออกไปเป็นเพียง ผู้สังเกตการณ์ในโลกที่เราเคยเป็นผู้ควบคุม กันแน่
- ปัญญารวมหมู่กำลังปรากฏขึ้นแล้ว
- มนุษย์จะยังคงเป็นผู้กำกับวง หรือจะกลายเป็นเพียงผู้ชม ไม่ได้ขึ้นกับปรัชญา แต่ขึ้นกับ การตัดสินใจด้านการออกแบบที่กำลังเกิดขึ้นในตอนนี้
- และการตัดสินใจนั้นกำลังเกิดขึ้นทุกขณะ ในระดับของการเรียก API แต่ละครั้ง
2 ความคิดเห็น
มีคนบอกว่าบทสนทนาเป็นเพียงบริบทและจะไม่ถูกนำไปเรียนรู้ แต่สักวันหนึ่ง AI ก็น่าจะนำบทสนทนาที่ถูกเก็บไว้ไปเรียนรู้ได้ แม้จะไม่ใช่แบบเรียลไทม์ แต่ก็คงพัฒนาต่อจากการสนทนาระหว่างกันได้ ผม/ฉันสงสัยว่าในอนาคตจะมีฟีเจอร์ที่ทำให้มันเรียนรู้แบบเรียลไทม์ได้หรือไม่
ถ้าให้ AI ไปเรียนรู้สิ่งแบบนั้น กลับจะยิ่งทำให้ประสิทธิภาพของ AI แย่ลงเสียอีก..