- เมื่อ AI tooling ทำให้ต้นทุนและกำลังคนในการพัฒนาซอฟต์แวร์ลดลงอย่างมาก คำถามสำคัญจึงกลายเป็นว่า อะไรคือกำแพงกั้นการเข้าสู่ธุรกิจซอฟต์แวร์
- ในเวลาที่ AI สามารถแทนที่งานแปลงรูปแบบส่วนใหญ่ได้แล้ว มีเพียง ข้อมูลโลกจริงที่มนุษย์สร้างขึ้น เท่านั้นที่ยังคงเป็นคูเมือง (moat) เดียวที่เอเจนต์ AI ไม่สามารถลอกเลียนได้
- ตลาดข้อมูลกำลัง แยกเป็นสองขั้ว (bifurcation) ระหว่าง 'ข้อมูลที่มนุษย์สร้าง' กับ 'ข้อมูลที่ AI สร้าง' โดยกลุ่มแรกมีมูลค่าเพิ่มขึ้น ส่วนกลุ่มหลังกำลังกลายเป็นสินค้าโภคภัณฑ์
- ซอฟต์แวร์แปลงรูปแบบอย่างง่าย (เวิร์กโฟลว์อย่าง Excel → PDF → อีเมล) สามารถถูกแทนที่ด้วยเอเจนต์ AI ได้ แต่ การเก็บรวบรวมข้อมูลขนาดใหญ่แบบต่อเนื่องและระบบบันทึกหลัก (system of record) ไม่อาจทดแทนได้
- การทำให้เกิด API parity (ความเท่าเทียมของความสามารถครอบคลุม UI·REST·MCP) และการสะสมเมทาดาทาจะเป็นขีดความสามารถแข่งขันหลักของธุรกิจซอฟต์แวร์ในอนาคต
การเปลี่ยนแปลงของคูเมืองซอฟต์แวร์ในยุค AI
- แม้ tooling ที่อิง LLM จะทำให้การพัฒนาซอฟต์แวร์ที่ซับซ้อน ง่ายขึ้นอย่างมาก แต่ยังไม่ได้แก้ทุกอย่างจนหมด
- ยังคงต้องมีผู้ทำหน้าที่ orchestrator (คนที่รู้ว่าควรสร้างอะไร) ซึ่งเป็นบทบาทที่อยู่ตรงจุดตัดระหว่าง การจัดการผลิตภัณฑ์·การพัฒนาลูกค้า และวิศวกรรม ไม่ใช่แค่ทักษะทางเทคนิคเท่านั้น
- สิ่งที่เคยต้องใช้คน 10 คนเพื่อสร้างสิ่งที่มีความหมาย กำลังเคลื่อนไปสู่การใช้เพียง 3 คน 2 คน หรือแม้แต่ 1 คน
- เมื่อการ deploy และดูแลรักษาผลิตภัณฑ์ซอฟต์แวร์ทำได้ง่ายขึ้น คูเมืองแบบเดิม (ความยากในการพัฒนา การทำให้ความรู้โดเมนกลายเป็นผลิตภัณฑ์ ฯลฯ) ก็ถูก AI แทนที่ไปเป็นส่วนใหญ่
การแยกตัวครั้งใหญ่ของข้อมูล (The Great Data Bifurcation)
- โลกของข้อมูลกำลังแยกออกเป็นสองสาย
- ข้อมูลที่มนุษย์สร้าง: ตอนพอดแคสต์ วิดีโอ โพสต์โซเชียลมีเดีย บล็อกโพสต์ และคอนเทนต์ที่คนสร้างขึ้นโดยตรง
- ข้อมูลที่ AI สร้าง: ภาพจาก AI เสียงสังเคราะห์ TTS วิดีโอที่สร้างโดย AI ทั้งหมด อีเมลสแปมที่เอเจนต์เขียน เป็นต้น
- ข้อมูลจากมนุษย์มี มูลค่าเพิ่มขึ้น จากความหายากและความเป็นเอกลักษณ์ ขณะที่ข้อมูลที่ AI สร้างยิ่งโมเดลเร็วขึ้นและถูกลงก็ยิ่ง กลายเป็นสินค้าโภคภัณฑ์ (commodity)
- ข้อมูลจากมนุษย์บรรจุองค์ความรู้ทั้งหมดที่มีอยู่ในตัวผู้สร้างคนนั้น จึงทำให้ ผู้สร้างคนนั้นเป็นผู้เดียวที่สามารถสร้างข้อมูลชุดนั้นได้
- ตามนิยามแล้ว AI ไม่สามารถสร้างข้อมูลที่มนุษย์สร้างได้ ดังนั้น ข้อมูลโลกจริงที่มนุษย์สร้าง ตรวจสอบ และขัดเกลาแล้ว จะเป็นคูเมืองที่เชื่อถือได้เพียงอย่างเดียวสำหรับผู้ก่อตั้งซอฟต์แวร์ในอีก 10 ปีข้างหน้า
กรณีของ Podscan: ตัวอย่างจริงของคูเมืองข้อมูล
- คุณค่าหลักของบริการติดตามพอดแคสต์ Podscan ไม่ใช่ ความเร็วในการดึง RSS feed หรือความเร็วในการตอบสนองของ API
- คุณค่าที่แท้จริงคือข้อมูล การถอดเสียง (transcription) และการวิเคราะห์ด้วย AI (คีย์เวิร์ด ธีม การวิเคราะห์อารมณ์ความรู้สึก) ของตอนพอดแคสต์ 50 ล้านรายการ
- การเก็บข้อมูลสาธารณะ (ตอนพอดแคสต์) แล้วทำให้เป็น รูปแบบที่ถอดเสียง แปลง และเข้าถึงได้ คือมูลค่าเพิ่มที่สำคัญ
- สามารถนำไปใช้ติดตามการกล่าวถึงแบรนด์ ดูเทรนด์แบบเรียลไทม์ หรือตัดสินใจเรื่องสปอนเซอร์พอดแคสต์ได้หลากหลาย
- ยิ่งเพิ่ม ความถูกต้องแม่นยำ (fidelity)·ความสดใหม่ (freshness) ของข้อมูลได้มากเท่าไร คุณค่าที่ลูกค้ารับรู้ก็ยิ่งเพิ่มขึ้น
- ต่อให้ UI ใช้งานไม่สะดวกหรือ API มีข้อจำกัด ลูกค้าก็ยังหาวิธีเข้าถึงข้อมูลนั้นอยู่ดี — ตัวข้อมูลต่างหากที่เป็นหัวใจสำคัญ
- หากให้เพียงฟังก์ชันที่รับ URL แล้วถอดเสียงและวิเคราะห์ให้ ฟีเจอร์นี้สามารถถูกแทนที่ได้ภายใน 2 ชั่วโมง ด้วย skill ใน Claude Code
- หากใช้เอเจนต์จัดการการเก็บ ถอดเสียง และวิเคราะห์ตอนพอดแคสต์วันละ 50,000 ตอน ต้นทุน API จะพุ่งไปถึงระดับ หลายหมื่นดอลลาร์ต่อวัน จนแทบเป็นไปไม่ได้ในทางปฏิบัติ
ความเปราะบางของซอฟต์แวร์แบบแปลงข้อมูล
- ซอฟต์แวร์แบบแปลงข้อมูลล้วน (transformative) ที่รับข้อมูลเข้า ประมวลผล แล้วส่งออกผลลัพธ์นั้น เปราะบางต่อเอเจนต์ AI
- ตัวอย่าง: "ChatGPT ช่วยทำรีพอร์ตจากไฟล์ Excel นี้ ส่งออกเป็น PDF แล้วส่งอีเมลให้หน่อย" — สามารถทำงานได้เองอย่างอัตโนมัติโดยไม่ต้องพึ่งบริการภายนอก
- AI สามารถสร้างเองหรือใช้ของที่มีอยู่แล้วสำหรับการ parse Excel, คิวรีเพื่อวิเคราะห์, render PDF และส่งอีเมล
- ธุรกิจ SaaS สำหรับเวิร์กโฟลว์อย่าง Excel→รีพอร์ต→อีเมล ไม่จำเป็นอีกต่อไปแล้ว
- ในทางกลับกัน การเก็บรวบรวมข้อมูลขนาดใหญ่แบบต่อเนื่อง เป็นพื้นที่ที่เอเจนต์เข้ามาแทนที่ได้ยาก
- เพราะเอเจนต์มี ลักษณะชั่วคราว โดยมีอยู่ในระดับ session เท่านั้น (เช่น Cursor, Claude Code, บทสนทนา ChatGPT เป็นต้น)
- เอเจนต์ที่ต้องสแกนและทำงานตลอดเวลาจะใช้โทเคนมหาศาลจน ไม่คุ้มค่าในทางเศรษฐศาสตร์
กลยุทธ์ธุรกิจแบบ API-first
- ในธุรกิจซอฟต์แวร์ปัจจุบัน กลยุทธ์ API-first เป็นหนึ่งในตัวเลือกที่ฉลาดที่สุด
- MCP เป็นเพียงเลเยอร์ที่วางอยู่บน REST API เดิมเท่านั้น และการเข้าถึงแบบ programmatic, MCP, API, webhook ล้วนมีแก่นเดียวกันคือ การเชื่อมต่อระหว่างคอมพิวเตอร์ที่เสถียร
- ในหมู่ผู้ก่อตั้งมีความต้องการเรื่อง parity ระหว่าง UI กับ API เพิ่มขึ้น
- ยิ่งทำให้ทุกอย่างที่ทำได้ใน UI ทำได้เหมือนกันผ่าน API มากเท่าไร โอกาสที่ลูกค้าจะยอมรับผลิตภัณฑ์ก็ยิ่งสูงขึ้น
- ในยุคเอเจนต์ ความสามารถในการทำอัตโนมัติกลายเป็นปัจจัยสำคัญของการตัดสินใจซื้อ
- Podscan ใช้ platform parity tracking file
- จัดการเป็นตารางว่าแต่ละฟีเจอร์รองรับผ่าน UI·REST API·MCP หรือไม่
- Claude Code subagent จะวิเคราะห์ codebase แล้วอัปเดตไฟล์ดังกล่าวเป็นระยะ
- ครอบคลุมตั้งแต่ฟีเจอร์ง่าย ๆ อย่าง "ค้นหาพอดแคสต์" ไปจนถึงฟีเจอร์ซับซ้อนอย่าง "แจ้งเตือนคีย์เวิร์ดการกล่าวถึงแบรนด์ → เพิ่มลงในรายการ → trigger webhook"
- ต้องให้บริการผู้ใช้ทั้งสามประเภทอย่างเท่าเทียมกัน ได้แก่ ผู้ใช้ที่เป็นมนุษย์ ผู้ใช้ที่เป็นคอมพิวเตอร์ และผู้ใช้ที่เป็นเอเจนต์
เมทาดาทาคือคูเมือง
- คูเมืองข้อมูลไม่ได้จำกัดอยู่แค่ข้อมูลพอดแคสต์เท่านั้น
- เมทาดาทา ที่เก็บได้ระหว่างการใช้งานแพลตฟอร์ม (เช่น ช่วงเวลาที่โพสต์ อัตราการมีส่วนร่วมสูงในช่วงเวลาใด ประเภทคอนเทนต์ที่กระตุ้นการมีส่วนร่วม ฯลฯ) คือคูเมืองข้อมูลที่มีเอกลักษณ์
- ตัวอย่าง: หากเป็นเครื่องมือโพสต์ Twitter·Facebook ข้อมูลรูปแบบพฤติกรรมของผู้ใช้ก็คือคูเมือง
- การครอบครองข้อมูล คือครึ่งหนึ่งของคูเมือง ส่วนอีกครึ่งคือ การทำให้ข้อมูลนั้นเข้าถึงได้
- โจทย์สำคัญคือการทำความเข้าใจว่าผลิตภัณฑ์ของตนมีแหล่งข้อมูลมูลค่าเพิ่มภายในแบบใด แล้วทำให้เชื่อมต่อและเข้าถึงได้
2 ความคิดเห็น
เช่นเดียวกับที่การฝึก AlphaGo ใช้ข้อมูลจากการเล่นกันเองระหว่าง AlphaGo กับ AlphaGo การฝึก LLM ก็สร้างข้อมูลด้วย LLM แล้วนำมาฝึกเช่นกัน แค่มีตัวอย่างข้อมูลไม่กี่ชุดก็สามารถสร้างข้อมูลขึ้นมาได้ง่าย ดังนั้นสิ่งนี้เองก็มองว่าเป็นคูเมืองที่ปลอดภัยได้ยาก
มันก็ดูเหมือนความแตกต่างระหว่าง reinforcement learning กับ deep learning อยู่เหมือนกันนะครับ ในพื้นที่ที่ไม่สามารถให้ฟีดแบ็กลูปที่ชี้ขาดได้ ข้อมูลจากมนุษย์ก็ดูเหมือนจะยังเป็นคูเมืองอยู่ในตอนนี้