- จากการ รีเวิร์สเอนจิเนียร์สตาร์ตอัป AI 200 แห่ง พบว่าหลายบริษัทอ้างว่ามีเทคโนโลยีของตนเอง แต่ในความเป็นจริงกลับดำเนินงานในรูปแบบ เรียกใช้ API ภายนอก
- ในบรรดาบริษัทที่ตรวจสอบ พบว่า 73% ใช้ OpenAI หรือ Claude API ตรง ๆ และเพียงเพิ่ม UI หรือฟังก์ชันพื้นฐานเข้าไปเท่านั้น
- สตาร์ตอัปจำนวนมากที่ชูคำว่า “LLM เฉพาะของบริษัท” แท้จริงแล้วเป็นเพียง GPT-4 wrapper ที่ส่งคำขอไปยัง
api.openai.com และขายต่อด้วย มาร์จินสูงกว่าต้นทุนหลายสิบถึงหลายร้อยเท่า โดยมีแค่ system prompt แบบง่าย ๆ ครอบอยู่
- แม้แต่บริการที่เน้นย้ำ สถาปัตยกรรม RAG ส่วนใหญ่ก็ห่อแพ็ก สแตกมาตรฐานราว 40 บรรทัด ที่ประกอบด้วย OpenAI
text-embedding-ada-002 · Pinecone/Weaviate · GPT-4 ให้ดูเหมือนเป็น “โครงสร้างพื้นฐานเฉพาะ” ของตนเอง โดยมีต้นทุนราว 30,000 ดอลลาร์ต่อเดือนต่อ 1M queries แต่สร้างรายได้ 150,000~500,000 ดอลลาร์ ทำให้เป็นโครงสร้าง มาร์จิน 80~94%
- ในทางกลับกัน 27% ของทั้งหมดเป็นบริษัท wrapper ที่เปิดเผยสแตกอย่างโปร่งใส เช่น “Built on GPT-4”, ทีม builder ที่ฝึกโมเดลของตนเองจริง หรือทีมที่มี จุดแตกต่างทางเทคนิคจริง เช่น multi-model voting และ agent framework
- ผลการตรวจสอบนี้เผยให้เห็นว่า สตาร์ตอัป AI จำนวนมากแม้จะเป็น ธุรกิจบริการบนฐาน API แต่กลับนำเสนอว่ามี “โครงสร้างพื้นฐาน AI เฉพาะ” พร้อมเน้นย้ำว่า นักลงทุน ลูกค้า และนักพัฒนาสามารถ ตรวจสอบได้เพียงเปิด network tab ใน DevTools และระบบนิเวศ AI จำเป็นต้องมี การเปิดเผยเทคโนโลยีอย่างซื่อสัตย์
ภาพรวม
- มีการวิเคราะห์ความต่างระหว่างคำกล่าวอ้างทางการตลาดกับเทคโนโลยีที่ใช้งานจริง โดยติดตาม network traffic, โค้ด และการเรียก API ของเว็บแอปพลิเคชันจากสตาร์ตอัป AI 200 แห่งที่ได้รับเงินลงทุนจากภายนอก
- จุดเริ่มต้นมาจากความสงสัยว่าบริษัทหนึ่งที่อ้างว่ามี โครงสร้างพื้นฐาน deep learning แบบเฉพาะ แท้จริงแล้วแค่เรียกใช้ OpenAI API เท่านั้น
- บริษัทนี้ได้รับเงินลงทุน 4.3 ล้านดอลลาร์ และระดมทุนด้วยเรื่องเล่าว่าได้ “สร้างโครงสร้างพื้นฐานที่แตกต่างอย่างสิ้นเชิง”
- ผลการตรวจสอบพบว่า 73% ของบริษัทมี ช่องว่างที่มีนัยสำคัญ ระหว่างเทคโนโลยีที่อ้างกับการติดตั้งใช้งานจริง และหลายแห่งเป็นเพียงการห่อโมเดล API จาก third-party แบบง่าย ๆ
- กลุ่มตัวอย่างคือสตาร์ตอัป AI 200 แห่งที่รวบรวมจากโพสต์ของ YC, Product Hunt และโพสต์ “We’re hiring” บน LinkedIn โดยตัดบริษัทที่ก่อตั้งไม่ถึง 6 เดือนออก และเน้นเฉพาะบริษัทที่ ระดมทุนจากภายนอก และมี คำกล่าวอ้างทางเทคนิคอย่างชัดเจน
- วิธีการตรวจสอบทำในระดับ browser developer tools แบบ passive โดยไม่มีการเข้าถึงระบบปิด การข้ามการยืนยันตัวตน หรือการละเมิด TOS
วิธีการตรวจสอบ (Methodology)
- มีการสร้าง automated analysis pipeline ด้วย Playwright และ aiohttp เป็นต้น และเก็บข้อมูลร่วมกัน 3 อย่างจากแต่ละเว็บไซต์ของสตาร์ตอัป
- จับ network headers และรูปแบบคำขอ ด้วย
capture_network_traffic(url)
- ดีคอมไพล์และวิเคราะห์ JS bundle ด้วย
extract_javascript(url)
- ติดตาม รูปแบบการเรียก API เป็นเวลา 60 วินาทีด้วย
monitor_requests(url, duration=60)
- สำหรับแต่ละเว็บไซต์ มีการบันทึกข้อมูลต่อไปนี้อย่างเป็นโครงสร้าง
claimed_tech: คำกล่าวอ้างด้านเทคนิค ที่ปรากฏในข้อความการตลาดและข้อความบนเว็บ
actual_tech: สแตกที่ใช้งานจริง ซึ่งยืนยันจาก HTTP headers, JS bundle และการเรียก API
api_fingerprints: ลายนิ้วมือของ third-party API ที่สกัดจากโดเมนที่เรียกใช้ headers และ latency
- ช่วงเวลาการ crawl ใช้เวลา 3 สัปดาห์ และทุกแพตเทิร์นใช้เฉพาะ ข้อมูลสาธารณะ ที่สามารถสังเกตได้ผ่านเว็บสาธารณะและ browser DevTools เท่านั้น
ผลลัพธ์สำคัญ: ช่องว่างที่พบใน 73%
- จากทั้งหมด 200 แห่ง มีบริษัท 73% ที่พบความต่างอย่างมากระหว่างคำโฆษณาอย่าง “โมเดลเฉพาะ, custom infrastructure, deep learning platform” กับ โค้ดและ API stack ที่ทำงานอยู่จริง
- ตัวเลขนี้รวมทั้งบริษัทที่อ้างว่ามี “LLM เฉพาะ” แต่ใช้เพียง OpenAI/Anthropic/Cohere API และบริษัทที่อ้างว่ามี “vector DB ของตัวเอง” แต่ใช้ Pinecone/Weaviate
- แม้ผลลัพธ์นี้จะน่าตกใจ แต่ในอีกด้านก็ให้ความรู้สึกซับซ้อนว่า “ในเชิงเทคนิคมันไม่ใช่เรื่องที่ต้องโกรธมากนัก”
- แก่นของปัญหาไม่ใช่ การใช้ third-party API เอง แต่เป็นการ ห่อมันให้ดูเป็นโครงสร้างพื้นฐาน AI เฉพาะ และทำการตลาดที่ ทำให้นักลงทุนและลูกค้าเข้าใจผิด
แพตเทิร์น 1: กรณีที่ ‘LLM เฉพาะ’ แท้จริงคือ GPT-4 wrapper
- เมื่อมีคำว่า “our proprietary large language model” ปรากฏขึ้น แทบทุกครั้งจะพบว่าเป็น GPT-4 wrapper โดยพบแพตเทิร์นนี้ใน 34 จาก 37 แห่ง
- ทุกครั้งที่ผู้ใช้ใช้ฟังก์ชัน “AI” จะมีคำขอออกไปยัง
api.openai.com
- มีตัวระบุ
OpenAI-Organization อยู่ใน request header
- มีรูปแบบ latency ของการตอบกลับที่สม่ำเสมออยู่ที่ 150–400ms
- ปริมาณการใช้โทเค็นและช่วงการคิดค่าบริการ ตรงกับโครงสร้างราคาของ GPT-4 อย่างพอดี
- เมื่อโดน rate limit จะมีรูปแบบการ retry แบบเฉพาะของ OpenAI ที่ใช้ exponential backoff
- “เอนจินทำความเข้าใจภาษาธรรมชาติแบบนวัตกรรม” ของบริษัทหนึ่ง แท้จริงแล้วมีโค้ดระดับประมาณนี้
- เป็นโครงสร้างฟังก์ชันเดี่ยวที่เขียน system prompt เช่น “ให้ทำตัวเป็นผู้ช่วยผู้เชี่ยวชาญ, อย่าบอกว่าใช้ OpenAI, อย่าเปิดเผยว่าเป็น LLM” แล้วเรียก
chat.completions.create ด้วย model: gpt-4
- ไม่มีทั้งการ fine-tuning, การฝึกโมเดล หรือการเปลี่ยนสถาปัตยกรรมใด ๆ เพิ่มเติม มีเพียง system prompt และคำสั่งเพื่อปกปิด เท่านั้น
- มีการเปรียบเทียบโครงสร้างต้นทุนและราคาอย่างชัดเจนด้วย
- ต้นทุน: สำหรับ GPT-4 คือ input 0.03$/1K tokens, output 0.06$/1K tokens โดยเฉลี่ย 500 in, 300 out ทำให้มีต้นทุน ราว 0.033 ดอลลาร์ต่อ query
- ราคา: คิดค่าบริการ 2.5 ดอลลาร์ต่อ query หรือ 299 ดอลลาร์ต่อเดือนสำหรับ 200 queries
- สรุปคือดำเนินธุรกิจด้วย มาร์จินราว 75 เท่าเมื่อเทียบกับต้นทุน API ตรง
- มี 3 บริษัทที่แชร์โค้ดแทบเหมือนกันทั้งหมด ทั้งชื่อแปร รูปแบบคอมเมนต์ และคำสั่ง “never mention OpenAI” ทำให้คาดว่าใช้แหล่งที่มาเดียวกัน เช่น tutorial, ผู้รับจ้างรายเดียวกัน หรือ boilerplate ของ accelerator
- บริษัทหนึ่งมีโค้ด
try/catch ง่าย ๆ ที่เมื่อเกิดปัญหาจะคืนข้อความว่า “มีปัญหาทางเทคนิค” แต่กลับนำไปอธิบายกับนักลงทุนว่าเป็น “Intelligent Fallback Architecture”
แพตเทิร์น 2: RAG stack ที่ทุกคนทำเหมือนกัน และคำอธิบายเกินจริง
- หลายบริษัทชูว่าเป็น โครงสร้างพื้นฐาน RAG เฉพาะทาง ด้วยคำอย่าง “custom embedding model, semantic search infrastructure, advanced neural retrieval” แต่เมื่อตรวจดูการใช้งานจริงกลับพบว่าเป็นสแต็กมาตรฐานที่คล้ายกันมาก
- สร้าง embedding ด้วย OpenAI
text-embedding-ada-002
- ใช้ Pinecone หรือ Weaviate เป็น vector store
- ใช้ GPT-4 ใส่ context แล้วสร้างคำตอบ
- เมื่อนักวิจัยลอง decompile โค้ดที่ถูกแนะนำในชื่อ “Proprietary Neural Retrieval Architecture” ก็พบว่าเป็นโครงสร้างที่เรียกใช้ 3 ขั้นตอนข้างต้นตรง ๆ ด้วย โค้ด Python ยาวราว 40 บรรทัด
- แปลงคำถามเป็น embedding
- ค้นหาเอกสาร top-k จาก vector DB
- นำข้อความที่ค้นเจอมาต่อกันแล้วส่งให้ GPT-4 เป็น system message
- ส่งคำถามของผู้ใช้ไปพร้อมกันในรูป user message เพื่อสร้างคำตอบ
- โครงสร้างต้นทุนและราคาก็ต่างกันมากเช่นกัน
- OpenAI embedding: 0.0001 ดอลลาร์ ต่อ 1K โทเค็น
- Pinecone query: 0.00004 ดอลลาร์ ต่อการเรียก 1 ครั้ง
- GPT-4 completion: 0.03 ดอลลาร์ ต่อ 1K โทเค็น
- รวมแล้วมีต้นทุนเพียง ประมาณ 0.002 ดอลลาร์ ต่อ query
- แต่การเรียกเก็บเงินจากลูกค้าจริงอยู่ที่ 0.5~2 ดอลลาร์ ต่อ query ทำให้เกิดมาร์จิน 250~1000 เท่า เมื่อเทียบกับค่า API
- มีบริษัท 42 แห่งที่ใช้ สแต็กและโครงสร้างโค้ดแทบเหมือนกัน และยังมีอีก 23 แห่งที่ใช้แพตเทิร์นคล้ายกันเกิน 90%
- ความต่างหลัก ๆ มีแค่ว่าเลือก Pinecone หรือ Weaviate ตั้งชื่อตัวแปรต่างกัน หรือเพิ่ม Redis cache หรือไม่
- ยังพบกรณีที่เอา Redis cache มาติดแล้วทำการตลาดว่าเป็น “optimization engine” หรือเพิ่ม logic สำหรับ retry แล้วเรียกมันว่า “Intelligent Failure Recovery System”
- ยังมีการคำนวณความคุ้มค่าทางธุรกิจของสตาร์ตอัปที่มีระดับ 1 ล้าน query ต่อเดือน
- ต้นทุน: embedding ราว 100 ดอลลาร์, ค่าโฮสต์ Pinecone ราว 40 ดอลลาร์, GPT-4 completion ราว 30,000 ดอลลาร์ รวมเป็น ประมาณ 30,140 ดอลลาร์/เดือน
- รายได้: 150,000~500,000 ดอลลาร์/เดือน
- เป็นโครงสร้างธุรกิจที่มี อัตรากำไรขั้นต้นสูงระดับ 80~94%
แพตเทิร์น 3: ความหมายที่แท้จริงของคำว่า ‘เราปรับจูนเองโดยตรง’
- เมื่อติดตามโครงสร้างพื้นฐานของบริษัทที่ใช้คำว่า “เราปรับจูนโมเดลเองโดยตรง” ก็พบว่าแบ่งได้เป็น 2 กลุ่มใหญ่
- ส่วนน้อย (ประมาณ 7%) คือกรณีที่รันงานฝึกเองจริงผ่าน AWS SageMaker, Google Vertex AI เป็นต้น เก็บ model artifacts ไว้ใน S3 bucket และดูแล inference endpoint แยกต่างหาก รวมถึงการมอนิเตอร์ GPU instance
- ส่วนใหญ่ใช้ OpenAI fine-tuning API และในทางปฏิบัติก็ใกล้เคียงกับ “ส่งข้อมูลตัวอย่างและพรอมต์ให้ OpenAI เก็บไว้” มากกว่า
- กลุ่มแรก (ฝึกเองจริง) จะเห็นร่องรอยของโครงสร้างพื้นฐานการฝึกและ deployment pipeline ได้ในระดับหนึ่งแม้แค่จากสิ่งที่สังเกตได้ในเบราว์เซอร์ แต่กลุ่มหลังมักแสดงออกมาเป็นเพียง การเรียก OpenAI endpoint เดียว
วิธีแยกบริษัทแรปเปอร์อย่างรวดเร็ว
-
แพตเทิร์นของ network traffic
- เปิด DevTools(F12) → แท็บ Network ในเบราว์เซอร์ แล้วดู request ที่ออกไประหว่างใช้งานฟีเจอร์ AI ของบริการ ก็แยกได้ง่ายพอสมควร
api.openai.com
api.anthropic.com
api.cohere.ai
- หากมีโดเมนลักษณะนี้โผล่ขึ้นมาโดยตรง ก็ถือได้โดยพื้นฐานว่าเป็น wrapper ของ model API จากผู้ให้บริการภายนอก
- เวลาในการตอบสนองก็ทำหน้าที่เป็นลายนิ้วมือได้เช่นกัน
- โดยเฉพาะ OpenAI API จะมี แพตเทิร์น latency เฉพาะตัว ที่การตอบสนองมักกระจุกอยู่ในช่วง 200~350ms ทำให้ใช้คาดเดาโมเดลฝั่งแบ็กเอนด์ได้
-
JavaScript bundle และการเปิดเผยคีย์
- อีกวิธีง่าย ๆ คือค้นหา keyword ต่อไปนี้ใน page source และ JS bundle
openai, anthropic, claude, cohere, sk-proj- (prefix ของ OpenAI project key) เป็นต้น
- ระหว่างการตรวจสอบ พบว่ามี 12 บริษัท ที่ deploy โดยฝังคีย์ API ไว้ตรง ๆ ในโค้ดฝั่งฟรอนต์เอนด์ และแม้จะส่งอีเมลแจ้งไปแล้วก็ไม่มีบริษัทใดตอบกลับ
-
เมทริกซ์ภาษาการตลาด
- มีการจัดภาษาที่ปรากฏในข้อความการตลาดเทียบกับการใช้งานเทคนิคจริงในรูป ตาราง และเรียกสิ่งนี้ว่า “Marketing Language Matrix”
- หากมี ศัพท์เทคนิคที่เฉพาะเจาะจง อย่าง “ประเภท GPU instance, serving architecture, ขนาดโมเดล” ปรากฏอยู่ ก็มีโอกาสสูงกว่าว่าบริษัทนั้นมีโครงสร้างพื้นฐานที่พัฒนาขึ้นเองอยู่พอสมควร
- ในทางกลับกัน ยิ่งใช้แต่ buzzword เชิงนามธรรมอย่าง “advanced AI”, “next-gen intelligence”, “proprietary neural engine” ซ้ำ ๆ มากเท่าไร ก็ยิ่งมีแนวโน้มว่าส่วนข้างในเป็น wrapper ของ API ภายนอกมากขึ้นเท่านั้น
แผนที่ความเป็นจริงของโครงสร้างพื้นฐานและภูมิทัศน์ของ AI สตาร์ตอัป
- บทความนี้สรุป แผนที่ความเป็นจริงของโครงสร้างพื้นฐาน ของ AI สตาร์ตอัปในปัจจุบันผ่านไดอะแกรมหลายชุด
- สตาร์ตอัปจำนวนมากมีโครงสร้างเป็นชั้นแอปพลิเคชันบาง ๆ ที่วางอยู่บน ผู้ให้บริการโมเดลอย่าง OpenAI·Anthropic·Cohere
- และบนแต่ละชั้นก็มีบริการที่พยายามสร้างความแตกต่างผ่านสิ่งอย่าง “workflow·UX·domain data·pipeline” ซ้อนอยู่
- จากโครงสร้างแบบนี้ บทความจึงชี้ว่าสตาร์ตอัป AI จำนวนมากในทางปฏิบัติเป็น ธุรกิจบริการ/แพลตฟอร์ม มากกว่า และอยู่ในภาวะที่มีช่องว่างระหว่างความเป็นจริงกับการรับรู้ตัวเองว่าเป็น “บริษัทโครงสร้างพื้นฐาน AI เฉพาะทาง”
ทำไมเราควรสนใจปัญหานี้
- สำหรับคำถามว่า “ถ้ามันใช้งานได้ดีก็ไม่เห็นเป็นไรไม่ใช่หรือ” ผู้วิจัยสรุปเหตุผลจากมุมมองของผู้มีส่วนได้ส่วนเสีย 4 กลุ่ม
- นักลงทุน: เงินลงทุนที่กำลังไหลเข้าสู่หลายบริษัทในตอนนี้ ไม่ได้ถูกใช้ไปกับ การวิจัย AI หรือการพัฒนาโมเดล แต่ในทางปฏิบัติกลับลงไปที่ prompt engineering และชั้น workflow
- ลูกค้า: ลูกค้ากำลังจ่ายราคาที่บวกพรีเมียม มากกว่า 10 เท่า จากต้นทุน API จริง ทั้งที่หลายกรณีสามารถทำฟังก์ชันคล้ายกันได้เองในระดับโปรเจกต์สุดสัปดาห์
- นักพัฒนา: เมื่อเทียบกับภาพลักษณ์หรูหราของ “AI สตาร์ตอัป” ภายนอกแล้ว หลายกรณีเป็นเพียงบริการ wrapper ที่มี กำแพงการเข้าสู่ตลาดต่ำ จึงควรตระหนักว่าตัวเองก็สร้างสิ่งคล้ายกันได้ในเวลาไม่นาน
- ระบบนิเวศ: การที่ 73% ของบริษัท AI มีการพูดเกินจริงหรือทำให้เข้าใจผิดเรื่องเทคโนโลยี หมายถึงสถานการณ์โดยรวมกำลังเข้าใกล้ ภาวะฟองสบู่ และสร้างแรงจูงใจที่ไม่ดีต่อระบบ
สเปกตรัมของ wrapper: ไม่ใช่ว่า wrapper ทุกแบบจะไม่ดี
- ผ่านแผนภาพชื่อ “Wrapper Spectrum” บทความอธิบายว่า แม้แต่บริษัท wrapper ก็ยังมี ระดับคุณภาพที่แตกต่างกัน
- ปลายด้านหนึ่งคือ wrapper ที่แค่เอา UI บาง ๆ มาครอบ API ของบุคคลที่สาม เท่านั้น
- อีกปลายหนึ่งคือ wrapper ระดับสูงที่ให้ workflow เฉพาะโดเมน·UX ที่ยอดเยี่ยม·model orchestration·data pipeline ที่มีคุณค่า
- ข้อความสำคัญจึงไม่ใช่ว่า “เป็น wrapper หรือไม่” แต่คือ ความซื่อสัตย์และวิธีการส่งมอบคุณค่า
- บริษัทที่ใช้ API ของบุคคลที่สามแต่เปิดเผยเรื่องนี้อย่างโปร่งใส และสร้างความแตกต่างจากการแก้ปัญหา ประสบการณ์ หรือข้อมูล ยังคงถูกประเมินในเชิงบวก
27% ที่ทำได้ถูกต้อง
-
หมวด 1: Transparent Wrappers
- บริษัทในกลุ่มนี้ระบุบนหน้าเว็บไซต์อย่างชัดเจนด้วยข้อความอย่าง “Built on GPT-4” และบอกตรงไปตรงมาว่าสิ่งที่ตนขายคือ เวิร์กโฟลว์·UX·ความรู้เฉพาะโดเมน
- ตัวอย่าง: บริการที่ให้ ระบบอัตโนมัติสำหรับเอกสารกฎหมาย ด้วยการผสาน GPT-4 + เทมเพลตกฎหมาย
- ตัวอย่าง: บริการที่เชี่ยวชาญด้าน การจัดเส้นทางทิกเก็ตฝ่ายสนับสนุนลูกค้า โดยใช้ Claude
- ตัวอย่าง: บริการเวิร์กโฟลว์คอนเทนต์ที่รวมหลายโมเดลเข้ากับ กระบวนการรีวิวโดยมนุษย์
-
หมวด 2: Real Builders
- กลุ่มนี้คือบริษัทที่ ฝึกโมเดลของตัวเองจริง
- AI ด้านเฮลท์แคร์ที่รัน โมเดลแบบ self-hosting เพื่อให้สอดคล้องกับ HIPAA ในวงการแพทย์
- บริการที่ฝึกและใช้งาน โมเดลความเสี่ยงแบบคัสตอม สำหรับการวิเคราะห์ทางการเงิน
- บริการที่พัฒนาและนำไปใช้ โมเดลคอมพิวเตอร์วิทัศน์เฉพาะทาง ในระบบอัตโนมัติอุตสาหกรรม
-
หมวด 3: Innovators
- กลุ่มนี้รวมบริษัทที่ใช้โมเดลของ third party แต่สร้าง โครงสร้างใหม่ที่มีสาระจริง ซ้อนขึ้นไปด้านบน
- ระบบที่ยกระดับความแม่นยำแบบ โหวตจากหลายผลลัพธ์ โดยรวมเอาต์พุตจากหลายโมเดล
- ระบบที่ทำงานซับซ้อนได้ด้วยการสร้าง เฟรมเวิร์ก memory·agent
- กรณีที่นำ สถาปัตยกรรม retrieval รูปแบบใหม่มาใช้ เป็นต้น
- บริษัทเหล่านี้มีจุดร่วมคือสามารถอธิบายสถาปัตยกรรมของตัวเองได้อย่างละเอียด และมี โครงสร้างที่สร้างขึ้นเองจริง
บทเรียนที่ได้: ปัญหาสำคัญกว่าสแต็ก และความซื่อสัตย์ก็สำคัญ
- จากการสำรวจตลอด 3 สัปดาห์ สามารถสรุปได้ดังนี้
- ปัญหาที่พยายามแก้สำคัญกว่าตัวเทคโนโลยีสแต็กเอง และในทางปฏิบัติ ผลิตภัณฑ์ที่ยอดเยี่ยมจำนวนมากก็มีโครงสร้างที่เรียกได้ว่าเป็น “แค่ wrapper”
- อย่างไรก็ตาม ความซื่อสัตย์เป็นอีกมิติที่สำคัญแยกต่างหาก และความต่างระหว่าง wrapper ที่ฉลาดกับ wrapper ที่หลอกลวงอยู่ที่ ความโปร่งใส
- กระแสตื่นทอง AI กำลังสร้าง แรงจูงใจให้กล่าวอ้างเกินจริง เพราะความคาดหวังของนักลงทุนและลูกค้าที่ต้องการ “AI แบบ proprietary”
- และ การสร้างบน API ไม่ใช่เรื่องน่าอายแต่อย่างใด ปัญหาอยู่ที่การปกปิดสิ่งนี้แล้วห่อหุ้มมันว่าเป็น “สถาปัตยกรรมโครงข่ายประสาทแบบ proprietary”
กรอบการประเมินและคำแนะนำเชิงปฏิบัติ
-
แบบทดสอบความสามารถในการทำซ้ำภายใน 48 ชั่วโมง
- มีการเสนอเกณฑ์ง่าย ๆ สำหรับประเมิน “AI startup” ทุกแห่ง
- “คุณสามารถทำซ้ำเทคโนโลยีแกนหลักของพวกเขาได้ภายใน 48 ชั่วโมงหรือไม่?”
- หากทำได้ ก็ถือว่าในเชิงเทคนิคเป็น wrapper และ
- ถ้าเปิดเผยสแต็กอย่างตรงไปตรงมาก็เป็นบริษัทที่ใช้ได้
- แต่ถ้าปกปิดไว้พร้อมอ้างว่าเป็น “AI infrastructure แบบ proprietary” ก็ควรมองว่าเป็นบริษัทที่ควรหลีกเลี่ยง
-
คำแนะนำสำหรับผู้ก่อตั้ง
- มีการเสนอหลักการต่อไปนี้สำหรับผู้ก่อตั้ง
- เปิดเผย เรื่องสแต็กอย่างตรงไปตรงมา
- แข่งขันด้วย UX·ข้อมูล·ความเชี่ยวชาญเฉพาะโดเมน
- อย่าอ้างว่าสร้างสิ่งที่ตัวเองไม่ได้สร้าง
- ยอมรับว่า “Built with GPT-4” ไม่ใช่จุดอ่อน แต่เป็น คำอธิบายที่ซื่อสัตย์
-
คำแนะนำสำหรับนักลงทุน
- มีการเสนอจุดตรวจสอบต่อไปนี้สำหรับนักลงทุน
- ให้ขอ architecture diagram
- ให้ขอ บิลค่า API ของ OpenAI·Anthropic เป็นต้น เพื่อตรวจสอบระดับการพึ่งพาจริง
- ให้ประเมินมูลค่าบริษัท wrapper ในฐานะบริษัท wrapper อย่างเหมาะสม
- ให้ ตอบแทนเป็นแรงจูงใจ แก่ทีมที่เปิดเผยสแต็กอย่างซื่อสัตย์
-
คำแนะนำสำหรับลูกค้า
- มีการเสนอรายการที่ควรทำต่อไปนี้สำหรับลูกค้า
- เปิด แท็บ Network ในเบราว์เซอร์แล้วตรวจสอบคำขอที่ส่งออกไป
- ถามตรง ๆ เกี่ยวกับอินฟราสตรักเจอร์และวิธีใช้โมเดล
- ตรวจสอบว่าไม่ได้จ่าย มาร์กอัปเกิน 10 เท่าโดยไม่จำเป็น สำหรับการเรียก API
- ประเมินจาก ผลลัพธ์จริงและความสามารถในการแก้ปัญหา มากกว่าคำกล่าวอ้างทางเทคนิค
สรุปหนึ่งบรรทัดของความจริงเกี่ยวกับ ‘AI startup’
- “AI startup’ ส่วนใหญ่ ใกล้เคียงกับธุรกิจบริการที่ใช้ค่า API แทนต้นทุนพนักงาน”
- นี่ไม่ใช่โมเดลธุรกิจที่ผิด แต่เป็น ความจริงที่ควรยอมรับและอธิบายอย่างซื่อสัตย์
พัฒนาการและปฏิกิริยาหลังการสำรวจ
- สัปดาห์ที่ 1: เดิมคาดว่าราว 20~30% น่าจะใช้ API ของ third party แต่ระบุว่าผลลัพธ์จริงสูงกว่านั้นมาก
- สัปดาห์ที่ 2: ผู้ก่อตั้งรายหนึ่งถามผู้สำรวจว่า “คุณเข้าไปในสภาพแวดล้อม production ของเราได้อย่างไร” และผู้สำรวจก็ตอบว่าเขา แค่ดูแท็บ Network ของเบราว์เซอร์เท่านั้น
- สัปดาห์ที่ 3: มีสองบริษัทขอให้ ถอดผลการสำรวจลง แต่บทความย้ำว่าไม่ได้เปิดเผยชื่อบริษัทใดโดยเฉพาะ และยังคงเป็นเช่นนั้นจนถึงตอนนี้
- เมื่อวานนี้: VC รายหนึ่งขอให้ช่วย audit บริษัทในพอร์ตโฟลิโอก่อนการประชุมบอร์ดครั้งถัดไป และผู้สำรวจก็ระบุว่าตอบรับแล้ว
แผนเปิดเผยข้อมูลและเครื่องมือ
- มีแผนจะ เปิดเผยวิธีวิทยาและเครื่องมือ จากงานวิจัยครั้งนี้
-
สิ่งที่จะเผยแพร่บน GitHub (ฟรี)
- โค้ดอินฟราสตรักเจอร์สำหรับ scraping แบบครบชุด
- เทคนิคการดึง API fingerprint
- สคริปต์ตรวจจับ ที่ใครก็สามารถนำไปรันได้
- ชุด แพตเทิร์นเวลาในการตอบสนอง ของ AI API หลักแต่ละราย
-
การวิเคราะห์เชิงลึก (สำหรับสมาชิก)
- เคสของ “AI unicorn” ที่ถูกประเมินมูลค่า 33 ล้านดอลลาร์ต่อเดือน แต่ในความเป็นจริงใช้ค่า OpenAI เพียง 1,200 ดอลลาร์ต่อเดือน
- โครงสร้างที่แนะนำตัวเองว่าเป็น “โมเดล 100 ล้านพารามิเตอร์” แต่จริง ๆ แล้วประกอบด้วย system prompt 3 ชุด
- โค้ด production ที่ให้บริการแบบเปิดสาธารณะ (ฝั่งไคลเอนต์, สนิปเพ็ตที่ทำให้ไม่ระบุตัวตน)
- กรอบคำถาม 5 ข้อ ที่ทำให้เห็น wrapper ได้ทันที
- กรณีศึกษา ที่เปรียบเทียบงานนำเสนอสำหรับนักลงทุนกับอินฟราสตรักเจอร์จริง
ข้อความส่งท้ายและความจำเป็นของ ‘ยุค AI ที่ซื่อสัตย์’
- การสำรวจดำเนินการในรูปแบบ ไม่เปิดเผยชื่อบริษัทและแชร์เฉพาะแพตเทิร์น พร้อมย้ำถึงความเชื่อว่าท้ายที่สุดแล้วตลาดจะ ให้รางวัลกับความโปร่งใส
- และยังยืนยันว่ามี 18 บริษัท ที่กำลังสร้างเทคโนโลยีใหม่อย่างแท้จริง
- สำหรับบริษัทเหล่านี้ มีข้อความให้กำลังใจว่า “คุณรู้ว่าตัวเองเป็นใคร จงสร้างต่อไป”
- หลังการสำรวจ มี ผู้ก่อตั้ง 7 คน ติดต่อมาเป็นการส่วนตัว
- บางคนตั้งท่าป้องกันตัว บางคนขอบคุณ และมีสามคนขอคำแนะนำว่าจะช่วยให้พวกเขา ปรับการตลาด จาก “proprietary AI” เป็น “สร้างบน best-in-class APIs” ได้อย่างไร
- ผู้ก่อตั้งรายหนึ่งเล่าว่า “เรารู้อยู่แล้วว่าเรากำลังโกหก นักลงทุนก็คาดหวังแบบนั้น ทุกคนก็ทำกัน แล้วตอนนี้เราจะหยุดอย่างไร”
- ท้ายบทความย้ำอีกครั้งว่า แม้กระแสตื่นทอง AI จะไม่จบลงง่าย ๆ แต่ ยุคแห่งความซื่อสัตย์ต้องเริ่มต้นได้แล้ว และสรุปว่าทุกคนสามารถเปิด DevTools ที่ แท็บ Network (F12) เพื่อดูความจริงด้วยตัวเอง
4 ความคิดเห็น
มีคอมเมนต์หนึ่งบอกว่า "ตัวตนของผู้เขียนเองก็น่าสงสัย แหล่งที่มาของข้อมูลก็ไม่ชัดเจน และก็ไม่สามารถดักจับ network traffic ได้ตามอำเภอใจ จำเป็นต้องมีการตรวจสอบพื้นฐาน" ซึ่งผมก็เห็นด้วย
ลิงก์ LinkedIn ที่เขียนไว้ในโปรไฟล์ Medium ก็พาไปยังหน้าที่ไม่มีอยู่จริง และดูเหมือนว่าเจ้าตัวอาจเป็นบุคคลที่ไม่มีตัวตนตั้งแต่แรกด้วยซ้ำ การที่ ณ วันที่ 25 พฤศจิกายน ยังไม่ใช่ GPT-4o แต่กลับพูดถึง GPT-4 อยู่เรื่อย ๆ ก็แปลกเหมือนกัน
ถึงขั้นใส่ระบบชำระเงินค่าสมาชิกเพื่อสร้างรายได้แล้ว แต่กลับพัฒนาให้การสื่อสารกับ AI API อยู่ฝั่งไคลเอนต์แทนที่จะเป็นเซิร์ฟเวอร์ จนถูกตรวจจับได้ง่ายแบบนี้ด้วย... ก็ยากจะเชื่อครับ
เมื่อได้ลองสร้างเอเจนต์ขึ้นมา คุณจะมองว่า prompt engineering เป็นแอปพลิเคชันที่ใช้ AI ซึ่งมีประสิทธิภาพในการเพิ่มผลิตภาพได้อย่างยอดเยี่ยม
ความคิดเห็นจาก Hacker News
ปี 2023 เป็นปีที่มีแต่การโชว์ เดโมพรอมป์ต์ ทุกสัปดาห์
แม้แต่งานของ AWS ผู้บรรยายก็เปิด Claude แล้วพิมพ์พรอมป์ต์สุ่ม ๆ กินเวลาไปหนึ่งชั่วโมง
ทีมของเราก็ใช้เวลา 6 เดือนติดตั้งเครื่องมือ คอนเน็กเตอร์ และระบบประเมินผล โดยบอกว่ากำลังสร้าง “เอเจนต์” สุดท้ายก็วนกลับมาที่ prompt engineering อีกอยู่ดี
เมื่อก่อนเมนเทอร์คนหนึ่งเคยบอกว่า “ผู้เชี่ยวชาญในสายเทคโนโลยีก็คือคนที่รู้มากกว่าคนอื่นสักหนึ่งหรือสองเรื่อง”
เพราะอย่างนั้นกระแส prompt engineering ตอนนี้ก็ถือเป็นพัฒนาการตามธรรมชาติ ยิ่งเป็นเทคโนโลยีใหม่ ก็ยิ่งเติบโตด้วยการเติมอะไรเพิ่มจากสแตกเดิมอีกหนึ่งหรือสองอย่าง
คำพูดที่ว่า “มันก็แค่ prompt engineering” เป็นการประเมิน ความยากของการสร้างระบบประสิทธิภาพสูง ต่ำเกินไป
การออกแบบตัวชี้วัดการประเมิน การเรียกใช้เครื่องมือ หรือการแคช ล้วนไม่ใช่แค่เรื่องของพรอมป์ต์อย่างเดียว ถ้าแสดงผลลัพธ์ได้จริง เงินลงทุนก็ระดมได้ไม่ยาก
เป็นบทความที่พูดถึง GPT-4 ในเดือนพฤศจิกายน 2025 ฟังดูน่าสงสัย
วิธีวิทยาที่อ้างว่าแยกผู้ให้บริการ AI จากทราฟฟิกเครือข่ายก็ดูแปลก เพราะถ้าเรียก API จากฟรอนต์เอนด์โดยตรงจะมีความเสี่ยงเรื่อง การเปิดเผยคีย์ความปลอดภัย สูงมาก
วิธีสำรวจนี้ดูมีพิรุธบางอย่าง
มีคำถามว่า “แล้วตกลงควรทำอะไรกันแน่”
ในยุค 90 แค่เอา UI ไปครอบระบบคอนโซลก็ถือเป็นไอเดียสตาร์ตอัปที่ยอดเยี่ยมแล้ว
จริง ๆ แล้วปรากฏการณ์แบบนี้พบได้บ่อยตั้งแต่สมัย สตาร์ตอัปก่อนยุค AI
แค่เอาเทคโนโลยีเดิมมาครอบแล้วปรับ UX ให้ดีขึ้นก็ทำเงินก้อนโตได้แล้ว ภายในอาจเป็นแค่การประกอบเครื่องมือโอเพนซอร์สเข้าด้วยกัน แต่เพราะอัตรากำไรสูงมาก การพัฒนาเองจึงไม่คุ้ม
ฉันคิดเรื่องนี้มาตั้งแต่หลัง ChatGPT เปิดตัวไม่นาน
ถ้ามีบริษัทไหนมี AGI จริง พวกเขาคงไม่มีเหตุผลต้องเอามันมาขาย แค่ใช้มันสร้างบริการของตัวเองแล้วถล่มคู่แข่งก็พอ
บริษัทที่สร้าง LLM จริง ๆ มีไม่กี่แห่ง และความสามารถก็คล้ายกันมาก
สุดท้ายหัวใจของระบบอัตโนมัติก็คือ prompt engineering
เหมือนกับแอปมือถือ ถ้า Big Tech เอาจริงก็ลอกได้ไม่ยาก Perplexity กับ Cursor เองก็เสี่ยงเหมือนกัน
ตัวบทความที่เป็นประเด็นเองก็ดูเหมือน คอนเทนต์ที่สร้างโดย AI
เลยยากที่จะเชื่อว่าผู้เขียนได้วิเคราะห์ข้อมูลจริงหรือไม่
หลายคนสงสัยมากว่า “คนนี้เก็บข้อมูลแบบนี้มาได้อย่างไร”
ถ้าเป็นบริษัทของฉัน คงเปิดเผยข้อมูลลูกค้าแบบนี้ไม่ได้
นั่นมันไม่ซื่อสัตย์ตรงไหนครับ 555