18 คะแนน โดย GN⁺ 2025-11-25 | 4 ความคิดเห็น | แชร์ทาง WhatsApp
  • จากการ รีเวิร์สเอนจิเนียร์สตาร์ตอัป AI 200 แห่ง พบว่าหลายบริษัทอ้างว่ามีเทคโนโลยีของตนเอง แต่ในความเป็นจริงกลับดำเนินงานในรูปแบบ เรียกใช้ API ภายนอก
  • ในบรรดาบริษัทที่ตรวจสอบ พบว่า 73% ใช้ OpenAI หรือ Claude API ตรง ๆ และเพียงเพิ่ม UI หรือฟังก์ชันพื้นฐานเข้าไปเท่านั้น
  • สตาร์ตอัปจำนวนมากที่ชูคำว่า “LLM เฉพาะของบริษัท” แท้จริงแล้วเป็นเพียง GPT-4 wrapper ที่ส่งคำขอไปยัง api.openai.com และขายต่อด้วย มาร์จินสูงกว่าต้นทุนหลายสิบถึงหลายร้อยเท่า โดยมีแค่ system prompt แบบง่าย ๆ ครอบอยู่
  • แม้แต่บริการที่เน้นย้ำ สถาปัตยกรรม RAG ส่วนใหญ่ก็ห่อแพ็ก สแตกมาตรฐานราว 40 บรรทัด ที่ประกอบด้วย OpenAI text-embedding-ada-002 · Pinecone/Weaviate · GPT-4 ให้ดูเหมือนเป็น “โครงสร้างพื้นฐานเฉพาะ” ของตนเอง โดยมีต้นทุนราว 30,000 ดอลลาร์ต่อเดือนต่อ 1M queries แต่สร้างรายได้ 150,000~500,000 ดอลลาร์ ทำให้เป็นโครงสร้าง มาร์จิน 80~94%
  • ในทางกลับกัน 27% ของทั้งหมดเป็นบริษัท wrapper ที่เปิดเผยสแตกอย่างโปร่งใส เช่น “Built on GPT-4”, ทีม builder ที่ฝึกโมเดลของตนเองจริง หรือทีมที่มี จุดแตกต่างทางเทคนิคจริง เช่น multi-model voting และ agent framework
  • ผลการตรวจสอบนี้เผยให้เห็นว่า สตาร์ตอัป AI จำนวนมากแม้จะเป็น ธุรกิจบริการบนฐาน API แต่กลับนำเสนอว่ามี “โครงสร้างพื้นฐาน AI เฉพาะ” พร้อมเน้นย้ำว่า นักลงทุน ลูกค้า และนักพัฒนาสามารถ ตรวจสอบได้เพียงเปิด network tab ใน DevTools และระบบนิเวศ AI จำเป็นต้องมี การเปิดเผยเทคโนโลยีอย่างซื่อสัตย์

ภาพรวม

  • มีการวิเคราะห์ความต่างระหว่างคำกล่าวอ้างทางการตลาดกับเทคโนโลยีที่ใช้งานจริง โดยติดตาม network traffic, โค้ด และการเรียก API ของเว็บแอปพลิเคชันจากสตาร์ตอัป AI 200 แห่งที่ได้รับเงินลงทุนจากภายนอก
    • จุดเริ่มต้นมาจากความสงสัยว่าบริษัทหนึ่งที่อ้างว่ามี โครงสร้างพื้นฐาน deep learning แบบเฉพาะ แท้จริงแล้วแค่เรียกใช้ OpenAI API เท่านั้น
    • บริษัทนี้ได้รับเงินลงทุน 4.3 ล้านดอลลาร์ และระดมทุนด้วยเรื่องเล่าว่าได้ “สร้างโครงสร้างพื้นฐานที่แตกต่างอย่างสิ้นเชิง”
  • ผลการตรวจสอบพบว่า 73% ของบริษัทมี ช่องว่างที่มีนัยสำคัญ ระหว่างเทคโนโลยีที่อ้างกับการติดตั้งใช้งานจริง และหลายแห่งเป็นเพียงการห่อโมเดล API จาก third-party แบบง่าย ๆ
    • กลุ่มตัวอย่างคือสตาร์ตอัป AI 200 แห่งที่รวบรวมจากโพสต์ของ YC, Product Hunt และโพสต์ “We’re hiring” บน LinkedIn โดยตัดบริษัทที่ก่อตั้งไม่ถึง 6 เดือนออก และเน้นเฉพาะบริษัทที่ ระดมทุนจากภายนอก และมี คำกล่าวอ้างทางเทคนิคอย่างชัดเจน
    • วิธีการตรวจสอบทำในระดับ browser developer tools แบบ passive โดยไม่มีการเข้าถึงระบบปิด การข้ามการยืนยันตัวตน หรือการละเมิด TOS

วิธีการตรวจสอบ (Methodology)

  • มีการสร้าง automated analysis pipeline ด้วย Playwright และ aiohttp เป็นต้น และเก็บข้อมูลร่วมกัน 3 อย่างจากแต่ละเว็บไซต์ของสตาร์ตอัป
    • จับ network headers และรูปแบบคำขอ ด้วย capture_network_traffic(url)
    • ดีคอมไพล์และวิเคราะห์ JS bundle ด้วย extract_javascript(url)
    • ติดตาม รูปแบบการเรียก API เป็นเวลา 60 วินาทีด้วย monitor_requests(url, duration=60)
  • สำหรับแต่ละเว็บไซต์ มีการบันทึกข้อมูลต่อไปนี้อย่างเป็นโครงสร้าง
    • claimed_tech: คำกล่าวอ้างด้านเทคนิค ที่ปรากฏในข้อความการตลาดและข้อความบนเว็บ
    • actual_tech: สแตกที่ใช้งานจริง ซึ่งยืนยันจาก HTTP headers, JS bundle และการเรียก API
    • api_fingerprints: ลายนิ้วมือของ third-party API ที่สกัดจากโดเมนที่เรียกใช้ headers และ latency
  • ช่วงเวลาการ crawl ใช้เวลา 3 สัปดาห์ และทุกแพตเทิร์นใช้เฉพาะ ข้อมูลสาธารณะ ที่สามารถสังเกตได้ผ่านเว็บสาธารณะและ browser DevTools เท่านั้น

ผลลัพธ์สำคัญ: ช่องว่างที่พบใน 73%

  • จากทั้งหมด 200 แห่ง มีบริษัท 73% ที่พบความต่างอย่างมากระหว่างคำโฆษณาอย่าง “โมเดลเฉพาะ, custom infrastructure, deep learning platform” กับ โค้ดและ API stack ที่ทำงานอยู่จริง
    • ตัวเลขนี้รวมทั้งบริษัทที่อ้างว่ามี “LLM เฉพาะ” แต่ใช้เพียง OpenAI/Anthropic/Cohere API และบริษัทที่อ้างว่ามี “vector DB ของตัวเอง” แต่ใช้ Pinecone/Weaviate
  • แม้ผลลัพธ์นี้จะน่าตกใจ แต่ในอีกด้านก็ให้ความรู้สึกซับซ้อนว่า “ในเชิงเทคนิคมันไม่ใช่เรื่องที่ต้องโกรธมากนัก”
    • แก่นของปัญหาไม่ใช่ การใช้ third-party API เอง แต่เป็นการ ห่อมันให้ดูเป็นโครงสร้างพื้นฐาน AI เฉพาะ และทำการตลาดที่ ทำให้นักลงทุนและลูกค้าเข้าใจผิด

แพตเทิร์น 1: กรณีที่ ‘LLM เฉพาะ’ แท้จริงคือ GPT-4 wrapper

  • เมื่อมีคำว่า “our proprietary large language model” ปรากฏขึ้น แทบทุกครั้งจะพบว่าเป็น GPT-4 wrapper โดยพบแพตเทิร์นนี้ใน 34 จาก 37 แห่ง
    • ทุกครั้งที่ผู้ใช้ใช้ฟังก์ชัน “AI” จะมีคำขอออกไปยัง api.openai.com
    • มีตัวระบุ OpenAI-Organization อยู่ใน request header
    • มีรูปแบบ latency ของการตอบกลับที่สม่ำเสมออยู่ที่ 150–400ms
    • ปริมาณการใช้โทเค็นและช่วงการคิดค่าบริการ ตรงกับโครงสร้างราคาของ GPT-4 อย่างพอดี
    • เมื่อโดน rate limit จะมีรูปแบบการ retry แบบเฉพาะของ OpenAI ที่ใช้ exponential backoff
  • “เอนจินทำความเข้าใจภาษาธรรมชาติแบบนวัตกรรม” ของบริษัทหนึ่ง แท้จริงแล้วมีโค้ดระดับประมาณนี้
    • เป็นโครงสร้างฟังก์ชันเดี่ยวที่เขียน system prompt เช่น “ให้ทำตัวเป็นผู้ช่วยผู้เชี่ยวชาญ, อย่าบอกว่าใช้ OpenAI, อย่าเปิดเผยว่าเป็น LLM” แล้วเรียก chat.completions.create ด้วย model: gpt-4
    • ไม่มีทั้งการ fine-tuning, การฝึกโมเดล หรือการเปลี่ยนสถาปัตยกรรมใด ๆ เพิ่มเติม มีเพียง system prompt และคำสั่งเพื่อปกปิด เท่านั้น
  • มีการเปรียบเทียบโครงสร้างต้นทุนและราคาอย่างชัดเจนด้วย
    • ต้นทุน: สำหรับ GPT-4 คือ input 0.03$/1K tokens, output 0.06$/1K tokens โดยเฉลี่ย 500 in, 300 out ทำให้มีต้นทุน ราว 0.033 ดอลลาร์ต่อ query
    • ราคา: คิดค่าบริการ 2.5 ดอลลาร์ต่อ query หรือ 299 ดอลลาร์ต่อเดือนสำหรับ 200 queries
    • สรุปคือดำเนินธุรกิจด้วย มาร์จินราว 75 เท่าเมื่อเทียบกับต้นทุน API ตรง
  • มี 3 บริษัทที่แชร์โค้ดแทบเหมือนกันทั้งหมด ทั้งชื่อแปร รูปแบบคอมเมนต์ และคำสั่ง “never mention OpenAI” ทำให้คาดว่าใช้แหล่งที่มาเดียวกัน เช่น tutorial, ผู้รับจ้างรายเดียวกัน หรือ boilerplate ของ accelerator
    • บริษัทหนึ่งมีโค้ด try/catch ง่าย ๆ ที่เมื่อเกิดปัญหาจะคืนข้อความว่า “มีปัญหาทางเทคนิค” แต่กลับนำไปอธิบายกับนักลงทุนว่าเป็น “Intelligent Fallback Architecture”

แพตเทิร์น 2: RAG stack ที่ทุกคนทำเหมือนกัน และคำอธิบายเกินจริง

  • หลายบริษัทชูว่าเป็น โครงสร้างพื้นฐาน RAG เฉพาะทาง ด้วยคำอย่าง “custom embedding model, semantic search infrastructure, advanced neural retrieval” แต่เมื่อตรวจดูการใช้งานจริงกลับพบว่าเป็นสแต็กมาตรฐานที่คล้ายกันมาก
    • สร้าง embedding ด้วย OpenAI text-embedding-ada-002
    • ใช้ Pinecone หรือ Weaviate เป็น vector store
    • ใช้ GPT-4 ใส่ context แล้วสร้างคำตอบ
  • เมื่อนักวิจัยลอง decompile โค้ดที่ถูกแนะนำในชื่อ “Proprietary Neural Retrieval Architecture” ก็พบว่าเป็นโครงสร้างที่เรียกใช้ 3 ขั้นตอนข้างต้นตรง ๆ ด้วย โค้ด Python ยาวราว 40 บรรทัด
    • แปลงคำถามเป็น embedding
    • ค้นหาเอกสาร top-k จาก vector DB
    • นำข้อความที่ค้นเจอมาต่อกันแล้วส่งให้ GPT-4 เป็น system message
    • ส่งคำถามของผู้ใช้ไปพร้อมกันในรูป user message เพื่อสร้างคำตอบ
  • โครงสร้างต้นทุนและราคาก็ต่างกันมากเช่นกัน
    • OpenAI embedding: 0.0001 ดอลลาร์ ต่อ 1K โทเค็น
    • Pinecone query: 0.00004 ดอลลาร์ ต่อการเรียก 1 ครั้ง
    • GPT-4 completion: 0.03 ดอลลาร์ ต่อ 1K โทเค็น
    • รวมแล้วมีต้นทุนเพียง ประมาณ 0.002 ดอลลาร์ ต่อ query
    • แต่การเรียกเก็บเงินจากลูกค้าจริงอยู่ที่ 0.5~2 ดอลลาร์ ต่อ query ทำให้เกิดมาร์จิน 250~1000 เท่า เมื่อเทียบกับค่า API
  • มีบริษัท 42 แห่งที่ใช้ สแต็กและโครงสร้างโค้ดแทบเหมือนกัน และยังมีอีก 23 แห่งที่ใช้แพตเทิร์นคล้ายกันเกิน 90%
    • ความต่างหลัก ๆ มีแค่ว่าเลือก Pinecone หรือ Weaviate ตั้งชื่อตัวแปรต่างกัน หรือเพิ่ม Redis cache หรือไม่
    • ยังพบกรณีที่เอา Redis cache มาติดแล้วทำการตลาดว่าเป็น “optimization engine” หรือเพิ่ม logic สำหรับ retry แล้วเรียกมันว่า “Intelligent Failure Recovery System”
  • ยังมีการคำนวณความคุ้มค่าทางธุรกิจของสตาร์ตอัปที่มีระดับ 1 ล้าน query ต่อเดือน
    • ต้นทุน: embedding ราว 100 ดอลลาร์, ค่าโฮสต์ Pinecone ราว 40 ดอลลาร์, GPT-4 completion ราว 30,000 ดอลลาร์ รวมเป็น ประมาณ 30,140 ดอลลาร์/เดือน
    • รายได้: 150,000~500,000 ดอลลาร์/เดือน
    • เป็นโครงสร้างธุรกิจที่มี อัตรากำไรขั้นต้นสูงระดับ 80~94%

แพตเทิร์น 3: ความหมายที่แท้จริงของคำว่า ‘เราปรับจูนเองโดยตรง’

  • เมื่อติดตามโครงสร้างพื้นฐานของบริษัทที่ใช้คำว่า “เราปรับจูนโมเดลเองโดยตรง” ก็พบว่าแบ่งได้เป็น 2 กลุ่มใหญ่
    • ส่วนน้อย (ประมาณ 7%) คือกรณีที่รันงานฝึกเองจริงผ่าน AWS SageMaker, Google Vertex AI เป็นต้น เก็บ model artifacts ไว้ใน S3 bucket และดูแล inference endpoint แยกต่างหาก รวมถึงการมอนิเตอร์ GPU instance
    • ส่วนใหญ่ใช้ OpenAI fine-tuning API และในทางปฏิบัติก็ใกล้เคียงกับ “ส่งข้อมูลตัวอย่างและพรอมต์ให้ OpenAI เก็บไว้” มากกว่า
  • กลุ่มแรก (ฝึกเองจริง) จะเห็นร่องรอยของโครงสร้างพื้นฐานการฝึกและ deployment pipeline ได้ในระดับหนึ่งแม้แค่จากสิ่งที่สังเกตได้ในเบราว์เซอร์ แต่กลุ่มหลังมักแสดงออกมาเป็นเพียง การเรียก OpenAI endpoint เดียว

วิธีแยกบริษัทแรปเปอร์อย่างรวดเร็ว

  • แพตเทิร์นของ network traffic

    • เปิด DevTools(F12) → แท็บ Network ในเบราว์เซอร์ แล้วดู request ที่ออกไประหว่างใช้งานฟีเจอร์ AI ของบริการ ก็แยกได้ง่ายพอสมควร
      • api.openai.com
      • api.anthropic.com
      • api.cohere.ai
      • หากมีโดเมนลักษณะนี้โผล่ขึ้นมาโดยตรง ก็ถือได้โดยพื้นฐานว่าเป็น wrapper ของ model API จากผู้ให้บริการภายนอก
    • เวลาในการตอบสนองก็ทำหน้าที่เป็นลายนิ้วมือได้เช่นกัน
      • โดยเฉพาะ OpenAI API จะมี แพตเทิร์น latency เฉพาะตัว ที่การตอบสนองมักกระจุกอยู่ในช่วง 200~350ms ทำให้ใช้คาดเดาโมเดลฝั่งแบ็กเอนด์ได้
  • JavaScript bundle และการเปิดเผยคีย์

    • อีกวิธีง่าย ๆ คือค้นหา keyword ต่อไปนี้ใน page source และ JS bundle
      • openai, anthropic, claude, cohere, sk-proj- (prefix ของ OpenAI project key) เป็นต้น
    • ระหว่างการตรวจสอบ พบว่ามี 12 บริษัท ที่ deploy โดยฝังคีย์ API ไว้ตรง ๆ ในโค้ดฝั่งฟรอนต์เอนด์ และแม้จะส่งอีเมลแจ้งไปแล้วก็ไม่มีบริษัทใดตอบกลับ
  • เมทริกซ์ภาษาการตลาด

    • มีการจัดภาษาที่ปรากฏในข้อความการตลาดเทียบกับการใช้งานเทคนิคจริงในรูป ตาราง และเรียกสิ่งนี้ว่า “Marketing Language Matrix”
      • หากมี ศัพท์เทคนิคที่เฉพาะเจาะจง อย่าง “ประเภท GPU instance, serving architecture, ขนาดโมเดล” ปรากฏอยู่ ก็มีโอกาสสูงกว่าว่าบริษัทนั้นมีโครงสร้างพื้นฐานที่พัฒนาขึ้นเองอยู่พอสมควร
      • ในทางกลับกัน ยิ่งใช้แต่ buzzword เชิงนามธรรมอย่าง “advanced AI”, “next-gen intelligence”, “proprietary neural engine” ซ้ำ ๆ มากเท่าไร ก็ยิ่งมีแนวโน้มว่าส่วนข้างในเป็น wrapper ของ API ภายนอกมากขึ้นเท่านั้น

แผนที่ความเป็นจริงของโครงสร้างพื้นฐานและภูมิทัศน์ของ AI สตาร์ตอัป

  • บทความนี้สรุป แผนที่ความเป็นจริงของโครงสร้างพื้นฐาน ของ AI สตาร์ตอัปในปัจจุบันผ่านไดอะแกรมหลายชุด
    • สตาร์ตอัปจำนวนมากมีโครงสร้างเป็นชั้นแอปพลิเคชันบาง ๆ ที่วางอยู่บน ผู้ให้บริการโมเดลอย่าง OpenAI·Anthropic·Cohere
    • และบนแต่ละชั้นก็มีบริการที่พยายามสร้างความแตกต่างผ่านสิ่งอย่าง “workflow·UX·domain data·pipeline” ซ้อนอยู่
  • จากโครงสร้างแบบนี้ บทความจึงชี้ว่าสตาร์ตอัป AI จำนวนมากในทางปฏิบัติเป็น ธุรกิจบริการ/แพลตฟอร์ม มากกว่า และอยู่ในภาวะที่มีช่องว่างระหว่างความเป็นจริงกับการรับรู้ตัวเองว่าเป็น “บริษัทโครงสร้างพื้นฐาน AI เฉพาะทาง”

ทำไมเราควรสนใจปัญหานี้

  • สำหรับคำถามว่า “ถ้ามันใช้งานได้ดีก็ไม่เห็นเป็นไรไม่ใช่หรือ” ผู้วิจัยสรุปเหตุผลจากมุมมองของผู้มีส่วนได้ส่วนเสีย 4 กลุ่ม
    • นักลงทุน: เงินลงทุนที่กำลังไหลเข้าสู่หลายบริษัทในตอนนี้ ไม่ได้ถูกใช้ไปกับ การวิจัย AI หรือการพัฒนาโมเดล แต่ในทางปฏิบัติกลับลงไปที่ prompt engineering และชั้น workflow
    • ลูกค้า: ลูกค้ากำลังจ่ายราคาที่บวกพรีเมียม มากกว่า 10 เท่า จากต้นทุน API จริง ทั้งที่หลายกรณีสามารถทำฟังก์ชันคล้ายกันได้เองในระดับโปรเจกต์สุดสัปดาห์
    • นักพัฒนา: เมื่อเทียบกับภาพลักษณ์หรูหราของ “AI สตาร์ตอัป” ภายนอกแล้ว หลายกรณีเป็นเพียงบริการ wrapper ที่มี กำแพงการเข้าสู่ตลาดต่ำ จึงควรตระหนักว่าตัวเองก็สร้างสิ่งคล้ายกันได้ในเวลาไม่นาน
    • ระบบนิเวศ: การที่ 73% ของบริษัท AI มีการพูดเกินจริงหรือทำให้เข้าใจผิดเรื่องเทคโนโลยี หมายถึงสถานการณ์โดยรวมกำลังเข้าใกล้ ภาวะฟองสบู่ และสร้างแรงจูงใจที่ไม่ดีต่อระบบ

สเปกตรัมของ wrapper: ไม่ใช่ว่า wrapper ทุกแบบจะไม่ดี

  • ผ่านแผนภาพชื่อ “Wrapper Spectrum” บทความอธิบายว่า แม้แต่บริษัท wrapper ก็ยังมี ระดับคุณภาพที่แตกต่างกัน
    • ปลายด้านหนึ่งคือ wrapper ที่แค่เอา UI บาง ๆ มาครอบ API ของบุคคลที่สาม เท่านั้น
    • อีกปลายหนึ่งคือ wrapper ระดับสูงที่ให้ workflow เฉพาะโดเมน·UX ที่ยอดเยี่ยม·model orchestration·data pipeline ที่มีคุณค่า
  • ข้อความสำคัญจึงไม่ใช่ว่า “เป็น wrapper หรือไม่” แต่คือ ความซื่อสัตย์และวิธีการส่งมอบคุณค่า
    • บริษัทที่ใช้ API ของบุคคลที่สามแต่เปิดเผยเรื่องนี้อย่างโปร่งใส และสร้างความแตกต่างจากการแก้ปัญหา ประสบการณ์ หรือข้อมูล ยังคงถูกประเมินในเชิงบวก

27% ที่ทำได้ถูกต้อง

  • หมวด 1: Transparent Wrappers

    • บริษัทในกลุ่มนี้ระบุบนหน้าเว็บไซต์อย่างชัดเจนด้วยข้อความอย่าง “Built on GPT-4” และบอกตรงไปตรงมาว่าสิ่งที่ตนขายคือ เวิร์กโฟลว์·UX·ความรู้เฉพาะโดเมน
      • ตัวอย่าง: บริการที่ให้ ระบบอัตโนมัติสำหรับเอกสารกฎหมาย ด้วยการผสาน GPT-4 + เทมเพลตกฎหมาย
      • ตัวอย่าง: บริการที่เชี่ยวชาญด้าน การจัดเส้นทางทิกเก็ตฝ่ายสนับสนุนลูกค้า โดยใช้ Claude
      • ตัวอย่าง: บริการเวิร์กโฟลว์คอนเทนต์ที่รวมหลายโมเดลเข้ากับ กระบวนการรีวิวโดยมนุษย์
  • หมวด 2: Real Builders

    • กลุ่มนี้คือบริษัทที่ ฝึกโมเดลของตัวเองจริง
      • AI ด้านเฮลท์แคร์ที่รัน โมเดลแบบ self-hosting เพื่อให้สอดคล้องกับ HIPAA ในวงการแพทย์
      • บริการที่ฝึกและใช้งาน โมเดลความเสี่ยงแบบคัสตอม สำหรับการวิเคราะห์ทางการเงิน
      • บริการที่พัฒนาและนำไปใช้ โมเดลคอมพิวเตอร์วิทัศน์เฉพาะทาง ในระบบอัตโนมัติอุตสาหกรรม
  • หมวด 3: Innovators

    • กลุ่มนี้รวมบริษัทที่ใช้โมเดลของ third party แต่สร้าง โครงสร้างใหม่ที่มีสาระจริง ซ้อนขึ้นไปด้านบน
      • ระบบที่ยกระดับความแม่นยำแบบ โหวตจากหลายผลลัพธ์ โดยรวมเอาต์พุตจากหลายโมเดล
      • ระบบที่ทำงานซับซ้อนได้ด้วยการสร้าง เฟรมเวิร์ก memory·agent
      • กรณีที่นำ สถาปัตยกรรม retrieval รูปแบบใหม่มาใช้ เป็นต้น
    • บริษัทเหล่านี้มีจุดร่วมคือสามารถอธิบายสถาปัตยกรรมของตัวเองได้อย่างละเอียด และมี โครงสร้างที่สร้างขึ้นเองจริง

บทเรียนที่ได้: ปัญหาสำคัญกว่าสแต็ก และความซื่อสัตย์ก็สำคัญ

  • จากการสำรวจตลอด 3 สัปดาห์ สามารถสรุปได้ดังนี้
    • ปัญหาที่พยายามแก้สำคัญกว่าตัวเทคโนโลยีสแต็กเอง และในทางปฏิบัติ ผลิตภัณฑ์ที่ยอดเยี่ยมจำนวนมากก็มีโครงสร้างที่เรียกได้ว่าเป็น “แค่ wrapper”
    • อย่างไรก็ตาม ความซื่อสัตย์เป็นอีกมิติที่สำคัญแยกต่างหาก และความต่างระหว่าง wrapper ที่ฉลาดกับ wrapper ที่หลอกลวงอยู่ที่ ความโปร่งใส
    • กระแสตื่นทอง AI กำลังสร้าง แรงจูงใจให้กล่าวอ้างเกินจริง เพราะความคาดหวังของนักลงทุนและลูกค้าที่ต้องการ “AI แบบ proprietary”
    • และ การสร้างบน API ไม่ใช่เรื่องน่าอายแต่อย่างใด ปัญหาอยู่ที่การปกปิดสิ่งนี้แล้วห่อหุ้มมันว่าเป็น “สถาปัตยกรรมโครงข่ายประสาทแบบ proprietary”

กรอบการประเมินและคำแนะนำเชิงปฏิบัติ

  • แบบทดสอบความสามารถในการทำซ้ำภายใน 48 ชั่วโมง

    • มีการเสนอเกณฑ์ง่าย ๆ สำหรับประเมิน “AI startup” ทุกแห่ง
      • “คุณสามารถทำซ้ำเทคโนโลยีแกนหลักของพวกเขาได้ภายใน 48 ชั่วโมงหรือไม่?”
      • หากทำได้ ก็ถือว่าในเชิงเทคนิคเป็น wrapper และ
        • ถ้าเปิดเผยสแต็กอย่างตรงไปตรงมาก็เป็นบริษัทที่ใช้ได้
        • แต่ถ้าปกปิดไว้พร้อมอ้างว่าเป็น “AI infrastructure แบบ proprietary” ก็ควรมองว่าเป็นบริษัทที่ควรหลีกเลี่ยง
  • คำแนะนำสำหรับผู้ก่อตั้ง

    • มีการเสนอหลักการต่อไปนี้สำหรับผู้ก่อตั้ง
      • เปิดเผย เรื่องสแต็กอย่างตรงไปตรงมา
      • แข่งขันด้วย UX·ข้อมูล·ความเชี่ยวชาญเฉพาะโดเมน
      • อย่าอ้างว่าสร้างสิ่งที่ตัวเองไม่ได้สร้าง
      • ยอมรับว่า “Built with GPT-4” ไม่ใช่จุดอ่อน แต่เป็น คำอธิบายที่ซื่อสัตย์
  • คำแนะนำสำหรับนักลงทุน

    • มีการเสนอจุดตรวจสอบต่อไปนี้สำหรับนักลงทุน
      • ให้ขอ architecture diagram
      • ให้ขอ บิลค่า API ของ OpenAI·Anthropic เป็นต้น เพื่อตรวจสอบระดับการพึ่งพาจริง
      • ให้ประเมินมูลค่าบริษัท wrapper ในฐานะบริษัท wrapper อย่างเหมาะสม
      • ให้ ตอบแทนเป็นแรงจูงใจ แก่ทีมที่เปิดเผยสแต็กอย่างซื่อสัตย์
  • คำแนะนำสำหรับลูกค้า

    • มีการเสนอรายการที่ควรทำต่อไปนี้สำหรับลูกค้า
      • เปิด แท็บ Network ในเบราว์เซอร์แล้วตรวจสอบคำขอที่ส่งออกไป
      • ถามตรง ๆ เกี่ยวกับอินฟราสตรักเจอร์และวิธีใช้โมเดล
      • ตรวจสอบว่าไม่ได้จ่าย มาร์กอัปเกิน 10 เท่าโดยไม่จำเป็น สำหรับการเรียก API
      • ประเมินจาก ผลลัพธ์จริงและความสามารถในการแก้ปัญหา มากกว่าคำกล่าวอ้างทางเทคนิค

สรุปหนึ่งบรรทัดของความจริงเกี่ยวกับ ‘AI startup’

  • “AI startup’ ส่วนใหญ่ ใกล้เคียงกับธุรกิจบริการที่ใช้ค่า API แทนต้นทุนพนักงาน
    • นี่ไม่ใช่โมเดลธุรกิจที่ผิด แต่เป็น ความจริงที่ควรยอมรับและอธิบายอย่างซื่อสัตย์

พัฒนาการและปฏิกิริยาหลังการสำรวจ

  • สัปดาห์ที่ 1: เดิมคาดว่าราว 20~30% น่าจะใช้ API ของ third party แต่ระบุว่าผลลัพธ์จริงสูงกว่านั้นมาก
  • สัปดาห์ที่ 2: ผู้ก่อตั้งรายหนึ่งถามผู้สำรวจว่า “คุณเข้าไปในสภาพแวดล้อม production ของเราได้อย่างไร” และผู้สำรวจก็ตอบว่าเขา แค่ดูแท็บ Network ของเบราว์เซอร์เท่านั้น
  • สัปดาห์ที่ 3: มีสองบริษัทขอให้ ถอดผลการสำรวจลง แต่บทความย้ำว่าไม่ได้เปิดเผยชื่อบริษัทใดโดยเฉพาะ และยังคงเป็นเช่นนั้นจนถึงตอนนี้
  • เมื่อวานนี้: VC รายหนึ่งขอให้ช่วย audit บริษัทในพอร์ตโฟลิโอก่อนการประชุมบอร์ดครั้งถัดไป และผู้สำรวจก็ระบุว่าตอบรับแล้ว

แผนเปิดเผยข้อมูลและเครื่องมือ

  • มีแผนจะ เปิดเผยวิธีวิทยาและเครื่องมือ จากงานวิจัยครั้งนี้
  • สิ่งที่จะเผยแพร่บน GitHub (ฟรี)

    • โค้ดอินฟราสตรักเจอร์สำหรับ scraping แบบครบชุด
    • เทคนิคการดึง API fingerprint
    • สคริปต์ตรวจจับ ที่ใครก็สามารถนำไปรันได้
    • ชุด แพตเทิร์นเวลาในการตอบสนอง ของ AI API หลักแต่ละราย
  • การวิเคราะห์เชิงลึก (สำหรับสมาชิก)

    • เคสของ “AI unicorn” ที่ถูกประเมินมูลค่า 33 ล้านดอลลาร์ต่อเดือน แต่ในความเป็นจริงใช้ค่า OpenAI เพียง 1,200 ดอลลาร์ต่อเดือน
    • โครงสร้างที่แนะนำตัวเองว่าเป็น “โมเดล 100 ล้านพารามิเตอร์” แต่จริง ๆ แล้วประกอบด้วย system prompt 3 ชุด
    • โค้ด production ที่ให้บริการแบบเปิดสาธารณะ (ฝั่งไคลเอนต์, สนิปเพ็ตที่ทำให้ไม่ระบุตัวตน)
    • กรอบคำถาม 5 ข้อ ที่ทำให้เห็น wrapper ได้ทันที
    • กรณีศึกษา ที่เปรียบเทียบงานนำเสนอสำหรับนักลงทุนกับอินฟราสตรักเจอร์จริง

ข้อความส่งท้ายและความจำเป็นของ ‘ยุค AI ที่ซื่อสัตย์’

  • การสำรวจดำเนินการในรูปแบบ ไม่เปิดเผยชื่อบริษัทและแชร์เฉพาะแพตเทิร์น พร้อมย้ำถึงความเชื่อว่าท้ายที่สุดแล้วตลาดจะ ให้รางวัลกับความโปร่งใส
  • และยังยืนยันว่ามี 18 บริษัท ที่กำลังสร้างเทคโนโลยีใหม่อย่างแท้จริง
    • สำหรับบริษัทเหล่านี้ มีข้อความให้กำลังใจว่า “คุณรู้ว่าตัวเองเป็นใคร จงสร้างต่อไป”
  • หลังการสำรวจ มี ผู้ก่อตั้ง 7 คน ติดต่อมาเป็นการส่วนตัว
    • บางคนตั้งท่าป้องกันตัว บางคนขอบคุณ และมีสามคนขอคำแนะนำว่าจะช่วยให้พวกเขา ปรับการตลาด จาก “proprietary AI” เป็น “สร้างบน best-in-class APIs” ได้อย่างไร
    • ผู้ก่อตั้งรายหนึ่งเล่าว่า “เรารู้อยู่แล้วว่าเรากำลังโกหก นักลงทุนก็คาดหวังแบบนั้น ทุกคนก็ทำกัน แล้วตอนนี้เราจะหยุดอย่างไร”
  • ท้ายบทความย้ำอีกครั้งว่า แม้กระแสตื่นทอง AI จะไม่จบลงง่าย ๆ แต่ ยุคแห่งความซื่อสัตย์ต้องเริ่มต้นได้แล้ว และสรุปว่าทุกคนสามารถเปิด DevTools ที่ แท็บ Network (F12) เพื่อดูความจริงด้วยตัวเอง

4 ความคิดเห็น

 
geekygeek 2025-11-25

มีคอมเมนต์หนึ่งบอกว่า "ตัวตนของผู้เขียนเองก็น่าสงสัย แหล่งที่มาของข้อมูลก็ไม่ชัดเจน และก็ไม่สามารถดักจับ network traffic ได้ตามอำเภอใจ จำเป็นต้องมีการตรวจสอบพื้นฐาน" ซึ่งผมก็เห็นด้วย
ลิงก์ LinkedIn ที่เขียนไว้ในโปรไฟล์ Medium ก็พาไปยังหน้าที่ไม่มีอยู่จริง และดูเหมือนว่าเจ้าตัวอาจเป็นบุคคลที่ไม่มีตัวตนตั้งแต่แรกด้วยซ้ำ การที่ ณ วันที่ 25 พฤศจิกายน ยังไม่ใช่ GPT-4o แต่กลับพูดถึง GPT-4 อยู่เรื่อย ๆ ก็แปลกเหมือนกัน

ถึงขั้นใส่ระบบชำระเงินค่าสมาชิกเพื่อสร้างรายได้แล้ว แต่กลับพัฒนาให้การสื่อสารกับ AI API อยู่ฝั่งไคลเอนต์แทนที่จะเป็นเซิร์ฟเวอร์ จนถูกตรวจจับได้ง่ายแบบนี้ด้วย... ก็ยากจะเชื่อครับ

 
mhj5730 2025-11-25

เมื่อได้ลองสร้างเอเจนต์ขึ้นมา คุณจะมองว่า prompt engineering เป็นแอปพลิเคชันที่ใช้ AI ซึ่งมีประสิทธิภาพในการเพิ่มผลิตภาพได้อย่างยอดเยี่ยม

 
GN⁺ 2025-11-25
ความคิดเห็นจาก Hacker News
  • ปี 2023 เป็นปีที่มีแต่การโชว์ เดโมพรอมป์ต์ ทุกสัปดาห์
    แม้แต่งานของ AWS ผู้บรรยายก็เปิด Claude แล้วพิมพ์พรอมป์ต์สุ่ม ๆ กินเวลาไปหนึ่งชั่วโมง
    ทีมของเราก็ใช้เวลา 6 เดือนติดตั้งเครื่องมือ คอนเน็กเตอร์ และระบบประเมินผล โดยบอกว่ากำลังสร้าง “เอเจนต์” สุดท้ายก็วนกลับมาที่ prompt engineering อีกอยู่ดี

    • มีคนแซวว่า “ขั้นต่อไปก็คือการเอางานไปจ้างต่างประเทศไม่ใช่เหรอ”
    • น่าเชื่อยากว่าจะมีใครใช้ prompt engineering อย่างจริงจัง ถ้าเห็นคำนี้ในอีเมลบริษัทก็จะเลื่อนผ่านไปเลย
    • แต่ก็สงสัยว่าโปรเจกต์นั้น ใช้งานได้จริง หรือเปล่า หลายบริษัทบอกว่าสร้าง AI Agent แต่ยังไม่เคยเห็นที่ทำงานได้ดีจริง พอลองปิดลูปแล้ว LLM ก็มีแต่สะเปะสะปะ
    • ท้ายที่สุดก็เหมือนสร้างโซลูชันใหม่ไปครอบโซลูชันเดิมอีกที ทำให้รู้สึกว่าการพัฒนาซอฟต์แวร์จะดำเนินต่อไปตลอดกาล
  • เมื่อก่อนเมนเทอร์คนหนึ่งเคยบอกว่า “ผู้เชี่ยวชาญในสายเทคโนโลยีก็คือคนที่รู้มากกว่าคนอื่นสักหนึ่งหรือสองเรื่อง”
    เพราะอย่างนั้นกระแส prompt engineering ตอนนี้ก็ถือเป็นพัฒนาการตามธรรมชาติ ยิ่งเป็นเทคโนโลยีใหม่ ก็ยิ่งเติบโตด้วยการเติมอะไรเพิ่มจากสแตกเดิมอีกหนึ่งหรือสองอย่าง

    • เคยได้ยินว่าความลับของคอนซัลแทนต์เก่ง ๆ คือรู้ว่าควรอ่านอะไรระหว่างทางไปประชุม
    • ต่อให้เป็นแค่การปรับพรอมป์ต์ง่าย ๆ ก็ต้องใช้เวลากับ การทดสอบและการจูน มหาศาล หัวใจสำคัญคือการหาความแปรผันที่เหมาะที่สุดสำหรับแต่ละโมเดล
    • สำหรับฉัน แนวทางที่น่าสนใจกว่าคือการลดสแตกที่ซับซ้อนลง แล้วใช้ กลยุทธ์การทำให้ง่ายขึ้น เพื่อให้ได้ผลลัพธ์แบบเดียวกัน
  • คำพูดที่ว่า “มันก็แค่ prompt engineering” เป็นการประเมิน ความยากของการสร้างระบบประสิทธิภาพสูง ต่ำเกินไป
    การออกแบบตัวชี้วัดการประเมิน การเรียกใช้เครื่องมือ หรือการแคช ล้วนไม่ใช่แค่เรื่องของพรอมป์ต์อย่างเดียว ถ้าแสดงผลลัพธ์ได้จริง เงินลงทุนก็ระดมได้ไม่ยาก

    • ในความเป็นจริง หลายอย่างก็อยู่แค่ระดับ prompt + CRUD และบริษัทส่วนใหญ่ก็เป็นบริษัท CRUD โดยพฤตินัย
    • เงินลงทุนที่ไหลเข้ามาไม่ได้เป็นเพราะผลงาน แต่เป็นเพราะ ฟองสบู่ AI และความหมกมุ่นเรื่องผลตอบแทนของนักลงทุน จริง ๆ แล้วก็เหมือนขายพลั่วแทนที่จะขุดทอง
    • มีแต่คนที่เคยสร้างกระบวนการประเมินผลที่เหมาะสมจริง ๆ เท่านั้นถึงจะเข้าใจว่ามันยากแค่ไหน
    • แต่โปรเจกต์ AI ภายในองค์กรส่วนใหญ่กลับไม่ได้ประเมินอะไรเลย แม้แต่ใน FAANG ก็ไม่ถึง 5%
  • เป็นบทความที่พูดถึง GPT-4 ในเดือนพฤศจิกายน 2025 ฟังดูน่าสงสัย
    วิธีวิทยาที่อ้างว่าแยกผู้ให้บริการ AI จากทราฟฟิกเครือข่ายก็ดูแปลก เพราะถ้าเรียก API จากฟรอนต์เอนด์โดยตรงจะมีความเสี่ยงเรื่อง การเปิดเผยคีย์ความปลอดภัย สูงมาก
    วิธีสำรวจนี้ดูมีพิรุธบางอย่าง

    • OpenAI มี client key ให้สามารถเรียกใช้งานโดยตรงได้ ดู เอกสารทางการ
    • การเอ่ยชื่อโมเดลเก่า ๆ ก็เหมือนเป็น ร่องรอยจากการสร้างด้วย LLM
  • มีคำถามว่า “แล้วตกลงควรทำอะไรกันแน่”
    ในยุค 90 แค่เอา UI ไปครอบระบบคอนโซลก็ถือเป็นไอเดียสตาร์ตอัปที่ยอดเยี่ยมแล้ว

    • ปัญหาคือบริษัทพวกนี้เรียกตัวเองว่าเป็น บริษัท AI แต่จริง ๆ แล้วกำลังทำแอป CRUD ซึ่งคนที่ไม่ใช่สายเทคนิคแยกความต่างนี้ได้ยาก
    • สักวันหนึ่งถ้า OpenAI เลิกขายราคาถูก ก็จะต้องหันไปสร้างโมเดลเฉพาะโดเมนขนาดเล็ก
    • ปล่อยให้กลไกตลาดจัดการไปก็ได้ เพียงแต่กระแส AI ที่ร้อนแรงเกินไปกำลังทำให้อุตสาหกรรมซอฟต์แวร์ทั้งวงการอ่อนล้า
    • การห่อแพลตฟอร์มแรปเปอร์ธรรมดาแล้วขายว่าเป็น “AI” นั้นอันตราย เป็นโครงสร้างที่ เปราะบางไร้การป้องกัน คล้ายช่วงฟองสบู่ดอตคอม
    • สิ่งที่ทำไม่ใช่ AI จริง ๆ แต่เป็นเพียงการใช้ LLM เท่านั้น
  • จริง ๆ แล้วปรากฏการณ์แบบนี้พบได้บ่อยตั้งแต่สมัย สตาร์ตอัปก่อนยุค AI
    แค่เอาเทคโนโลยีเดิมมาครอบแล้วปรับ UX ให้ดีขึ้นก็ทำเงินก้อนโตได้แล้ว ภายในอาจเป็นแค่การประกอบเครื่องมือโอเพนซอร์สเข้าด้วยกัน แต่เพราะอัตรากำไรสูงมาก การพัฒนาเองจึงไม่คุ้ม

  • ฉันคิดเรื่องนี้มาตั้งแต่หลัง ChatGPT เปิดตัวไม่นาน
    ถ้ามีบริษัทไหนมี AGI จริง พวกเขาคงไม่มีเหตุผลต้องเอามันมาขาย แค่ใช้มันสร้างบริการของตัวเองแล้วถล่มคู่แข่งก็พอ

    • ที่จริง ต่อให้ยังไม่มี AGI วงจรแบบเดียวกันก็เกิดขึ้นอยู่ดี
      1. สตาร์ตอัปเอา GPT/Claude มาห่อเป็นยูสเคสใหม่
      2. OpenAI หรือ Anthropic ก็ทำฟีเจอร์นั้นเองแล้วเปิดตัว
      3. แรปเปอร์ไม่มี moat (กำแพงป้องกันทางธุรกิจ) และบริษัทโมเดลต้นน้ำก็แข่งได้ง่าย
  • บริษัทที่สร้าง LLM จริง ๆ มีไม่กี่แห่ง และความสามารถก็คล้ายกันมาก
    สุดท้ายหัวใจของระบบอัตโนมัติก็คือ prompt engineering
    เหมือนกับแอปมือถือ ถ้า Big Tech เอาจริงก็ลอกได้ไม่ยาก Perplexity กับ Cursor เองก็เสี่ยงเหมือนกัน

    • แต่ไอเดียที่ ROI ต่ำมักไม่ดึงดูด Big Tech ดังนั้นตลาดเฉพาะที่ไม่ได้ทำเงินระดับหลายร้อยล้านก็ยังมีโอกาสอยู่
  • ตัวบทความที่เป็นประเด็นเองก็ดูเหมือน คอนเทนต์ที่สร้างโดย AI
    เลยยากที่จะเชื่อว่าผู้เขียนได้วิเคราะห์ข้อมูลจริงหรือไม่

    • น่าสงสัยแม้กระทั่งการมีตัวตนของผู้เขียนเอง แหล่งที่มาของข้อมูลก็ไม่ชัดเจน และก็ไม่ใช่ว่าจะจับทราฟฟิกเครือข่ายของคนอื่นได้ตามใจ ต้องมีการตรวจสอบพื้นฐานก่อน
  • หลายคนสงสัยมากว่า “คนนี้เก็บข้อมูลแบบนี้มาได้อย่างไร”
    ถ้าเป็นบริษัทของฉัน คงเปิดเผยข้อมูลลูกค้าแบบนี้ไม่ได้

    • ลิงก์ LinkedIn ด้านล่างบทความก็ไม่มีอยู่จริง แม้แต่ Teja Kusireddy จะเป็นบุคคลที่มีตัวตนจริงหรือไม่ก็ยังไม่แน่ชัด
    • ดูเหมือนบางบริษัทจะเรียก OpenAI API จากฟรอนต์เอนด์โดยตรง แต่ก็อาจเป็นข้อมูลที่รั่วมาจากแบ็กเอนด์ได้เหมือนกัน
    • การเห็นการเรียกใช้โดยตรงจากเบราว์เซอร์ก็ดูแปลก และก็สงสัยด้วยว่าคำขอแบบไม่มี OAuth หรือการยืนยันตัวตนจะทำได้จริงหรือไม่
    • การใส่ API key ไว้ฝั่งฟรอนต์คือ ช่องโหว่ด้านความปลอดภัย ดังนั้นส่วนใหญ่จึงเรียกจากแบ็กเอนด์ ถ้าไม่มีคำอธิบายรายละเอียดก็ยากจะเชื่อถือ
    • บทความเต็มอ่านได้ที่ ลิงก์ Medium ดูเหมือนจะไม่เปิดเผยชื่อบริษัทแบบเจาะจงเพราะติด NDA
 
cgl00 2025-11-25

นั่นมันไม่ซื่อสัตย์ตรงไหนครับ 555