สิ่งที่ Anthropic พูดนั้นฟังดูน่าเชื่อถือ แต่ทำไมสิ่งที่ OpenAI พูดถึงดูไม่น่าเชื่อถือเอาเสียเลย
เป็นเพราะ Anthropic ทำแบบ show-and-proof ด้วยการสร้างแพตช์ zero-day หรือเปล่า
หรือเป็นเพราะ OpenAI ใช้มุกเดิมนี้มาหลายรอบแล้ว

 

ไดรเวอร์ของ Windows น่าจะคนละอย่างนะ

 

ทุกครั้งที่เห็นเรื่องแบบนี้ ผมก็รู้สึกอยู่เสมอว่าการตรวจสอบลายเซ็นเป็นสิ่งที่ผู้ใช้ต้องทำ ไม่ใช่หน้าที่ของแพลตฟอร์ม นักพัฒนาต้องลงลายเซ็นด้วยคีย์ของตัวเอง และผู้ใช้ก็ควรอนุญาตคีย์ของนักพัฒนาที่เชื่อถือได้บนอุปกรณ์ของตนแล้วจึงใช้งาน

ถ้าไม่รู้เรื่องนี้แล้วจะให้ระบบจัดการให้เองทั้งหมด แบบนั้นมันไม่สมเหตุสมผล ไม่ว่าจะสนใจคอมพิวเตอร์มากน้อยแค่ไหน ถ้าเป็นสิ่งที่ตัวเองจะใช้งาน นี่คือพฤติกรรมพื้นฐานที่ต้องมี
ถ้าใช้โทรศัพท์มือถือและใช้อินเทอร์เน็ต ก็ไม่ควรเชื่อทุกอย่างที่เว็บเพจ ข้อความ หรือโทรศัพท์พูดโดยไม่มีเงื่อนไข และต้องมีความสามารถในการคัดกรองเลือกเชื่อ นี่เป็นแนวทางพื้นฐานในระดับนั้น

ถ้ามี UI แบบ Windows UAC ที่ให้กดปุ่มเดียวเพื่อยืนยันว่าจะเชื่อถือนักพัฒนาคนใดคนหนึ่งหรือไม่ อย่างน้อยคนที่ไม่รู้แนวคิดเรื่อง code signing กับคีย์ก็น่าจะใช้งานได้

 

โปรเจกต์ที่เสร็จครึ่งๆ กลางๆ กำลังล้นทะลัก…
คนที่รู้การเขียนโปรแกรมแค่ครึ่งเดียวก็พากันคลั่งไคล้…

 

มีคำสั่งลงมาภายในบริษัทให้ลองพัฒนาโดยอาศัยแค่ vibe coding ก็เลยลองปรับใช้โน่นนี่ดูครับ แต่พอลองทำจริงแล้วก็พบว่าทักษะการพัฒนาที่ยอดเยี่ยมไม่ได้รับประกันคุณภาพที่สูงเสมอไปนัก..
กลับกลายเป็นว่าความสามารถในการตรวจทานและทำความเข้าใจโค้ดที่ AI สร้างขึ้นต่างหากที่เป็นหัวใจสำคัญ ยิ่งเครื่องมือดีขึ้นเท่าไร ก็ยิ่งเป็นความย้อนแย้งที่ว่า “พลังในการอ่านและตัดสิน” สำคัญมากขึ้นเท่านั้น

 
  • ในยุค AI นั้นมีข้อโต้แย้งว่า ARR อาจไม่ใช่ตัวชี้วัดกลางที่น่าเชื่อถืออีกต่อไป
  • ตัวชี้วัดหลักของวงการเทคเปลี่ยนไปตามยุคสมัยมาโดยตลอด
    • ยุคโซเชียล: DAU/MAU
    • ยุค SaaS: ARR/MRR
    • ยุค AI: มีการตั้งคำถามว่า ARR แบบเดิมอาจบิดเบือนความเป็นจริงได้มากขึ้น
  • จุดตั้งต้นของบทความคือความไม่สอดคล้องกันของตัวเลขจาก Anthropic
    • ในเดือนกุมภาพันธ์ 2026 บริษัทเน้นย้ำ ARR ที่ 14 พันล้านดอลลาร์
    • หนึ่งเดือนถัดมา ในเอกสารที่ยื่นต่อศาลกลับระบุว่า “มีรายได้สะสมรวมตั้งแต่ก่อตั้งเกิน 5 พันล้านดอลลาร์”
    • เป็นบริษัทเดียวกัน ช่วงเวลาใกล้เคียงกัน แต่ความหมายของตัวเลขต่างกันมาก
    • ผู้เขียนตีความว่านี่คือ “สัญญาณว่าในยุค AI นั้น ARR อาจอธิบายสถานะที่แท้จริงของธุรกิจได้ไม่ดีพอ”
  • เหตุผลที่ ARR สั่นคลอนในโลก AI มี 3 ข้อ
    1. สมมติฐานแบบ SaaS ที่ว่าต้นทุนส่วนเพิ่มแทบเป็นศูนย์นั้นใช้ไม่ได้อีกต่อไป
      • AI มีต้นทุน GPU/คลาวด์เกิดขึ้นจริงทุกครั้งที่มีการเรียกใช้ inference
      • ยิ่งใช้งานมาก ต้นทุนก็ยิ่งสูง
    2. ต้นทุนต่อรายลูกค้าแตกต่างกันมาก
      • จ่ายราคาเท่ากันก็จริง แต่ลูกค้าบางรายต้นทุนต่ำ บางรายต้นทุนสูง
      • ถ้ามองแค่ ARR ทั้งคู่จะดูเหมือนเป็น “รายได้ที่ดี” เท่ากัน ทั้งที่ความสามารถในการทำกำไรต่างกันมาก
    3. ความมั่นคงของรายได้ประจำอ่อนลง
      • ต้นทุนในการย้ายออกต่ำกว่า SaaS จึงเปลี่ยนไปใช้โมเดลหรือบริการอื่นได้ง่ายกว่า
      • คำว่า “Recurring” เองก็แข็งแรงน้อยกว่าในอดีต
  • เพราะฉะนั้น ARR ของบริษัท AI อาจแสดงให้เห็น “การเติบโต” ได้ แต่สะท้อนความสามารถในการทำกำไร ความยั่งยืน และคุณภาพของธุรกิจได้ไม่ดีนัก
    • มีโครงสร้างคล้ายกับที่ DAU/MAU ในอดีตแสดงความสนใจของผู้ใช้ได้ แต่ไม่ได้บอกสุขภาพของธุรกิจ
  • มองว่ากรณีของ Anthropic และ OpenAI ก็สะท้อนปัญหานี้เช่นกัน
    • มีช่องว่างระหว่าง ARR ที่ประกาศ กับรายได้สะสมจริง ผลประกอบการครึ่งปี และความเร็วในการเผาเงินสด
    • กล่าวคือ หากตีความตัวเลข “annualized” ว่ามีความหมายเท่ากับผลงานจริงทั้งปี ก็อาจทำให้เข้าใจผิดได้
  • ผู้เขียนเสนอผู้สมัครตัวชี้วัดรุ่นถัดไปสำหรับยุค AI ไว้ดังนี้
    1. Productivity per Dollar Spent
      • ไม่ใช่แค่ ARR/จำนวนพนักงาน
      • แต่ควรดูแบบ ARR / (ค่าแรง + ต้นทุน AI) เพื่อให้เห็นประสิทธิภาพที่แท้จริง
    2. First Year Value
      • แทนที่จะสมมติอนาคตไกล ๆ แบบ LTV
      • ให้มองว่าลูกค้าได้รับคุณค่ามากพอที่จะต่ออายุภายใน 12 เดือนแรกหรือไม่
    3. ตัวชี้วัดเชิง unit economics อย่างกำไรขั้นต้นต่อโทเคน
      • สิ่งสำคัญไม่ใช่ว่าประมวลผลได้มากแค่ไหน
      • แต่คือประมวลผลแล้วเหลือกำไรได้มากแค่ไหน
  • ข้อความสำคัญ
    • ในยุค AI ต้องดูโครงสร้างกำไรขั้นต้น ความสามารถในการทำกำไรต่อรายลูกค้า และคุณค่าที่เหลืออยู่ในปีแรก มากกว่าดูแค่ขนาดรายได้
    • ประเด็นคือไม่ใช่อ่านแค่ขนาดของตัวเลข แต่ต้องอ่านโครงสร้างของตัวเลขด้วย
  • ยังมีปัญหาในทางปฏิบัติด้วย
    • หากจะดูตัวชี้วัดยุครุ่นที่ 3 เหล่านี้ให้ดี
    • ระบบบิลลิง ต้นทุนโครงสร้างพื้นฐาน และระบบการเงินต้องเชื่อมกัน
    • แต่บริษัท AI ส่วนใหญ่ยังขาดโครงสร้างพื้นฐานด้านการวัดผลในระดับนั้น

สรุปสั้น ๆ
ธุรกิจ AI อธิบายด้วย ARR เพียงตัวเดียวแบบ SaaS ได้ยากขึ้น และต่อจากนี้ตัวชี้วัดที่บอกว่า “ขายได้เท่าไร” จะสำคัญน้อยกว่าตัวชี้วัดที่บอกว่า “เหลือกำไรแค่ไหน และรักษาไว้ได้นานแค่ไหน”

 

งั้นก็ต้องรีบูตจริง ๆ ก่อนครบ 49 วันสินะ

ที่จริงแล้วเรื่องแบบนี้ห้ามเอาเวลาไปเทียบด้วย < โดยตรงเด็ดขาด..

if ((int32_t)(tmp - current_tcp_now) < 0) {
os_atomic_cmpxchg(&tcp_now, tmp, current_tcp_now, ...);
}
ควรดูความต่างของสองค่านี้แบบนี้มากกว่า... แต่มนุษย์เราก็มักจะทำพลาดแบบเดิมซ้ำ ๆ อยู่เสมอครับ

 

ถ้าระดับนั้นจริง การหาช่องโหว่ด้านความปลอดภัยจากโค้ดที่ reverse assembly มา ก็คงใช้เวลาไม่นานเลยนะครับ

 

ในฐานะสมาชิกของมูลนิธิที่กล่าวถึงข้างต้นแห่งหนึ่ง ฉันเฝ้าดูกระบวนการนี้ด้วยความรู้สึกคลางแคลงใจอย่างลึกซึ้ง ภายนอกชูคำว่า 'AI ที่มีจริยธรรม' แต่ภายใน การตัดสินใจนี้กลับถูกสั่งลงมาจากบนลงล่างโดยไม่มีฉันทามติจากชุมชนใด ๆ เลย

เมื่อความขัดแย้งทางภูมิรัฐศาสตร์เริ่มปะทุขึ้น แม้ฉันจะไม่ได้เคลื่อนไหวมานานแล้ว แต่ก็รู้สึกว่าควรพูดอะไรสักหน่อย จึงเปิดเธรดถกเรื่องจริยธรรมขึ้นมา ทว่าสิ่งที่ได้รับมีเพียงการหลีกเลี่ยงแบบราชการเท่านั้น ริเริ่มนี้ไม่ใช่การปกป้องคุณค่าของโอเพนซอร์ส แต่เป็นกรณีที่กลุ่มทุนขนาดใหญ่ที่ปิดกั้นได้ซื้อเครื่องหมายการค้า Responsible AI จากมูลนิธิโอเพนซอร์สไป

 

พวกเขากล้าขโมยของที่ Anthropic ขโมยมาจากนักเขียนโค้ดมนุษย์ได้ยังไงกัน??
-Elon Musk

 

เอไอจะเป็นแบบนั้นก็ช่างเถอะ แต่ทีมวิจัยจากอินเดียไม่ได้อ่านเลยหรือไง

 

เป็นบทความที่น่าอ่าน พร้อมผู้เขียนที่ยอดเยี่ยมเลยนะ….

 

ในบรรดาคนที่คลั่งไคล้ ยังต้องยกให้สายฝรั่งเป็นที่สุด..

 

พอเห็นอะไรแบบนี้แล้ว ก็รู้สึกว่าปี 2038 อาจจะเกิดเรื่องวุ่นวายจริง ๆ ก็ได้นะ