unsure4000 22 일 전 | ความคิดเห็นหลัก | ใน: OpenAI ชะลอการเปิดเผยภาษาโมเดลใหม่ GPT-2 แบบเต็มด้วยเหตุผลด้านความเสี่ยง (2019) (slate.com) สิ่งที่ Anthropic พูดนั้นฟังดูน่าเชื่อถือ แต่ทำไมสิ่งที่ OpenAI พูดถึงดูไม่น่าเชื่อถือเอาเสียเลย เป็นเพราะ Anthropic ทำแบบ show-and-proof ด้วยการสร้างแพตช์ zero-day หรือเปล่า หรือเป็นเพราะ OpenAI ใช้มุกเดิมนี้มาหลายรอบแล้ว picopress 22 일 전 | ความคิดเห็นหลัก | ใน: Microsoft ยุติบัญชีของ VeraCrypt ทำให้การอัปเดตบน Windows หยุดชะงัก (404media.co) ไดรเวอร์ของ Windows น่าจะคนละอย่างนะ ndrgrd 22 일 전 | ความคิดเห็นหลัก | ใน: Microsoft ยุติบัญชีของ VeraCrypt ทำให้การอัปเดตบน Windows หยุดชะงัก (404media.co) ทุกครั้งที่เห็นเรื่องแบบนี้ ผมก็รู้สึกอยู่เสมอว่าการตรวจสอบลายเซ็นเป็นสิ่งที่ผู้ใช้ต้องทำ ไม่ใช่หน้าที่ของแพลตฟอร์ม นักพัฒนาต้องลงลายเซ็นด้วยคีย์ของตัวเอง และผู้ใช้ก็ควรอนุญาตคีย์ของนักพัฒนาที่เชื่อถือได้บนอุปกรณ์ของตนแล้วจึงใช้งาน ถ้าไม่รู้เรื่องนี้แล้วจะให้ระบบจัดการให้เองทั้งหมด แบบนั้นมันไม่สมเหตุสมผล ไม่ว่าจะสนใจคอมพิวเตอร์มากน้อยแค่ไหน ถ้าเป็นสิ่งที่ตัวเองจะใช้งาน นี่คือพฤติกรรมพื้นฐานที่ต้องมี ถ้าใช้โทรศัพท์มือถือและใช้อินเทอร์เน็ต ก็ไม่ควรเชื่อทุกอย่างที่เว็บเพจ ข้อความ หรือโทรศัพท์พูดโดยไม่มีเงื่อนไข และต้องมีความสามารถในการคัดกรองเลือกเชื่อ นี่เป็นแนวทางพื้นฐานในระดับนั้น ถ้ามี UI แบบ Windows UAC ที่ให้กดปุ่มเดียวเพื่อยืนยันว่าจะเชื่อถือนักพัฒนาคนใดคนหนึ่งหรือไม่ อย่างน้อยคนที่ไม่รู้แนวคิดเรื่อง code signing กับคีย์ก็น่าจะใช้งานได้ haebom 22 일 전 | ความคิดเห็นหลัก | ใน: จุดจบของยุค MAU แล้วตอนนี้ MRR ก็เชื่อไม่ได้แล้วหรือ? (maily.so) สรุปได้ดีมากเลยครับ ขอบคุณครับ blacksocks 22 일 전 | ความคิดเห็นหลัก | ใน: ลัทธิบูชา vibe coding มันบ้าคลั่งเกินไป (bramcohen.com) โปรเจกต์ที่เสร็จครึ่งๆ กลางๆ กำลังล้นทะลัก… คนที่รู้การเขียนโปรแกรมแค่ครึ่งเดียวก็พากันคลั่งไคล้… blacksocks 22 일 전 | ความคิดเห็นหลัก | ใน: agent-skills - ชุดทักษะวิศวกรรมระดับพร้อมใช้งานจริงสำหรับ AI coding agent (github.com/addyosmani) มีคำสั่งลงมาภายในบริษัทให้ลองพัฒนาโดยอาศัยแค่ vibe coding ก็เลยลองปรับใช้โน่นนี่ดูครับ แต่พอลองทำจริงแล้วก็พบว่าทักษะการพัฒนาที่ยอดเยี่ยมไม่ได้รับประกันคุณภาพที่สูงเสมอไปนัก.. กลับกลายเป็นว่าความสามารถในการตรวจทานและทำความเข้าใจโค้ดที่ AI สร้างขึ้นต่างหากที่เป็นหัวใจสำคัญ ยิ่งเครื่องมือดีขึ้นเท่าไร ก็ยิ่งเป็นความย้อนแย้งที่ว่า “พลังในการอ่านและตัดสิน” สำคัญมากขึ้นเท่านั้น cafedead 22 일 전 | ความคิดเห็นหลัก | ใน: จุดจบของยุค MAU แล้วตอนนี้ MRR ก็เชื่อไม่ได้แล้วหรือ? (maily.so) ในยุค AI นั้นมีข้อโต้แย้งว่า ARR อาจไม่ใช่ตัวชี้วัดกลางที่น่าเชื่อถืออีกต่อไป ตัวชี้วัดหลักของวงการเทคเปลี่ยนไปตามยุคสมัยมาโดยตลอด ยุคโซเชียล: DAU/MAU ยุค SaaS: ARR/MRR ยุค AI: มีการตั้งคำถามว่า ARR แบบเดิมอาจบิดเบือนความเป็นจริงได้มากขึ้น จุดตั้งต้นของบทความคือความไม่สอดคล้องกันของตัวเลขจาก Anthropic ในเดือนกุมภาพันธ์ 2026 บริษัทเน้นย้ำ ARR ที่ 14 พันล้านดอลลาร์ หนึ่งเดือนถัดมา ในเอกสารที่ยื่นต่อศาลกลับระบุว่า “มีรายได้สะสมรวมตั้งแต่ก่อตั้งเกิน 5 พันล้านดอลลาร์” เป็นบริษัทเดียวกัน ช่วงเวลาใกล้เคียงกัน แต่ความหมายของตัวเลขต่างกันมาก ผู้เขียนตีความว่านี่คือ “สัญญาณว่าในยุค AI นั้น ARR อาจอธิบายสถานะที่แท้จริงของธุรกิจได้ไม่ดีพอ” เหตุผลที่ ARR สั่นคลอนในโลก AI มี 3 ข้อ สมมติฐานแบบ SaaS ที่ว่าต้นทุนส่วนเพิ่มแทบเป็นศูนย์นั้นใช้ไม่ได้อีกต่อไป AI มีต้นทุน GPU/คลาวด์เกิดขึ้นจริงทุกครั้งที่มีการเรียกใช้ inference ยิ่งใช้งานมาก ต้นทุนก็ยิ่งสูง ต้นทุนต่อรายลูกค้าแตกต่างกันมาก จ่ายราคาเท่ากันก็จริง แต่ลูกค้าบางรายต้นทุนต่ำ บางรายต้นทุนสูง ถ้ามองแค่ ARR ทั้งคู่จะดูเหมือนเป็น “รายได้ที่ดี” เท่ากัน ทั้งที่ความสามารถในการทำกำไรต่างกันมาก ความมั่นคงของรายได้ประจำอ่อนลง ต้นทุนในการย้ายออกต่ำกว่า SaaS จึงเปลี่ยนไปใช้โมเดลหรือบริการอื่นได้ง่ายกว่า คำว่า “Recurring” เองก็แข็งแรงน้อยกว่าในอดีต เพราะฉะนั้น ARR ของบริษัท AI อาจแสดงให้เห็น “การเติบโต” ได้ แต่สะท้อนความสามารถในการทำกำไร ความยั่งยืน และคุณภาพของธุรกิจได้ไม่ดีนัก มีโครงสร้างคล้ายกับที่ DAU/MAU ในอดีตแสดงความสนใจของผู้ใช้ได้ แต่ไม่ได้บอกสุขภาพของธุรกิจ มองว่ากรณีของ Anthropic และ OpenAI ก็สะท้อนปัญหานี้เช่นกัน มีช่องว่างระหว่าง ARR ที่ประกาศ กับรายได้สะสมจริง ผลประกอบการครึ่งปี และความเร็วในการเผาเงินสด กล่าวคือ หากตีความตัวเลข “annualized” ว่ามีความหมายเท่ากับผลงานจริงทั้งปี ก็อาจทำให้เข้าใจผิดได้ ผู้เขียนเสนอผู้สมัครตัวชี้วัดรุ่นถัดไปสำหรับยุค AI ไว้ดังนี้ Productivity per Dollar Spent ไม่ใช่แค่ ARR/จำนวนพนักงาน แต่ควรดูแบบ ARR / (ค่าแรง + ต้นทุน AI) เพื่อให้เห็นประสิทธิภาพที่แท้จริง First Year Value แทนที่จะสมมติอนาคตไกล ๆ แบบ LTV ให้มองว่าลูกค้าได้รับคุณค่ามากพอที่จะต่ออายุภายใน 12 เดือนแรกหรือไม่ ตัวชี้วัดเชิง unit economics อย่างกำไรขั้นต้นต่อโทเคน สิ่งสำคัญไม่ใช่ว่าประมวลผลได้มากแค่ไหน แต่คือประมวลผลแล้วเหลือกำไรได้มากแค่ไหน ข้อความสำคัญ ในยุค AI ต้องดูโครงสร้างกำไรขั้นต้น ความสามารถในการทำกำไรต่อรายลูกค้า และคุณค่าที่เหลืออยู่ในปีแรก มากกว่าดูแค่ขนาดรายได้ ประเด็นคือไม่ใช่อ่านแค่ขนาดของตัวเลข แต่ต้องอ่านโครงสร้างของตัวเลขด้วย ยังมีปัญหาในทางปฏิบัติด้วย หากจะดูตัวชี้วัดยุครุ่นที่ 3 เหล่านี้ให้ดี ระบบบิลลิง ต้นทุนโครงสร้างพื้นฐาน และระบบการเงินต้องเชื่อมกัน แต่บริษัท AI ส่วนใหญ่ยังขาดโครงสร้างพื้นฐานด้านการวัดผลในระดับนั้น สรุปสั้น ๆ ธุรกิจ AI อธิบายด้วย ARR เพียงตัวเดียวแบบ SaaS ได้ยากขึ้น และต่อจากนี้ตัวชี้วัดที่บอกว่า “ขายได้เท่าไร” จะสำคัญน้อยกว่าตัวชี้วัดที่บอกว่า “เหลือกำไรแค่ไหน และรักษาไว้ได้นานแค่ไหน” shincad 22 일 전 | ความคิดเห็นหลัก | ใน: ระเบิดเวลาที่ซ่อนอยู่ใน macOS นาน 49 วัน — เจาะรายละเอียดบั๊กเคอร์เนลที่ทำให้เครือข่าย TCP หยุดทำงานทั้งหมด (photon.codes) งั้นก็ต้องรีบูตจริง ๆ ก่อนครบ 49 วันสินะ ที่จริงแล้วเรื่องแบบนี้ห้ามเอาเวลาไปเทียบด้วย < โดยตรงเด็ดขาด.. if ((int32_t)(tmp - current_tcp_now) < 0) { os_atomic_cmpxchg(&tcp_now, tmp, current_tcp_now, ...); } ควรดูความต่างของสองค่านี้แบบนี้มากกว่า... แต่มนุษย์เราก็มักจะทำพลาดแบบเดิมซ้ำ ๆ อยู่เสมอครับ brainer 22 일 전 | ความคิดเห็นหลัก | ใน: Google Finance ที่ขับเคลื่อนด้วย AI ขยายสู่ทั่วโลกมากกว่า 100 ประเทศ รวมถึงเกาหลีใต้ (blog.google) Perplexity greekr4 22 일 전 | ความคิดเห็นหลัก | ใน: Google Finance ที่ขับเคลื่อนด้วย AI ขยายสู่ทั่วโลกมากกว่า 100 ประเทศ รวมถึงเกาหลีใต้ (blog.google) SaaS หลายเจ้าคงเจ๊งกันเลยล่ะ bungker 22 일 전 | ความคิดเห็นหลัก | ใน: AI ด้านความปลอดภัยที่ทรงพลังที่สุดของ Anthropic "Claude Mythos" ถูกแจกจ่ายแบบจำกัดให้เฉพาะพาร์ตเนอร์ที่คัดเลือก แทนการเปิดให้ใช้งานทั่วไป (simonwillison.net) ถ้าระดับนั้นจริง การหาช่องโหว่ด้านความปลอดภัยจากโค้ดที่ reverse assembly มา ก็คงใช้เวลาไม่นานเลยนะครับ edwardyoon 22 일 전 | ความคิดเห็นหลัก | ใน: Project Glasswing: ความร่วมมือระดับโลกเพื่อความปลอดภัยของซอฟต์แวร์สำคัญในยุค AI (anthropic.com) ในฐานะสมาชิกของมูลนิธิที่กล่าวถึงข้างต้นแห่งหนึ่ง ฉันเฝ้าดูกระบวนการนี้ด้วยความรู้สึกคลางแคลงใจอย่างลึกซึ้ง ภายนอกชูคำว่า 'AI ที่มีจริยธรรม' แต่ภายใน การตัดสินใจนี้กลับถูกสั่งลงมาจากบนลงล่างโดยไม่มีฉันทามติจากชุมชนใด ๆ เลย เมื่อความขัดแย้งทางภูมิรัฐศาสตร์เริ่มปะทุขึ้น แม้ฉันจะไม่ได้เคลื่อนไหวมานานแล้ว แต่ก็รู้สึกว่าควรพูดอะไรสักหน่อย จึงเปิดเธรดถกเรื่องจริยธรรมขึ้นมา ทว่าสิ่งที่ได้รับมีเพียงการหลีกเลี่ยงแบบราชการเท่านั้น ริเริ่มนี้ไม่ใช่การปกป้องคุณค่าของโอเพนซอร์ส แต่เป็นกรณีที่กลุ่มทุนขนาดใหญ่ที่ปิดกั้นได้ซื้อเครื่องหมายการค้า Responsible AI จากมูลนิธิโอเพนซอร์สไป baam12 23 일 전 | ความคิดเห็นหลัก | ใน: ยุคของ 'ค่าจ้างจากการสอดส่อง' เมื่อนายจ้างคำนวณเงินเดือนต่ำสุดที่ผู้สมัครจะยอมรับจากข้อมูลส่วนตัว (marketwatch.com) น่าขยะแขยง baam12 23 일 전 | ความคิดเห็นหลัก | ใน: แอปที่ Google เปิดตัวเพื่อปรับแต่งการรัน Gemma4 แบบออนดีไวซ์สำหรับ iOS โดยเฉพาะ (apps.apple.com) ก็ดีนะ แต่ iPad ของฉันไม่ไหวจริง ๆ 555 baam12 23 일 전 | ความคิดเห็นหลัก | ใน: OpenClaude ที่เกิดจากการรั่วไหลของซอร์ส Claude Code — ใช้โมเดลกว่า 200 แบบ เช่น GPT-4o, Gemini, Ollama ผ่าน UI ของ Claude Code (github.com/Gitlawb) พวกเขากล้าขโมยของที่ Anthropic ขโมยมาจากนักเขียนโค้ดมนุษย์ได้ยังไงกัน?? -Elon Musk baam12 23 일 전 | ความคิดเห็นหลัก | ใน: ลองถาม AI แชตบอตถึงโรคปลอมดู... มันตอบว่า "เป็นโรคจริง" (nature.com) เอไอจะเป็นแบบนั้นก็ช่างเถอะ แต่ทีมวิจัยจากอินเดียไม่ได้อ่านเลยหรือไง ffdd270 23 일 전 | ความคิดเห็นหลัก | ใน: พอร์ต Mac OS X 10.0 (Cheetah) ให้ทำงานบน Nintendo Wii ได้สำเร็จ (bryankeller.github.io) เป็นบทความที่น่าอ่าน พร้อมผู้เขียนที่ยอดเยี่ยมเลยนะ…. jjpark78 23 일 전 | ความคิดเห็นหลัก | ใน: พอร์ต Mac OS X 10.0 (Cheetah) ให้ทำงานบน Nintendo Wii ได้สำเร็จ (bryankeller.github.io) ในบรรดาคนที่คลั่งไคล้ ยังต้องยกให้สายฝรั่งเป็นที่สุด.. icosahedron 23 일 전 | ความคิดเห็นหลัก | ใน: ระเบิดเวลาที่ซ่อนอยู่ใน macOS นาน 49 วัน — เจาะรายละเอียดบั๊กเคอร์เนลที่ทำให้เครือข่าย TCP หยุดทำงานทั้งหมด (photon.codes) พอเห็นอะไรแบบนี้แล้ว ก็รู้สึกว่าปี 2038 อาจจะเกิดเรื่องวุ่นวายจริง ๆ ก็ได้นะ savvykang 23 일 전 | ความคิดเห็นหลัก | ใน: ระเบิดเวลาที่ซ่อนอยู่ใน macOS นาน 49 วัน — เจาะรายละเอียดบั๊กเคอร์เนลที่ทำให้เครือข่าย TCP หยุดทำงานทั้งหมด (photon.codes) มนุษย์มักทำผิดพลาดแบบเดิมซ้ำแล้วซ้ำเล่า โหลดความคิดเห็นเพิ่มเติม
สิ่งที่ Anthropic พูดนั้นฟังดูน่าเชื่อถือ แต่ทำไมสิ่งที่ OpenAI พูดถึงดูไม่น่าเชื่อถือเอาเสียเลย
เป็นเพราะ Anthropic ทำแบบ show-and-proof ด้วยการสร้างแพตช์ zero-day หรือเปล่า
หรือเป็นเพราะ OpenAI ใช้มุกเดิมนี้มาหลายรอบแล้ว
ไดรเวอร์ของ Windows น่าจะคนละอย่างนะ
ทุกครั้งที่เห็นเรื่องแบบนี้ ผมก็รู้สึกอยู่เสมอว่าการตรวจสอบลายเซ็นเป็นสิ่งที่ผู้ใช้ต้องทำ ไม่ใช่หน้าที่ของแพลตฟอร์ม นักพัฒนาต้องลงลายเซ็นด้วยคีย์ของตัวเอง และผู้ใช้ก็ควรอนุญาตคีย์ของนักพัฒนาที่เชื่อถือได้บนอุปกรณ์ของตนแล้วจึงใช้งาน
ถ้าไม่รู้เรื่องนี้แล้วจะให้ระบบจัดการให้เองทั้งหมด แบบนั้นมันไม่สมเหตุสมผล ไม่ว่าจะสนใจคอมพิวเตอร์มากน้อยแค่ไหน ถ้าเป็นสิ่งที่ตัวเองจะใช้งาน นี่คือพฤติกรรมพื้นฐานที่ต้องมี
ถ้าใช้โทรศัพท์มือถือและใช้อินเทอร์เน็ต ก็ไม่ควรเชื่อทุกอย่างที่เว็บเพจ ข้อความ หรือโทรศัพท์พูดโดยไม่มีเงื่อนไข และต้องมีความสามารถในการคัดกรองเลือกเชื่อ นี่เป็นแนวทางพื้นฐานในระดับนั้น
ถ้ามี UI แบบ Windows UAC ที่ให้กดปุ่มเดียวเพื่อยืนยันว่าจะเชื่อถือนักพัฒนาคนใดคนหนึ่งหรือไม่ อย่างน้อยคนที่ไม่รู้แนวคิดเรื่อง code signing กับคีย์ก็น่าจะใช้งานได้
สรุปได้ดีมากเลยครับ ขอบคุณครับ
โปรเจกต์ที่เสร็จครึ่งๆ กลางๆ กำลังล้นทะลัก…
คนที่รู้การเขียนโปรแกรมแค่ครึ่งเดียวก็พากันคลั่งไคล้…
มีคำสั่งลงมาภายในบริษัทให้ลองพัฒนาโดยอาศัยแค่ vibe coding ก็เลยลองปรับใช้โน่นนี่ดูครับ แต่พอลองทำจริงแล้วก็พบว่าทักษะการพัฒนาที่ยอดเยี่ยมไม่ได้รับประกันคุณภาพที่สูงเสมอไปนัก..
กลับกลายเป็นว่าความสามารถในการตรวจทานและทำความเข้าใจโค้ดที่ AI สร้างขึ้นต่างหากที่เป็นหัวใจสำคัญ ยิ่งเครื่องมือดีขึ้นเท่าไร ก็ยิ่งเป็นความย้อนแย้งที่ว่า “พลังในการอ่านและตัดสิน” สำคัญมากขึ้นเท่านั้น
สรุปสั้น ๆ
ธุรกิจ AI อธิบายด้วย ARR เพียงตัวเดียวแบบ SaaS ได้ยากขึ้น และต่อจากนี้ตัวชี้วัดที่บอกว่า “ขายได้เท่าไร” จะสำคัญน้อยกว่าตัวชี้วัดที่บอกว่า “เหลือกำไรแค่ไหน และรักษาไว้ได้นานแค่ไหน”
งั้นก็ต้องรีบูตจริง ๆ ก่อนครบ 49 วันสินะ
ที่จริงแล้วเรื่องแบบนี้ห้ามเอาเวลาไปเทียบด้วย
<โดยตรงเด็ดขาด..if ((int32_t)(tmp - current_tcp_now) < 0) {
os_atomic_cmpxchg(&tcp_now, tmp, current_tcp_now, ...);
}
ควรดูความต่างของสองค่านี้แบบนี้มากกว่า... แต่มนุษย์เราก็มักจะทำพลาดแบบเดิมซ้ำ ๆ อยู่เสมอครับ
Perplexity
SaaS หลายเจ้าคงเจ๊งกันเลยล่ะ
ถ้าระดับนั้นจริง การหาช่องโหว่ด้านความปลอดภัยจากโค้ดที่ reverse assembly มา ก็คงใช้เวลาไม่นานเลยนะครับ
ในฐานะสมาชิกของมูลนิธิที่กล่าวถึงข้างต้นแห่งหนึ่ง ฉันเฝ้าดูกระบวนการนี้ด้วยความรู้สึกคลางแคลงใจอย่างลึกซึ้ง ภายนอกชูคำว่า 'AI ที่มีจริยธรรม' แต่ภายใน การตัดสินใจนี้กลับถูกสั่งลงมาจากบนลงล่างโดยไม่มีฉันทามติจากชุมชนใด ๆ เลย
เมื่อความขัดแย้งทางภูมิรัฐศาสตร์เริ่มปะทุขึ้น แม้ฉันจะไม่ได้เคลื่อนไหวมานานแล้ว แต่ก็รู้สึกว่าควรพูดอะไรสักหน่อย จึงเปิดเธรดถกเรื่องจริยธรรมขึ้นมา ทว่าสิ่งที่ได้รับมีเพียงการหลีกเลี่ยงแบบราชการเท่านั้น ริเริ่มนี้ไม่ใช่การปกป้องคุณค่าของโอเพนซอร์ส แต่เป็นกรณีที่กลุ่มทุนขนาดใหญ่ที่ปิดกั้นได้ซื้อเครื่องหมายการค้า Responsible AI จากมูลนิธิโอเพนซอร์สไป
น่าขยะแขยง
ก็ดีนะ แต่ iPad ของฉันไม่ไหวจริง ๆ 555
พวกเขากล้าขโมยของที่ Anthropic ขโมยมาจากนักเขียนโค้ดมนุษย์ได้ยังไงกัน??
-Elon Musk
เอไอจะเป็นแบบนั้นก็ช่างเถอะ แต่ทีมวิจัยจากอินเดียไม่ได้อ่านเลยหรือไง
เป็นบทความที่น่าอ่าน พร้อมผู้เขียนที่ยอดเยี่ยมเลยนะ….
ในบรรดาคนที่คลั่งไคล้ ยังต้องยกให้สายฝรั่งเป็นที่สุด..
พอเห็นอะไรแบบนี้แล้ว ก็รู้สึกว่าปี 2038 อาจจะเกิดเรื่องวุ่นวายจริง ๆ ก็ได้นะ
มนุษย์มักทำผิดพลาดแบบเดิมซ้ำแล้วซ้ำเล่า