ช่วงนี้ดูเหมือน Meta จะน่าขยะแขยงน้อยลงมาหน่อย แต่ข่าวนี้ก็ช่วยเติมความโกรธที่มีต่อ Meta ได้อีกครั้ง
แม้จะเป็นคนละประเด็นกัน แต่ช่วงนี้ก็มีคนพูดกันว่าพวกการล็อกดาวน์ของ OS ก็เป็นสิ่งที่ Meta ไปวิ่งเต้นไว้เหมือนกัน... ตั้งแต่สตอรี่การก่อตั้งไปจนถึงทุกย่างก้าวที่ทำมา ดูเหมือนจะเอาจริยธรรมไปแลกกินหมดแล้ว
เพราะมีเออร์เรอร์เยอะเกินไป เลยรีบออกประกาศกันแบบนี้สินะ
แต่ก็อดคิดไม่ได้ว่ามันช้าไปหน่อยหรือเปล่า..
ตอนนี้เออร์เรอร์มันเยอะมากจนทุกคนพูดกันว่าเริ่มหนีออกไปกันแล้ว ฮือ
ผู้คนพูดกันในทำนองว่าไม่เชื่อถือเพราะเป็นของจีน แต่สำหรับผม ผมรู้สึกขอบคุณ DeepSeek จริง ๆ อย่างน้อยก็ในแง่ที่พวกเขาทำวิจัยและเปิดเผย รวมถึงเผยแพร่แม้กระทั่งกระบวนการลองผิดลองถูกด้วย
น่าจะดีเวลาให้ AI รับหน้าที่งานฝั่งฟรอนต์เอนด์ ขอบคุณที่แชร์ครับ
พวกเราได้ลงตัวที่การใช้ทั้งสองตัวร่วมกัน
เราใส่เฟส cross-review ของ Codex ไว้ใน flow ของ slash command (/ship ในรูปแบบ วางแผน → ลงมือทำ → ตรวจสอบ → รีวิวโดย Codex → รายงาน) และในขณะเดียวกันก็ผูกรีวิวแบบเดียวกันไว้กับ pre-push hook ด้วย หากมีแค่ slash command เวลางานเร่งด่วนคนก็จะ push ไปเลยทำให้รีวิวหลุดไป แต่ถ้ามีแค่ hook ผลลัพธ์ก็จะออกมาตอนก่อน push เท่านั้นซึ่งช้าเกินไป
ทั้งสองเส้นทางนี้ไม่ได้เรียก Codex CLI โดยตรง แต่ให้ทั้งคู่เรียก bash script ที่ครอบไว้ครั้งหนึ่ง (
codex-review.sh) เหมือนกัน สคริปต์นั้นจะจัดการ timeout, การตรวจสอบการยืนยันตัวตน, การตรวจสอบ secret และรูปแบบเอาต์พุตจากจุดเดียว ทำให้ไม่ว่าจะเป็น slash command หรือ hook ฝั่งที่เรียกใช้งานก็ดูสะอาดขึ้นหัวใจสำคัญคือจะไม่บล็อกด้วยผลรีวิวของ Codex เด็ดขาด ต่อให้ CLI ล่มหรือมี CRITICAL ออกมา ก็ยังปล่อยให้ push ผ่านเหมือนเดิมแล้วแค่แสดงผลลัพธ์เท่านั้น เพราะถ้าทำให้บล็อกแม้เพียงครั้งเดียว เมื่อ Codex จับโค้ดที่จริง ๆ ไม่มีปัญหาผิด ผู้ใช้ก็จะหันไปใช้ตัวเลือกข้าม hook (
git push --no-verify) เพื่อจะ push และถ้ามันกลายเป็นความเคยชิน ต่อให้มี hook อยู่ก็แทบไม่ต่างจากไม่มีการรันเลย ดังนั้นการตรวจที่ต้องบล็อกจริง ๆ (lint·type·test, การ push ไฟล์ secret) ควรแยกเป็น gate ต่างหาก และให้ความเห็นจากโมเดลเป็นเพียงข้อมูลอ้างอิงเท่านั้นตัวสคริปต์, slash command และเนื้อหา hook อยู่ในแทร็ก 4~6 แชปเตอร์ตามนั้นเลย ลองใช้อ้างอิงดูได้ครับ
ได้ยินมาว่ามีคนทำแบบนี้อยู่ เลยสงสัยว่าเขาใช้วิธีกันอย่างไร
คือไม่ได้จับสองเครื่องมือนี้แยกเป็นเอเจนต์คนละตัว แต่ให้นักพัฒนาเรียกใช้แต่ละตัวเองตามความจำเป็นใช่ไหม
หรือว่าตั้งค่าให้ Codex รีวิวโค้ดอัตโนมัติตอนทำ Git Hook กันแน่ครับ
โอ๊ย เอาแล้วไง...
ช่วงนี้ดูเหมือน Meta จะน่าขยะแขยงน้อยลงมาหน่อย แต่ข่าวนี้ก็ช่วยเติมความโกรธที่มีต่อ Meta ได้อีกครั้ง
แม้จะเป็นคนละประเด็นกัน แต่ช่วงนี้ก็มีคนพูดกันว่าพวกการล็อกดาวน์ของ OS ก็เป็นสิ่งที่ Meta ไปวิ่งเต้นไว้เหมือนกัน... ตั้งแต่สตอรี่การก่อตั้งไปจนถึงทุกย่างก้าวที่ทำมา ดูเหมือนจะเอาจริยธรรมไปแลกกินหมดแล้ว
ผู้ให้บริการ LLM มักมีแนวโน้มจะเก็บรวบรวมและนำข้อมูลจาก 'บริการสำหรับผู้บริโภค' ที่ผู้ใช้ทั่วไปใช้งานแบบฟรีหรือสมัครสมาชิก ไปใช้ฝึกและปรับปรุงโมเดลเป็นค่าเริ่มต้น ในทางกลับกัน ข้อมูลจาก API หรือบริการสำหรับองค์กรที่บริษัทหรือผู้พัฒนาจ่ายเงินใช้งาน ส่วนใหญ่จะได้รับการคุ้มครองผ่านสัญญาไม่ให้นำไปใช้ฝึกโมเดล
ตรงนี้มีประเด็นสำคัญอย่างหนึ่งที่ต้องชี้ให้ชัด นั่นคือคำถามพื้นฐานว่า "ผลิตภัณฑ์แบบเสียเงินไม่ได้นำข้อมูลของฉันไปใช้ฝึกเลยจริงหรือ?"
แม้บริการสำหรับองค์กรของ OpenAI จะระบุไว้ในสัญญาว่าไม่นำข้อมูลไปใช้ฝึกโมเดล แต่เราจะตรวจสอบ 'คำมั่นสัญญา' นั้นในเชิงเทคนิคได้อย่างไร และจะได้รับหลักประกันในทางกฎหมาย/สถาบันอย่างไร? ณ ตอนนี้ เราไม่สามารถเข้าไปเฝ้าดู pipeline การฝึกของ OpenAI ได้ด้วยตัวเอง ดังนั้นนี่จึงเป็นพื้นที่ที่ท้ายที่สุดแล้วต้องพึ่งพาจริยธรรมของผู้ให้บริการและเนื้อหาในสัญญาเป็นหลัก
คำถามเดียวกันว่า "มีความเสี่ยงไหมที่ข้อมูลของฉันจะค่อย ๆ หลอมรวมเป็นความรู้ของโมเดล?" ไม่ได้เป็นปัญหาเฉพาะของ DeepSeek เท่านั้น และยังคงเป็นโจทย์ที่ไม่มีทางออกสมบูรณ์ เว้นแต่จะ 'ซื้อ' เงื่อนไขสัญญาที่ปลอดภัยกว่าตามงบประมาณและความจำเป็น (เช่น API, แผนองค์กร) หรือไม่ก็โฮสต์โมเดลเองเพื่อความสมบูรณ์พร้อมทางเทคนิค
การพูดว่า "เป็น LLM จีนก็แปลว่าดูดข้อมูลส่วนตัวอัตโนมัติ" เป็นการพูดเกินจริง และความเสี่ยงเชิงโครงสร้างด้านการใช้ข้อมูลนั้น LLM ของสหรัฐฯ ก็ไม่ได้ต่างกันมาก สิ่งสำคัญคือการตรวจสอบประเภทของบริการและเงื่อนไขในสัญญาอย่างละเอียด เพื่อปกป้องข้อมูลของเรา ไม่ว่าจะด้วยการยอมจ่ายเงินหรือเลือกทางเลือกเชิงเทคนิค (เช่น โฮสต์เอง)
ช่วงนี้ GitHub มีปัญหาเยอะนะ
รวมอยู่ด้วย
โค้ดสามารถถือเป็นสิ่งที่ได้รับความคุ้มครองได้หรือไม่?
น่าเสียดายที่ยังไม่รองรับ fallback font เลยทำให้การแสดงผลภาษาเกาหลียังไม่น่าพอใจ
ผมก็ขอเงินคืนเหมือนกัน...
AI เครดิตก็ไม่สามารถยกยอดได้ด้วย... แถมยังจะเอาทั้งปริมาณการใช้โทเค็นและเวลาใช้งาน (ส่วนที่กินตอน Think) มาคิดโดยไม่มีเกณฑ์ที่ชัดเจนอีก...
จะทำเป็นคิดตามการใช้งานไปเลยก็ว่าไป...
ถ้าจะคิดเป็นค่าใช้งานแบบนี้ อย่างน้อยก็ควรกำหนดระยะเวลาที่แน่นอนแล้วให้ยกยอดได้...
แบบนี้ก็ไม่มีเหตุผลให้ต้องใช้แล้ว...
แล้วมันดีกว่า ChatGPT, Claude, Gemini ตรงไหน...?
ผมใช้แบบรายปี และถึงจะไม่ได้ใช้เป็นตัวหลักแต่ก็ใช้เป็นพัก ๆ... รู้สึกเหมือนโดนหักหลังหนักมากเลยครับ สำหรับผู้ใช้รายปี อย่างน้อยก็ควรให้ราคาเดิมไปจนกว่าจะหมดระยะเวลาที่ยังมีผลอยู่ แต่ถ้าจู่ ๆ บอกว่าขึ้นราคาแล้วคุมการใช้งานให้เข้มกว่าเดิมอีก...
เหมือนลืมความหมายของการจ่ายรายปีไปแล้ว...
เพราะการเก็บเงินก้อนล่วงหน้า มันก็ควรแลกกับโปรโมชันที่มากขึ้น และช่วยดึงลูกค้าไว้ได้ในช่วงเวลานั้น...
ก็ดีนะ แต่พอจะใช้ต่อจากเทอร์มินัลทั่วไปแล้วมันหน่วงมาก เลยเลิกใช้ไป
ถ้าโมเดลดี ภาระในการออกแบบฮาร์เนสก็จะลดลงด้วย
ออกมาทุกไตรมาสอยู่แล้วครับ
เห็นได้ชัดว่าตอน YC's Requests for Startups - Summer 2025 ก็มีเรื่อง AI เยอะเหมือนกัน
แต่พอเข้าปีนี้มา ดูเหมือนการประยุกต์ใช้ AI จะขยับเข้าใกล้ฝั่ง vertical หรือ enterprise มากขึ้นนะครับ
คนที่ย้ายไปที่อื่นอยู่แล้ว (เช่น Codeberg) พอเห็นเหตุการณ์ครั้งนี้ก็คงยิ่งมั่นใจขึ้นว่าตัดสินใจย้ายได้ถูกแล้ว
แก้ไขไว้แล้ว
ขอบคุณครับ น่าจะต้องแก้ไขครับ
คุณโนซองฮุน → เป็นคุณคิมซองฮยอน