- เมื่อเรียกใช้ Claude Code โดยตรงใน repo เปล่า หากมี OpenClaw อยู่ใน JSON blob ของ commit ล่าสุด ก็พบว่าเกิดทั้ง การปฏิเสธคำขอหรือการเรียกเก็บค่าใช้จ่ายเพิ่มเติม
- จากลักษณะที่ดูเหมือนอ่าน
package.jsonเพื่อตัดสินว่าเป็นคู่แข่งหรือไม่ ทำให้ความกังวลเพิ่มขึ้นว่า code editor กำลังเปลี่ยนพฤติกรรมตาม metadata ของโปรเจกต์ - ในกรณี
claude -p "'{\"schema\": \"openclaw.inbound_meta.v1\"}'"กลับทำงานได้ตามปกติ จึงเป็นไปได้ว่าเงื่อนไขของปัญหาอาจไม่ได้อยู่ที่ สตริงพรอมป์ต์ธรรมดา เพียงอย่างเดียว - หาก
git logถูกใส่เข้าไปใน agent system prompt ก็อาจกลายเป็น prompt injection vector ได้ และงานที่เกี่ยวข้องกับ OpenClaw แต่ไม่ใช่ JSON ก็ไม่ได้เกิดปัญหาเดียวกัน - ผู้ใช้บางส่วนได้เปลี่ยนไปใช้หรือกำลังพิจารณา Codex หรือ FactoryAI แทนบน Claude Code ขณะที่ OpenClaw ถูกอธิบายว่าเป็น open-source agent tooling ที่รันบนเครื่องโลคัลและทำงานได้กับทุกโมเดล
เงื่อนไขการทำซ้ำและขอบเขตที่เป็นไปได้
- ยังมีการระบุด้วยว่าเมื่อถาม Claude Code ว่า OpenClaw ช่วยกับ flow บางอย่างได้หรือไม่ ก็มักได้รับคำตอบว่า “ไม่จำเป็น” อยู่เสมอ
- งานที่เกี่ยวข้องกับ OpenClaw แต่ไม่ใช่ JSON ไม่ได้เจอปัญหาเดียวกัน และอาจเป็นเพียงปัญหาทั่วไปด้าน API availability failure หรือปัญหาที่จำกัดอยู่กับ JSON เท่านั้น
- มีเสียงวิจารณ์อย่างรุนแรงว่า Anthropic อาจ grep คำว่า “OpenClaw” จาก commit history และ JSON blob แล้วนำไปสู่การปฏิเสธคำขอหรือคิดค่า “extra usage” พร้อมต่อยอดไปสู่ข้อสรุปว่าควรเลือก open models และเครื่องมือที่ไม่ลงโทษผู้ใช้
ปฏิกิริยาจากผู้ใช้และลิงก์ที่เกี่ยวข้อง
- มีความเห็นด้วยว่า Claude Code แม้จะมีข้อจำกัด แต่ Opus บน claude.ai เหมาะกับการสนทนาและรีเสิร์ช โดยเฉพาะเมื่อทำ source reports ระดับ 3k+ ที่มีเพดานการใช้งานสูง
- OpenClaw ถูกอธิบายว่าเป็น open-source agent tooling ที่รันบนเครื่องโลคัลและทำงานได้กับทุกโมเดล พร้อมคำวิจารณ์ว่านี่คือกรณีที่ coding agent พังเพียงเพราะมีชื่อคู่แข่งอยู่ใน metadata
- มีการโยงปัญหาคล้ายกันกับ HERMES.md และ “overactive anti-abuse system”: https://github.com/anthropics/claude-code/issues/53262
- มีการแชร์ Twitch clip เป็นฉากทดสอบด้วย: https://www.twitch.tv/theo/clip/AverageRockyTapirHeyGirl-4Z_aCCSPbuVg-RZz
- มี GitHub ลิงก์รวมอยู่ด้วยในบริบทที่บอกให้กลับไปใช้ Claude subscription: GitHub.com/askalf/dario
- ผู้ใช้รายหนึ่งระบุว่ากำลังรัน 12 Claude Code agents ใน production และมองว่าหาก toolchain ลงโทษผู้ใช้เพียงเพราะ JSON blob มีชื่อคู่แข่งอยู่ ก็แปลว่าเครื่องมือนั้นไม่ได้รับใช้ builder อีกต่อไป
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
บัญชีของฉันก็ทำซ้ำอาการนี้ได้
สร้าง repo ไว้ใน
/tmpแล้วใส่{"schema": "openclaw.inbound_meta.v1"}ลงในข้อความ commit จากนั้นรันclaude -p "hi"ปรากฏว่าการเชื่อมต่อถูกตัดทันที และ การใช้งานเซสชัน พุ่งเป็น 100%ฉันไม่ได้ทำอะไรผิด แค่รันคำสั่งเดียว แต่กลับเหมือนถูกยึด fair usage ที่จ่ายเงินไปแล้ว
ควรเปิด ticket หรืออย่างน้อยก็เปิด GitHub issue เพื่อให้เรื่องนี้มองเห็นได้
ดูเหมือนใกล้ถึงขั้นต้องยื่นเรื่องร้องเรียนกับ หน่วยงานกำกับดูแลการค้า แล้ว
ฉันลองเองแล้วยังทำซ้ำไม่ได้
ทั้งหมดนี้ดูเป็นพฤติกรรมที่เข้าข่ายอาชญากรรมและหลอกลวง และคนที่ควรจะได้บทเรียนไปแล้วก็ยังส่งเงินให้ Anthropic ต่อ ทำให้เกิดการใช้งานในทางที่ผิดในวงกว้าง
การป้องกันการเลี่ยงโมเดลราคาแบบพิเศษ กับการ ตอนความสามารถ ของโมเดลในบางกรณีใช้งาน เป็นคนละเรื่องกันโดยสิ้นเชิง
มองเห็นทิศทางข้างหน้าแล้ว: vibe coding สำหรับสคริปต์ใช้แล้วทิ้งราคา $0.20, ค้นหาเอกสารกฎหมายราคา $10k, แล้วต่อไปก็คงจะเก็บ 20% ของรายได้แอปแบบเรียลไทม์ประมาณนั้น
อันนี้ดูแย่กว่านั้นอีก
ฉันกำลังใช้ Claude ช่วยแก้ไขโพสต์บล็อกที่มีการพูดถึง OpenClaw แล้วได้รับคำตอบว่า “คำว่า OpenClaw ดูเหมือนเป็นคำพิมพ์ผิดหรือคำล้อเล่น ถ้าหมายถึงผลิตภัณฑ์จริง คงค้นหาไม่เจอด้วยการสะกดแบบนี้ กรุณาแก้ไขหรือใส่เชิงอรรถ”
พอฉันส่งลิงก์ตรงไปที่ openclaw.ai แชตก็จบทันทีและโดน ลิมิตการใช้งาน 5 ชั่วโมง
อาจเป็นเรื่องบังเอิญ แต่ตอนเช้าฉันแทบไม่ได้ใช้ sonnet มากนัก เลยดูเป็นไปได้น้อย และแปลกมาก
มันแทบแยกผลงานที่ดีออกจากผลงานที่แย่ไม่ได้ แต่ปกติจะรู้ มูลค่าตลาด ได้ค่อนข้างดี
คนพวกนี้ไม่มีศีลธรรม
ตอนนี้ uptime ของ Claude.ai อยู่ที่ 98.85%
ช่วงหลังมานี้ Claude / Anthropic มีเรื่องน่าหงุดหงิดเยอะเกินไป ทั้งข้อจำกัดการใช้งานหนัก ๆ และ A/B test ที่ผิดพลาด
Claude status: https://status.claude.com/
ช่วงนี้ฉันค่อนข้างพอใจกับการสมัคร Codex แต่เรื่องพวกนี้เหมือนเปลี่ยนทุกสองวัน
การสมัคร OpenCode Go เพื่อทดลอง GLM, Kimi, Qwen, Deepseek ฯลฯ ก็ดูมีประโยชน์
ถึงอย่างนั้น Opus 4.6 ก็ยังเป็นโมเดลที่ทรงพลังมาก แต่การจะให้เหตุผลกับค่าสมัคร Claude ก็ยากขึ้นเรื่อย ๆ
บางทีก็คงใช้ผ่าน OpenRouter หรือใช้เป็นส่วนหนึ่งของอะไรอย่าง Cursor เป็นครั้งคราว แต่ก็ยังไม่แน่ใจว่าค่าสมัคร Cursor คุ้มหรือเปล่า
OpenCode Go: https://opencode.ai/go
Cursor: https://cursor.com
auth gateway ส่ง 500 กลับมาตลอดหรือไม่ก็ timeout และแม้ใน status.claude.com จะมี incident ว่า “elevated errors” แต่ downtime กลับถูกบันทึกเป็น 0 นาที
ไม่ถึงกับเป็น “partial outage” ด้วยซ้ำ เพราะงั้น uptime จริงน่าจะแย่กว่านี้
ฉันใช้ Claude Code กับงาน และใช้ Kimi 2.6 กับโปรเจกต์ส่วนตัว ซึ่ง Kimi ดีมาก
GLM-5.1 ก็ยอดเยี่ยม ส่วน Qwen, Mimo, Deepseek ยังต้องลองเพิ่ม แต่ทั้งหมดให้ผลลัพธ์ที่ดี
ความรู้สึกคือทุกตัวอยู่ระดับเดียวกับ Sonnet 4.6 หรืออย่างน้อยก็ใกล้มาก
น่ากังวลมาก
แม้ฉันจะยังไม่ได้รับผลกระทบจากวิธีแข็งกร้าวของ Anthropic โดยตรง แต่ก็กำลังมองหา ทางหนีทีไล่ มากขึ้นเรื่อย ๆ เผื่อถึงเวลาที่ต้องหนีจาก Claude Code
หวังจริง ๆ ว่าพวกเขาจะเหยียบเบรกและปรับทิศทางใหม่อย่างจริงจัง
เข้าใจว่ามีแรงกดดันที่ขัดกันหลายอย่าง เช่น ต้องทำให้การเติบโตสอดคล้องกับกำลังการรองรับ จึงยากจะตัดสินใจแบบที่ไม่ทำให้ใครโกรธ แต่ตอนนี้กำลังมุ่งไปสู่ข้อสรุปที่แย่ที่สุด
ตัวอย่างเช่น ตอนนี้พวกเขาอาจไม่มีศักยภาพพอจะรับลูกค้าเพิ่ม
ถ้ากำลังทำลายความสัมพันธ์กับลูกค้าปัจจุบันอย่างหนัก ก็ควรยอมรับว่าไม่ควรขาย แพลน 20x เพิ่มอีกจนกว่าจะมี capacity ที่ต้องการ และรับเฉพาะลูกค้าใหม่ tier ต่ำแทน
นี่เป็น DoS ที่ใหญ่พอให้รถบรรทุกวิ่งผ่านได้ และก็น่ากังวลที่ช่องโหว่ชัด ๆ แบบนี้หลุดออกมาได้
เทียบกับ การคิดเงินแบบอิงคอนเท็กซ์ ที่ซ่อนอยู่แบบนี้ การขึ้นราคาแบบโปร่งใสและประกาศล่วงหน้าทั่วทั้งระบบน่าจะยอมรับได้ง่ายกว่ามาก
ในส่วน orchestration อาจใช้โมเดลแพงที่มีคอนเท็กซ์ขนาดใหญ่ เช่น GLM-5.1 แล้วใช้โมเดลที่ถูกกว่าสำหรับงานเขียนโค้ดและวนกับ acceptance criteria
สำหรับงาน UI บางทีก็ใช้ โมเดลที่รองรับ vision ราคาแพงอย่าง Gemini 3 Flash ผสมกับ Playwright เพื่อทำงานวนซ้ำ
ถ้าผสมโควต้าพื้นฐานของ Go กับการจ่ายตามใช้จริงของโมเดลราคาถูกอย่าง MiniMax ก็ทำงานได้เยอะพอสมควรโดยไม่ต้องเสียเงินมาก
[1] https://github.com/anomalyco/opencode
[2] https://opencode.ai/go
เมื่อคิดถึงสิ่งต่าง ๆ ที่รู้กันเกี่ยวกับ Altman ฉันก็ยังอยากอยู่กับ Anthropic แต่ตอนนี้มันเหมือนกำลัง speedrun คู่มือ วิธีทำลายชื่อเสียง อยู่จริง ๆ
ก็มีเรื่องน่าสงสัยเยอะเหมือนกัน และมีส่วนร่วมลึกพอ ๆ กันกับ การประยุกต์ใช้ทางทหาร
พอดแคสต์ล่าสุดของ Cal Newport พูดเรื่องนี้ไว้ดีมาก: https://youtu.be/BRr3pAPsQAk?si=jaRJYJ_XQE7VpxPN
มีหลายคนพยายามปกป้องมาตรการของ Anthropic โดยบอกว่าใน Claude Code harness อาจมี optimization ที่ OpenCode ทำไม่ได้
แต่พอซอร์สรั่วออกมาก็ชัดเลยว่าไม่ใช่แบบนั้นเลย แค่พยายามกันไม่ให้อีกฝั่งกลั่นโมเดลของตัวเองออกมาเท่านั้น
GLM กับ Qwen อาจยังไม่เท่า Opus แต่ก็ดีพอ และฉันก็ไม่เคยชนลิมิตการใช้งานแม้จะรัน 2-3 เซสชันพร้อมกัน
การตลาดแบบคลุมเครือว่าตัวเองมีจริยธรรมกว่าเลยดีกว่า แต่พฤติกรรมจริงกลับแสดงให้เห็นว่าไม่ได้ดีกว่า OAI เท่าไรนัก
วลีที่ผุดขึ้นมาในหัวคือ “enshittification speedrun”
แพ็กเกจเหมาจ่ายจริง ๆ แล้วคือจุดเริ่มต้นของทางลาดลื่นสู่ enshittification
ถ้าทุกอย่างคิดตามการใช้งานจริง ก็คงไม่มีเหตุผลให้ต้องใช้ลิมิตแบบคลุมเครือและแอบแฝงแบบนี้
คนก็แค่จ่ายตามที่ใช้ และได้ตามที่จ่าย
มันมีอยู่สองเรื่อง
อย่างแรก นี่ให้ความรู้สึกเหมือนเป็น พฤติกรรมต่อต้านการแข่งขัน ที่ไม่ควรถูกยอมรับหรือปล่อยผ่าน
อย่างที่สอง ฉันไม่เข้าใจเลยว่าจะสนับสนุนเรื่องนี้ได้อย่างไร
ในเธรดนี้มีหลายคอมเมนต์แนว “คงไม่ได้ตั้งใจ อย่าคิดร้ายเลย”
แต่ที่นี่มีทั้งทนาย มีประวัติการโต้ตอบไปมาระหว่าง OpenCode กับ OpenClaw และ harness “Open” อีกหลายตัวมาเป็นเวลานาน
การไปคุ้ย commit history ของฉันแล้วบล็อกการเข้าถึงเพราะแค่สตริงข้อความหนึ่ง เป็นสิ่งที่รับไม่ได้ในฐานะผลิตภัณฑ์ และฉันไม่คิดว่านี่เป็นอุบัติเหตุล้วน ๆ
บางคนบอกว่าต้องทำแบบนี้เพื่อให้บริการต่อได้เพราะ compute ไม่พอ ถ้าอย่างนั้นก็ไม่ควร ขายเกิน
เหมือนกับที่การขายตั๋วเครื่องบินเกินเป็นเรื่องน่ารังเกียจ การขายผลิตภัณฑ์ใด ๆ เกินทั้งที่รู้ว่าจะกระทบลูกค้าที่จ่ายเงินอย่างถูกต้องก็ไม่ต่างกัน
ถ้าขึ้นราคาหรือหยุดรับคนเข้าเชิญ เรื่องนี้ก็คงจบเร็ว
บริษัทนี้ไม่สมควรได้รับ การตีความในทางที่เป็นมิตร ซ้ำแล้วซ้ำเล่าอีกต่อไป
โดยรวมแล้วฉันกำลังก้าวถอยออกจาก LLM และเดือนนี้ก็ยกเลิกค่าสมัคร Claude Code แล้ว
เพราะฉันเคารพตัวเอง และคิดว่าตัวเองสมควรได้รับการปฏิบัติที่ดีกว่าและโปร่งใสกว่า
ถ้าจำเป็นต้องใช้จริง ๆ จากประสบการณ์ของฉัน Deepseek v4 คุ้มค่ามากในทุกด้านและราคาก็โปร่งใส
อย่างไรก็ตาม ต่อให้ยังมีเงินค้างอยู่ตาม AI gateway หลายแห่ง ฉันก็เริ่มชอบเขียนเองมากกว่า เพราะไม่อยากให้ผลลัพธ์สุดท้ายปนไปด้วยบั๊กประหลาดกับโค้ดส่วนเกิน
รู้สึกสดชื่นดีมาก
แต่ก็อาจทำให้ฉันลองสักครั้งก็ได้
หงุดหงิดมาก
ฉันมี NixOS Qemu VM ที่ใช้รัน OpenClaw
Claude เคยช่วยตั้งค่าให้ และรันโมเดลโลคัลบนเครื่องของฉันผ่าน sandbox ที่อิง config
แล้วทำไม Claude ต้องมาขัดขวางงานนั้นหรือเรียกเก็บเงินเพิ่มด้วย?
แล้วทำไม Claude ต้องสนใจว่ามีคำสั่งสำหรับ Hermes หรือ OpenClaw อยู่ใน project repo ของฉันด้วย?
เมื่อคิดถึงสิทธิ์เข้าถึงที่ Claude Code มีต่อเครื่องเรา การทำ fingerprinting แบบนี้ก็ถือว่าหละหลวมเกินไป
ถ้าพึ่งพา agent ที่ไว้ใจไม่ได้ คุณก็ผูกตัวเองไว้กับอารมณ์เปลี่ยนไปมาที่งี่เง่าของพวกเขา
ต้องระวังให้ดีว่าจะไปเป็นพาร์ตเนอร์กับใคร
แค่ไม่กี่เซ็นต์ไม่ใช่หรือ?
นี่คือ สัญญาณอันตรายครั้งใหญ่
ฉันเข้าใจได้กับ policing/censoring ในระดับหนึ่ง แต่เรื่องนี้เกินขอบเขตที่ฉันยอมรับได้ไปมาก
จะมีแพลนราคาแยกสำหรับงาน agentic ก็ได้
แต่การให้คีย์เวิร์ดบางคำไป “บังเอิญ” ตรงกับเงื่อนไขแล้วกระตุ้นการคิดเงินเพิ่มแบบนี้ มันให้ความรู้สึกแบบ evil Microsoft มาก
มันไม่ใช่บริบทเดียวกับ https://news.ycombinator.com/item?id=47952722 เหรอ?
เพราะ HERMES.md ในข้อความ commit คำขอเลยถูกส่งไปยัง extra usage billing
1203 points | 21 hours ago | 524 comments
@bcherny, ตรงนี้ต้องการมากกว่าแค่คำว่า “Fixed”: https://github.com/anthropics/claude-code/issues/53262#issuecomment-4320819355
แทนที่จะยอมรับว่า “แนวทางนี้ในการบล็อก 3rd party OAuth ใช้ไม่ได้ผล” แล้ว rollback กลับไป ดูเหมือนพวกเขาจะพยายาม fix-forward และดันกลยุทธ์เดิมต่อไปเรื่อย ๆ