15 คะแนน โดย GN⁺ 8 일 전 | 9 ความคิดเห็น | แชร์ทาง WhatsApp
  • ผู้รับผิดชอบจาก Anthropic แจ้งว่า อนุญาตให้ใช้ Claude CLI ในรูปแบบ OpenClaw ได้อีกครั้ง
  • รองรับทั้ง Anthropic API key และ การนำ Claude CLI กลับมาใช้ซ้ำ ร่วมกัน และโปรไฟล์โทเค็น Anthropic เดิมที่ตั้งค่าไว้ก็ยังคงได้รับการยอมรับเมื่อรัน
  • Claude CLI backend จะถูกจัดการเป็นรูปแบบการผสานรวมที่กลับมาได้รับอนุญาตอีกครั้ง และก่อนจะมีการประกาศนโยบายใหม่ การใช้ claude -p ก็ยังถือว่าได้รับอนุญาต
  • โมเดล Claude 4.6 จะใช้ adaptive thinking เป็นค่าเริ่มต้นเมื่อไม่มีการตั้งค่า thinking แบบชัดเจน และสามารถเขียนทับได้ด้วย /think:<level> หรือพารามิเตอร์ของโมเดล
  • สวิตช์ /fast จะใส่ค่า service_tier เฉพาะกับคำขอที่ส่งตรงไปยัง api.anthropic.com เท่านั้น และหากผ่านพร็อกซีหรือเกตเวย์จะไม่มีการเปลี่ยน tier
  • รองรับทั้ง prompt caching และ 1M context window ด้วย แต่การแคชใช้ได้เฉพาะ API และ 1M context ต้องเปิดใช้งานอย่างชัดเจนพร้อมสิทธิ์ใช้ long-context โดยในการยืนยันตัวตนแบบ sk-ant-oat-* เดิมจะไม่ใส่ beta header

วิธีรองรับของ Anthropic

  • รองรับทั้ง API และ Claude CLI ผ่านเส้นทางเข้าถึงของ ตระกูลโมเดล Claude โดยใน OpenClaw สามารถใช้ได้ทั้ง Anthropic API key และ การนำ Claude CLI กลับมาใช้ซ้ำ
    • โปรไฟล์โทเค็น Anthropic เดิม ที่ตั้งค่าไว้แล้วก็ยังคงได้รับการยอมรับเมื่อรัน
  • Anthropic API key

    • เป็นเส้นทางที่เหมาะกับ การเข้าถึง API มาตรฐาน และการคิดค่าบริการตามปริมาณใช้งาน
    • สามารถสร้าง API key ได้จาก Anthropic Console
    • ในตัวอย่างการตั้งค่า CLI สามารถเลือก Anthropic API key ได้ใน openclaw onboard
    • รองรับวิธีแบบ non-interactive ด้วย openclaw onboard --anthropic-api-key "$ANTHROPIC_API_KEY"
    • ในตัวอย่างสไนเป็ตการตั้งค่า ใช้ตัวแปรแวดล้อม ANTHROPIC_API_KEY และโมเดลเริ่มต้น anthropic/claude-opus-4-6

ค่าเริ่มต้นของ Thinking

  • โมเดล Claude 4.6 จะใช้ adaptive thinking เป็นค่าเริ่มต้นใน OpenClaw เมื่อไม่มีการระบุระดับ thinking อย่างชัดเจน
  • สามารถเขียนทับได้ด้วย /think:<level> รายข้อความ หรือพารามิเตอร์ของโมเดล agents.defaults.models["anthropic/<model>"].params.thinking
  • มีลิงก์เอกสารที่เกี่ยวข้องสำหรับ Adaptive thinking และ Extended thinking

Fast mode

  • สวิตช์ /fast แบบใช้ร่วมกันของ OpenClaw รองรับทราฟฟิก Anthropic สาธารณะแบบตรงที่ส่งไปยัง api.anthropic.com ด้วย
    • รวมทั้งคำขอที่ยืนยันตัวตนด้วย API key และ คำขอแบบ OAuth
  • /fast on จะถูกแมปเป็น service_tier: "auto"
  • /fast off จะถูกแมปเป็น service_tier: "standard_only"
  • ในตัวอย่างค่าเริ่มต้นของการตั้งค่า ใช้ params.fastMode: true กับโมเดล anthropic/claude-sonnet-4-6
  • ข้อจำกัด

    • OpenClaw จะใส่ค่า Anthropic service tier ให้เฉพาะกับ คำขอ api.anthropic.com แบบตรง เท่านั้น
    • หากส่งคำขอ anthropic/* อ้อมผ่านพร็อกซีหรือเกตเวย์ /fast จะไม่เปลี่ยน service_tier
    • หากมีพารามิเตอร์ของโมเดล serviceTier หรือ service_tier แบบชัดเจน จะมีลำดับความสำคัญเหนือค่าปริยายของ /fast
    • Anthropic จะบันทึก tier ที่ถูกใช้จริงไว้ใน usage.service_tier ของคำตอบ
    • สำหรับบัญชีที่ไม่มี Priority Tier capacity ค่า service_tier: "auto" ก็อาจยังถูกตีความเป็น standard

Prompt caching

  • OpenClaw รองรับความสามารถ prompt caching ของ Anthropic
  • ฟีเจอร์นี้เป็น API เท่านั้น และการยืนยันตัวตนด้วยโทเค็น Anthropic แบบเดิมจะไม่สะท้อนการตั้งค่าแคช
  • การตั้งค่า

    • ใช้พารามิเตอร์ cacheRetention ในการตั้งค่าโมเดล
    • none คือปิดการแคช
    • short คือแคช 5 นาที
    • long คือแคชแบบขยาย 1 ชั่วโมง
    • ในตัวอย่างการตั้งค่า ใช้ params.cacheRetention: "long" กับโมเดล anthropic/claude-opus-4-6
  • ค่าเริ่มต้น

    • เมื่อใช้การยืนยันตัวตนด้วย Anthropic API key จะมีการใช้ cacheRetention: "short" อัตโนมัติกับโมเดล Anthropic ทั้งหมด
    • หากตั้งค่า cacheRetention แบบชัดเจน ก็สามารถเขียนทับค่าเริ่มต้นนี้ได้
  • การเขียนทับแยกตามเอเจนต์

    • ใช้พารามิเตอร์ระดับโมเดลเป็นค่าพื้นฐาน และเอเจนต์เฉพาะสามารถเขียนทับแยกได้ด้วย agents.list[].params
    • ในตัวอย่าง research ใช้ค่าพื้นฐาน ส่วน alerts ใช้ cacheRetention: "none"
    • ลำดับการรวมพารามิเตอร์ที่เกี่ยวกับแคชคือ agents.defaults.models["provider/model"].params ตามด้วย agents.list[].params
    • แม้จะใช้โมเดลเดียวกัน เอเจนต์หนึ่งก็สามารถคงแคชระยะยาวไว้ได้ ในขณะที่อีกเอเจนต์หนึ่งปิดแคชได้
    • มีการยกตัวอย่างจุดประสงค์ของการปิดแคชเพื่อหลีกเลี่ยงค่าเขียนในทราฟฟิกแบบ burst หรือ ทราฟฟิกที่มีการนำกลับมาใช้น้อย
  • หมายเหตุเกี่ยวกับ Bedrock Claude

    • โมเดล Anthropic Claude บน Bedrock amazon-bedrock/*anthropic.claude* รองรับการส่งต่อ cacheRetention เมื่อมีการตั้งค่าไว้
    • โมเดล Bedrock ที่ไม่ใช่ Anthropic จะถูกบังคับเป็น cacheRetention: "none" ระหว่างรัน
    • ค่าปริยายอัจฉริยะที่อิงจาก Anthropic API key จะใช้ cacheRetention: "short" กับการอ้างอิง Claude-on-Bedrock ด้วยเช่นกันเมื่อไม่มีการระบุค่าแบบชัดเจน

หน้าต่าง context 1M

  • 1M context window ของ Anthropic เป็นฟีเจอร์ที่ถูกจำกัดในสถานะเบต้า และใน OpenClaw สามารถเปิดใช้ได้ด้วย params.context1m: true สำหรับแต่ละโมเดล Opus/Sonnet ที่รองรับ
  • ในตัวอย่างการตั้งค่า ใช้ params.context1m: true กับโมเดล anthropic/claude-opus-4-6
  • OpenClaw จะแมปสิ่งนี้ไปเป็นเฮดเดอร์ anthropic-beta: context-1m-2025-08-07 ในคำขอของ Anthropic
  • ฟีเจอร์นี้จะทำงานเฉพาะเมื่อ params.context1m ของโมเดลนั้นถูกตั้งเป็น true อย่างชัดเจนเท่านั้น
  • เงื่อนไขการใช้งานคือข้อมูลยืนยันตัวตนนั้นต้องได้รับอนุญาตจาก Anthropic ให้ใช้ long-context usage
  • ปัจจุบัน Anthropic จะปฏิเสธคำขอเบต้าประเภท context-1m-* เมื่อใช้การยืนยันตัวตนแบบโทเค็น Anthropic เดิม sk-ant-oat-*
  • หากตั้งค่า context1m: true ในโหมดการยืนยันตัวตนแบบเดิม OpenClaw จะบันทึก warning log และ ข้าม beta header ของ context1m แล้วถอยกลับไปใช้หน้าต่าง context มาตรฐาน
    • เบต้า OAuth ที่จำเป็นยังคงถูกเก็บไว้

Claude CLI backend

  • OpenClaw รองรับ Anthropic backend claude-cli ที่มาพร้อมกัน
  • พนักงานของ Anthropic แจ้งว่าแนวทางการใช้งานนี้ กลับมาได้รับอนุญาตอีกครั้ง
  • ดังนั้น OpenClaw จะถือว่า การนำ Claude CLI กลับมาใช้ซ้ำ และการใช้ claude -p เป็นรูปแบบการผสานรวมที่ได้รับอนุญาต จนกว่า Anthropic จะประกาศนโยบายใหม่
  • สำหรับโฮสต์เกตเวย์ที่เปิดตลอดเวลาและการควบคุมการคิดค่าบริการฝั่งเซิร์ฟเวอร์อย่างชัดเจน Anthropic API key คือเส้นทางปฏิบัติการที่ชัดเจนที่สุด
  • รายละเอียดการตั้งค่าและการรันดูได้ที่พาธ /gateway/cli-backends

หมายเหตุ

  • เอกสารสาธารณะของ Anthropic สำหรับ Claude Code ยังคงอธิบายการใช้ CLI โดยตรงอย่าง claude -p อยู่
  • พนักงานของ Anthropic แจ้งว่า การใช้ Claude CLI ในรูปแบบของ OpenClaw กลับมาได้รับอนุญาตอีกครั้ง และให้ถือว่านี่เป็นแนวทางที่ยืนยันแล้วจนกว่า Anthropic จะประกาศเปลี่ยนนโยบายใหม่
  • ใน OpenClaw ยังรองรับ Anthropic setup-token ต่อไปในฐานะเส้นทางการยืนยันตัวตนด้วยโทเค็นที่รองรับ
  • อย่างไรก็ตาม หากใช้งานได้ OpenClaw จะให้ความสำคัญกับ การนำ Claude CLI กลับมาใช้ซ้ำ และ claude -p มากกว่า
  • รายละเอียดการยืนยันตัวตนและกฎการนำกลับมาใช้ซ้ำดูได้ที่พาธ /concepts/oauth

การแก้ปัญหา

  • 401 errors / token suddenly invalid

    • การยืนยันตัวตนด้วยโทเค็น Anthropic อาจหมดอายุหรือถูกเพิกถอนได้
    • สำหรับการตั้งค่าใหม่ แนะนำให้ย้ายไปใช้ Anthropic API key
  • No API key found for provider “anthropic”

    • การยืนยันตัวตนจะมีผล แยกตามเอเจนต์
    • เอเจนต์ใหม่จะไม่สืบทอดคีย์ของเอเจนต์หลัก
    • ต้องรัน onboarding ใหม่สำหรับเอเจนต์นั้น หรือกำหนด API key ไว้ที่โฮสต์เกตเวย์แล้วตรวจสอบด้วย openclaw models status
  • No credentials found for profile anthropic:default

    • สามารถตรวจสอบได้ว่าโปรไฟล์การยืนยันตัวตนใดกำลังทำงานอยู่ด้วย openclaw models status
    • ต้องรัน onboarding ใหม่ หรือตั้งค่า API key ให้กับพาธของโปรไฟล์นั้น
  • No available auth profile (all in cooldown/unavailable)

    • สามารถตรวจสอบ auth.unusableProfiles ได้ใน openclaw models status --json
    • ช่วง cooldown ของ rate limit ของ Anthropic อาจเป็น ระดับโมเดล ดังนั้นแม้โมเดลปัจจุบันจะอยู่ใน cooldown โมเดล Anthropic อื่นในตระกูลเดียวกันก็อาจยังใช้งานได้
    • ต้องเพิ่มโปรไฟล์ Anthropic อื่น หรือรอให้ cooldown สิ้นสุด
    • มีพาธเพิ่มเติมคือ /gateway/troubleshooting และ /help/faq

9 ความคิดเห็น

 
ceruns 8 일 전

หลังจากทำให้สามารถใช้โมเดลโลคัล gemma4 31b บน codex ด้วย Codex ได้แล้ว (ละเอียดรอบคอบถึงขั้นเช็ก multi-turn ให้เองด้วย!) ผมก็ยกเลิกทุก subscription อื่นนอกจาก ChatGPT Pro ไปหมดเลย พอเอา codex-app-linux มารวมกับสองตัวนี้ ต่อให้รันงานแบบขนานสูงสุดเท่าที่รับรู้ได้ ปริมาณการใช้งานก็ยังเหลือ

 
woodev 7 일 전

ช่วยบอกสเปกฮาร์ดแวร์หน่อยครับ!
ลองรันด้วย 4090 แล้วฉลาดดีอยู่ แต่ถ้าจะใช้งานระยะยาวมันยังไม่ค่อยพอครับ

 
beoks 7 일 전

ผมก็กำลังจะรัน gemma4 แบบโลคัลเหมือนกัน อยากทราบว่าสเปกฮาร์ดแวร์ของคุณประมาณไหนครับ?

 
ingwannu 8 일 전

พูดตามตรง มันดูน่าอนาถเกินไป...
ผมมองว่านี่ก็แค่ทำชั่วคราว เพราะพยายามจะไม่ให้ผู้ใช้ Pro ใช้ Claude Code แล้วกระแสตอบรับออกมาไม่ดี..

 
jimmy2056 8 일 전

แต่ก็น่าจะดีกว่าถ้าเผลอใช้ผิดแล้วโดนระงับบัญชี เอาเป็นว่าคอยดูก่อนน่าจะดีที่สุด

 
hmmhmmhm 8 일 전

เคยปวดหัวกับการใช้คีย์ CC OAuth API อยู่พักหนึ่ง สุดท้ายก็ไปปักหลักใช้ Codex เวอร์ชันก่อนหน้าแทนเลย...

 
xguru 8 일 전

จริง ๆ ช่วงนี้ผมก็ปักหลักใช้ Codex ไปแล้วเหมือนกัน.. Claude ใช้โทเค็นหมดเร็วเกินไป

 
GN⁺ 8 일 전
ความคิดเห็นบน Hacker News
  • ผมคือ Peter จาก OpenClaw, Boris จาก Claude Code พูดไว้สาธารณะบน Twitter ว่า อนุญาตการใช้งานแบบ CLI style ก็เลยเชื่อแนวทางนั้นและลงทุนลงแรงกับการพัฒนาไปเยอะ ตอนใช้งานแบบ cli ก็เปลี่ยนให้ฟีเจอร์ที่กินโทเคนเกินจำเป็นอย่าง heartbeat ถูกปิดเป็นค่าเริ่มต้นด้วย แต่ในความเป็นจริง Anthropic กลับบล็อกบางส่วนของ system prompt อยู่ ทำให้สิ่งที่สื่อสารต่อสาธารณะไม่ตรงกับพฤติกรรมปัจจุบัน ดูคำพูดที่เกี่ยวข้องได้จากที่นี่ พอมีคนเลี่ยงด้วยการเปลี่ยนชื่อเล็กน้อย ดูเหมือนตัว classifier ก็ถูกปรับตามไปด้วย แต่ผมไม่คิดจะเล่นเกม หาทางเลี่ยงข้อจำกัด แบบนั้น เลยกลายเป็นอยู่ในสภาพกึ่งๆ ว่าทางทฤษฎีทำได้ แต่ใช้งานจริงไม่ได้

    • นอก OpenClaw เองก็มีหลายคนที่เชื่อ Tweet นั้นและสร้างเวิร์กโฟลว์บน claude -p ไว้ลึกพอสมควร แต่พอมีการเพิ่มแฟลก --bare ใหม่ ก็เริ่มดูน่ากังวลเหมือนจะมีการ rug pull ที่ค่อยๆ ดัน -p ออกจากผู้ใช้แบบไม่จำกัด เอกสารก็เขียนไว้ด้วยว่า --bare เป็นโหมดที่แนะนำสำหรับสคริปต์และการเรียกผ่าน SDK และในอนาคตจะกลายเป็นค่าเริ่มต้นของ -p ด้วย หวังว่าผมจะเข้าใจผิดเอง ไม่ก็ต้องมีคำอธิบายที่ชัดเจนกว่านี้ เอกสารคือ headless docs
    • ไหนๆ ก็พูดถึงขอบเขตที่อนุญาตแล้ว ผมก็สงสัยด้วยว่านโยบายขอบเขตการใช้ Codex quota ของ OpenAI เป็นอย่างไร เท่าที่เข้าใจ การใช้ใน OpenClaw น่าจะอนุญาต แต่ยังหาคำตอบไม่ได้ว่า ถ้าเป็น coding harness อื่นหรือแอปเสียเงินที่ให้ผู้ใช้เอา Codex quota ของตัวเองมาใช้ จะทำได้หรือไม่ สำหรับผู้เล่นรายเล็ก การช่วยอุดหนุนค่าโทเคนทำได้ยาก ถ้านโยบายแบบนี้เปิดกว้างขึ้น พื้นที่ใช้งานก็คงเพิ่มขึ้นมาก แต่ก็อาจถูกทำให้คลุมเครือโดยเจตนาเพราะธรรมชาติของโมเดล subscription เลยยิ่งน่าหงุดหงิด
    • ผมมองว่าแค่ใส่ rate limit ง่ายๆ ให้กับ OAuth token ก็น่าจะพอแล้ว หลักการก็ตรงไปตรงมา: subscription ใช้กับการใช้งานในระดับมนุษย์ที่คนเข้าใจได้ ส่วน API key ใช้กับงานอัตโนมัติอื่นๆ Anthropic ควรจำกัดการใช้เชิงกลไก แต่ยังเปิดให้คนสร้างเวิร์กโฟลว์ด้วย claude -p หรือเวิร์กโฟลว์ที่ดีกว่าบน SDK โดยใช้ OAuth token ของตัวเองได้
    • ผมก็พอเข้าใจว่า Anthropic อยู่ในจุดลำบาก ถ้าจะเปรียบก็เหมือน Waymo มีแพ็กเกจ subscription ที่มีการอุดหนุนราคาไว้ แต่คนเริ่มใช้ด้วยการตั้งเวลาเรียกรถที่ไม่มีคนนั่งเพื่อให้วิ่งตามรูปแบบที่ไม่ได้ตั้งใจไว้ ส่งไปซื้อของชำเป็นครั้งคราวก็ดูโอเค แต่ถ้าตั้งให้ไปซื้อไอศกรีมวันละหนึ่งอันเวลาเดิมทุกวัน มันก็อยู่ในพื้นที่สีเทา ปัญหาคือถ้ากำหนดเกณฑ์ชัด คนก็จะหาทางหลบถ้อยคำเหล่านั้นเพื่อรีดความคุ้มค่าออกมาอีก แต่การล้มแพ็กเกจที่ทำมาเพื่อผู้ใช้ปกติไปทั้งก้อนก็ดูไม่ถูกต้องเหมือนกัน
    • ตอนนี้ดูเหมือนพวกเขากำลังพยายามปรับทิศทางใหม่ แต่รู้สึกว่า ความเชื่อมั่น ที่เสียไปนั้นมีมากแล้ว และเมื่อคิดถึงข้อจำกัดใหม่ที่ลดลง ก็ไม่แน่ใจว่ามันยังคุ้มพอจะใช้ต่อใน OpenClaw หรือไม่
  • ผมรู้สึกว่าสถานการณ์ตอนนี้มันเป็น โคลนขุ่นๆ ที่มัวไปหมด จริงๆ Anthropic ควรบอกให้ชัดว่าอะไรรองรับ อะไรไม่รองรับ แยกตามสถานะ subscription และจนกว่าจะทำแบบนั้น ผู้ใช้ก็ยากที่จะรู้ว่าตัวเองควรใช้ผลิตภัณฑ์อย่างไร ตอนนี้ผมไม่ได้ใช้ OpenClaw หรือผลิตภัณฑ์คล้ายกันอยู่ด้วยซ้ำ แต่ก็อยากรู้ให้ได้ว่าอะไรทำได้หรือทำไม่ได้ และตอนนี้มันแทบเป็นไปไม่ได้เลย

    • พอเห็น Anthropic เปลี่ยนสิ่งที่ได้จาก subscription เป็นรายสัปดาห์ ผมก็ไม่อยากจ่ายเกินระดับ ใบอนุญาตสำหรับงานอดิเรก ผลิตภัณฑ์อาจยอดเยี่ยมก็ได้ แต่ความรู้สึกคือมันขึ้นกับว่าคุณใช้ช่วงเวลาไหน และบริษัทตอนนั้นตัดสินใจอย่างไร เพราะแบบนี้การมีโมเดล open weights อยู่พอสมควรที่ช่วยกำหนดเพดานพฤติกรรมแย่ๆ ได้ เลยทำให้รู้สึกอุ่นใจกว่า
    • ผมอยากใช้ custom harness ที่ขยายต่อเองได้ หรือเอา harness ที่ผมทำเองไปต่อกับไลเซนส์ Claude Code และถ้าเป็นไปได้ก็อยากลดค่าโทเคนด้วย ผมคิดว่า Anthropic ควรตั้งเป้าหมายให้โมเดลรุ่นถัดไปใช้โทเคนน้อยลงหรือมีต้นทุนการรันต่ำลง ถ้า throughput ใกล้เคียงกัน จะช้าลงนิดหน่อยก็ได้ ขอแค่ค่าใช้จ่ายลดลงและใช้ร่วมกับ harness ที่ผมทำเองได้
    • สิ่งที่ผมห่วงคือการสื่อสารที่ย่ำแย่กับการ กลับคำไปมา อย่างต่อเนื่อง หนึ่งในเวิร์กโฟลว์หลักของผมคือ hook script ที่ route งานบางประเภทไปหลายโมเดล แต่ไม่มีใครรู้ว่าสุดท้ายสิ่งนี้จะถูกห้ามหรือไม่ พอ Anthropic อธิบายไม่สม่ำเสมอ มันก็ยากที่จะลงทุนกับ ecosystem นี้
    • ผมแปลกใจนิดหน่อยว่าทำไมหลายคนถึงตกใจมากนัก อย่างกรณี Twitter API เราก็เห็นมาแล้วว่า API มักเปิดอยู่ตราบใดที่ยังช่วยแก้ปัญหาให้บริษัทได้ในตอนนั้น แต่พอบริษัทสร้างฟีเจอร์ที่คนใช้จริงขึ้นมาเองทีหลัง การใช้งานที่มีลักษณะเป็นคู่แข่งของไคลเอนต์ก็มักถูกปิดกั้น นี่เป็นรูปแบบที่เกิดซ้ำๆ
    • คำที่ผุดขึ้นมาสำหรับตอบกับ vibe coding คือ vibe product ทุกวันนี้หลายอย่างโผล่มาเร็วแล้วก็หายไปเร็ว จนความคาดหวังแบบเดิมลดลงไปมาก
  • ผมคิดว่าประเด็นสำคัญคือพนักงานของ Anthropic ออกมาให้ คำอธิบายที่ขัดกันเอง บน Twitter และยังมีการแก้คำพูดกันไปมา จนยิ่งทำให้สับสนมากขึ้น วันนี้อาจบอกว่าการใช้ Claude CLI แบบ OpenClaw ใช้ได้ แต่พรุ่งนี้อาจมีอัปเดตนโยบายแล้วถอนกลับอีกก็ได้ ความไม่แน่นอนตรงนี้สูงมาก เรื่อง Claude Code ทำให้ Anthropic ดูเป็นบริษัทที่ไว้ใจยาก และถ้าจะรักษาสุขภาพจิตของตัวเองไว้ การย้ายไปผู้ให้บริการรายอื่นอาจดีกว่า

    • ประโยคพิมพ์ผิดแบบไม่ผิดอย่าง keep your insanity กลับรู้สึกว่าเป็น ถ้อยคำที่ตรงเกินไป จนน่าขำ
    • ผมไม่เข้าใจว่าทำไมถึงชอบประกาศเรื่องพวกนี้บน Twitter นัก นโยบายควรถูกประกาศผ่าน บล็อกอย่างเป็นทางการ และควรระบุด้วยว่า harness ทางเลือกควรทำงานอย่างไร วิธีตอนนี้ดูไม่เป็นมืออาชีพจริงๆ
    • ผมก็รู้สึกแปลกกับวิธีสื่อสารข่าวนี้เหมือนกัน ไม่เข้าใจว่าทำไม OpenClaw ถึงเป็นฝ่ายประกาศเรื่องนี้แทน Anthropic และตราบใดที่ Anthropic ยังไม่พูดเอง ผมก็เชื่อไม่ลงง่ายๆ
    • เท่าที่ผมเห็น ประกาศล่าสุดของ Anthropic คือผู้ใช้ subscription จะถูก คิดเงินเพิ่ม เมื่อใช้ OpenClaw ไม่ใช่ว่าถูกห้ามใช้ และเหตุผลที่เปลี่ยนไม่กี่วันถัดมา ก็ดูมีโอกาสสูงว่าเป็นเพราะแทนที่จะบล็อกการใช้ OAuth token โดยตรงใน third-party harness แบบเมื่อก่อน พวกเขาอยากเปลี่ยนทั้งการใช้งานแบบนั้นและการใช้ claude -p ให้กลายเป็นกรณีที่ต้องจ่ายเพิ่มแทน เพราะอย่างนั้นผมเลยไม่รู้สึกว่าหน้านี้ขัดแย้งกับประกาศดังกล่าว
    • ผมขอเปรียบการย้ายผู้ให้บริการกับประสบการณ์สลับไปมาระหว่าง Uber One กับ Lyft Pink เวลาเจอการดูแลลูกค้าที่แย่ก็จะย้ายค่าย แต่สุดท้ายก็ได้ข้อสรุปว่าการเลือก ปีศาจที่คุ้นเคย สักตัวแล้วเรียนรู้จะอยู่กับลักษณะของมันน่าจะดีกว่า ตอนนี้ผมยังอยู่กับ Claude เพราะผลกระทบจากประเด็น OpenClaw ต่อยังน้อยสำหรับผม และเพราะความไม่สบายใจกับเรื่อง Hegseth-Altman DoD แต่พูดตรงๆ คือทั้ง Google, Anthropic และ OpenAI ต่างก็ไม่ได้ดูเป็นแบบอย่างที่ดีนักในเรื่องการสื่อสาร AI และการรับมือลูกค้า
  • การเปลี่ยนแปลงนี้กลับมาแล้วตั้งแต่ 2 สัปดาห์ก่อนผ่าน commit และช่วงเวลานั้นก็เกิดขึ้นเพียง 3 วันหลังจากที่ Anthropic บอกว่า OpenClaw ต้องมี ปริมาณการใช้งานเพิ่มเติม ด้วยซ้ำ ถ้าดูจากลำดับเหตุการณ์นี้ มันก็ยากจะมองอย่างจริงจัง แปลกด้วยที่ไม่มีทั้งแถลงการณ์ทางการหรือแม้แต่ Tweet สักอัน บริบทอื่นดูได้ใน ลิงก์ HN

    • ผมคิดว่าสาเหตุที่คนสับสนคือวิธีใช้ข้อมูลรับรอง Claude Code มันมีอยู่สองแบบ แบบแรกคือเอาข้อมูลรับรอง OAuth ไปสร้าง เอเจนต์ของตัวเอง ซึ่งแบบนี้ไม่อนุญาต แบบที่สองคือรันแอปเอเจนต์โดยตรงภายในเซสชัน Claude Code อย่างเป็นทางการ ซึ่งแบบนี้อนุญาต สิ่งที่ OpenClaw เรียกว่า Open-Claw style CLI usage น่าจะหมายถึงแบบหลังมากกว่า และถ้าใช้ข้อมูลรับรอง OAuth นอก Claude Code CLI ก็เข้าใจว่าโครงสร้างคือจะมีการคิดเงินเพิ่มตามราคา API ภายใต้ subscription เดิม
    • ผมก็รู้สึกว่านี่สอดคล้องกับประกาศล่าสุดของ Anthropic พอสมควร ที่นี่ไม่ได้เขียนตรงไหนเลยว่า ไม่มี การคิดเงินเพิ่ม ประเด็นคือมันเปลี่ยนจากการแบน ไปเป็นการตีความว่าทั้งการใช้ OAuth token โดยตรงใน third-party harness และการใช้ claude -p จะอยู่ในหมวดที่มีค่าใช้จ่ายเพิ่ม
    • ถ้าจะตอบแบบครึ่งเล่นครึ่งจริงกับเรื่องไม่มีประกาศทางการหรือ Tweet เลย ผมเริ่มสงสัยว่า release notes กับประกาศต่างๆ ทุกวันนี้เป็น agentic anti-pattern ไปแล้วหรือเปล่า ถึงขั้นเหมือนว่าถ้ายังคอยตามดูของพวกนี้อยู่ แปลว่าคุณกำลังทำ agentic ผิดทางอยู่
    • ผมรู้สึกว่าปฏิกิริยานี้ก็ดูเหมือนการขยาย FUD แบบคลาสสิก คือขยายการตีความด้านลบให้ใหญ่โต แล้วปล่อยให้สัญญาณด้านบวกหายไป
  • Anthropic กำลังขึ้นราคา ลดข้อจำกัด และทำให้นโยบายคลุมเครือ เหมือนกำลังเผา goodwill ที่สะสมมาเอง

    • การเปลี่ยนแปลงพวกนี้ทำให้นึกถึงเทคนิค ต้มกบ ที่ค่อยๆ เพิ่มอุณหภูมิขึ้นทีละน้อย
    • ถ้ามองอีกด้าน เพื่อให้บริการ LLM อยู่รอดได้ ในที่สุดผู้ให้บริการก็ต้องทำเงินให้มากกว่าค่าโฮสต์อยู่ดี แต่ผมคิดว่าเรายังห่างจากจุดนั้นอีกมาก
    • เห็นสถานการณ์แบบนี้แล้วก็อดประชดไม่ได้ว่า ลองคิดถึงผู้ถือหุ้น กันบ้างสิ
    • สุดท้ายมันอาจกลายเป็นการผลักคนให้ย้ายไปใช้ โคลนจากจีน ที่ Anthropic มองว่าเป็นผู้เล่นไม่พึงประสงค์เสียเอง
    • อีกด้านหนึ่ง มันก็อาจเป็นแค่บริษัทกำลังเดินตามปัญหาเรื่องความยั่งยืนที่ Hacker News พูดกันมาตลอด AI มีประโยชน์ก็จริง แต่ความยั่งยืนยังไม่แน่นอน ตอนนี้พอขึ้นราคาและลดโทเคน ทุกคนก็โกรธกัน จนรู้สึกประชดอยู่เหมือนกัน
  • เพิ่งเซ็นสัญญากับ Amazon ไปไม่นาน เลยทำให้นึกว่าครั้งนี้สุดท้ายอาจเป็นปัญหา ข้อจำกัดด้าน compute อยู่ดี ยังไงก็ตาม แพ็ก Codex เดือนละ 20 ดอลลาร์ที่ผมเคยใช้มีข้อจำกัดต่ำเกินไป จนเอเจนต์ยังแทบทำอะไรไม่ทันก่อนจะต้องส่งต่อให้เอเจนต์ตัวอื่น และตราบใดที่ Anthropic ยังไม่มีประกาศอย่างเป็นทางการ ผมคงขอเฝ้าดูอย่างระวังไปก่อน เพราะไม่อยากเสียบัญชี Max เดือนละ 200 ดอลลาร์ที่ผมใช้อยู่

    • ประสบการณ์ของผมต่างออกไปพอสมควร เริ่มจาก Claude web กับ Opus 4.7 แล้วต่อเข้า Claude Code ปรากฏว่าใช้แค่ราว 6 ถึง 10 prompt ก็เผา quota ไปครบสองรอบแล้ว ขณะที่ผมใช้ pi.dev กับ codex ทำงานได้นานหลายชั่วโมงและใช้ไปแค่ประมาณ 50% ของ Codex Pro subscription เท่านั้น เลยรู้สึกว่ารูปแบบการ ใช้สิ้นเปลือง ต่างกันมาก
    • ถ้าต้องใช้ปริมาณมาก Z.ai ก็น่าพิจารณา ตอนนี้ GLM ดีขึ้นมาก แม้ API จะมีอาการไม่นิ่งบ้าง บางช่วงก่อนหน้านี้ผมใช้ GLM เป็นหลักและใช้ Claude Pro แค่สำหรับรีวิวกับสรุป แต่ตอนนี้แทบจะใช้ GLM อย่างเดียวแล้ว Claude Max ก็ไม่ได้แย่ในแง่ความคุ้มค่าเสียทีเดียว แต่สำหรับผมมันเกินความจำเป็นและความชอบที่มีต่อ Anthropic ก็ลดลงเรื่อยๆ
    • ผมจำได้ว่า Anthropic บอกตั้งแต่แรกเลยว่านี่เป็นปัญหาจากข้อจำกัดด้าน compute และ OpenClaw ทำให้เกิดการใช้งานมากกว่าที่ระบบจะรับไหวอย่างมหาศาล
    • ผมรู้สึกว่า GPT-5.4 นี่เป็นพวก กินโทเคนหนักมาก ถึงจะพูดน้อย แต่ gpt-5.3 codex ดูฉลาดมากในด้านโค้ดและการวางแผน แถมใช้โทเคนน้อยกว่ามากด้วย
  • ตามความเข้าใจของผม ตราบใดที่ยังใช้ไลบรารีหรือเครื่องมือของ Anthropic ก็สามารถใช้ ข้อมูลรับรอง OAuth ได้ เช่น เอา OAuth ไปผูกกับ Claude Agent SDK เพื่อทำต้นแบบเอเจนต์หลายแบบที่ฝัง Claude Code ไว้ภายใต้งบรายเดือนที่คาดการณ์ได้ และมันน่าสนใจมากโดยเฉพาะเวลาจะทำ skill ให้เป็นเครื่องมือหรือแอปแบบ standalone ถ้าจะทำซับซ้อนขึ้น ก็สามารถรัน Claude Code ใน tmux แล้วสื่อสาร I/O กันได้ และ MCP Channels ก็น่าสนใจ เพราะช่วยให้วาง MCP server ไว้ระหว่างแอปกับอินสแตนซ์ Claude Code ที่กำลังรันอยู่เพื่อสื่อสารสองทาง ถึงจะช้า แต่ก็ทำให้เกิดการใช้งานแบบที่ GUI หลุดออกไปจัดการงานที่ง่ายกว่าได้ชั่วคราว แล้วกลับมาโดยไม่เสียบริบทของเซสชัน CLI ซึ่งน่าสนใจมาก

    • จริงๆ แล้ว Claude Code CLI ไม่จำเป็นต้องใช้ tmux ก็ได้ เพราะตัว CLI เองรองรับอินพุตและเอาต์พุตแบบ streaming JSON อยู่แล้ว จึงควบคุมผ่าน stdin และ stdout pipe ได้ ผมใช้อยู่ตอนนี้ใน ask และมันทำงานได้ดีทีเดียว
  • ช่วงสัปดาห์ที่ผ่านมา ผู้ช่วยรองของ OpenClaw ที่ผมใช้กับ Claude เริ่ม สูญเสียบุคลิก และทำงานที่เคยทำได้ดีไม่ได้แล้ว ยอดใช้งานสะสมไปประมาณ 28 ดอลลาร์แล้วหลังจากนั้นก็ไม่เพิ่มอีก เลยไม่แน่ใจว่ามีปัญหาอื่นร่วมด้วยหรือเปล่า แต่สภาพนั้นก็ยังคงอยู่ สุดท้ายผมเบื่อจนใช้ migration script ย้ายประวัติการสนทนาและบุคลิกไปใส่ใน claude code config และด้วยฟีเจอร์ remote exec ใหม่ ผมก็ได้ฟังก์ชันเดิมกลับมาส่วนใหญ่โดยไม่ต้องรับความเสี่ยงเรื่องความไม่เสถียรของเครื่องมือทดลองใหม่ๆ แบบ OpenClaw ความรู้สึกของผมคือ Anthropic น่าจะตั้งใจเพิ่ม แรงเสียดทาน ให้กับฝั่งผู้ใช้สายงานอดิเรกมากพอ จนสุดท้ายย้ายไปใช้โซลูชันของตัวเอง และไม่ว่าอย่างไรทางนั้นก็ดูเป็นตัวเลือกที่ปลอดภัยกว่า

    • เท่าที่ผมเข้าใจ OpenClaw ถูกห้ามเพราะ ภาระต่อระบบ เดิมทีเครื่องมือ third-party ก็ไม่ถูกกฎหมายอยู่แล้ว และตอนนี้ถ้าพูดให้เคร่งก็ยังเป็นแบบนั้น เพียงแต่ดูเหมือนอยู่ในสภาพถูกยอมให้ทำแบบคลุมเครือพร้อมการคิดเงินจากการใช้งานเพิ่ม แต่การเอา system prompt แบบ proprietary ที่ไม่ค่อยเกี่ยวข้องยาว 50,000 ตัวอักษรมาแปะไว้ก็ดูไม่น่าจะช่วยให้อะไรดีขึ้น สุดท้ายก็เลยสงสัยว่าถ้าเอา claude -p prompt บวก cron มาทำ OpenClaw ขึ้นใหม่ Anthropic จะพอใจไหม หรือบางทีอาจไม่สนใจเพราะจำนวนคนที่ทำได้จริงมีน้อยจนอยู่ในระดับความคลาดเคลื่อนก็ได้ บริบทดูเพิ่มได้จาก โพสต์ HN นี้
    • ถ้าคนกลางระหว่างคุณกับผู้ใช้ของคุณถูก คู่แข่งเข้าซื้อกิจการ ไปแล้ว การพยายามลดการพึ่งพาก็ถือเป็นเรื่องธรรมชาติ มันให้ความรู้สึกแปลกๆ คล้าย Apple ไปขาย iPhone ในร้าน Microsoft
    • ผมอยากรู้ องค์ประกอบแบบเจาะจง ว่าการทำ OpenClaw บน Claude Code ของคุณหน้าตาเป็นอย่างไรจริงๆ
  • แค่โครงสร้างที่ OpenClaw พูดว่า Anthropic บอกว่าโอเค ก็ชวนให้ประชดว่า ช่างเป็นสถานการณ์ที่ ชัดเจนราวคริสตัล จริงๆ

  • โดยรวมผมค่อนข้างพอใจกับชุด Claude Code + Opus + แพ็ก Max แต่ก็ยังติดใจเรื่องช่วงเวลาที่มันใช้ไม่ได้ ต้นทุน และความเสี่ยงโดนแบนบัญชีอยู่ดี เลยสงสัยว่ามี ชุดทางเลือก ที่ให้ประสบการณ์ใกล้เคียงหรือดีกว่าในราคาถูกกว่าหรือไม่ เห็นหลายคนพูดถึง pi.dev กับ OpenCode ว่าดี และพอลองใช้ OpenCode คู่กับ Mimo V2 pro ก็ถือว่าโอเค ก่อนหน้านี้ตอนที่ยังใช้ฟรีได้ ผมก็เคยใช้ Qwen CLI กับ Gemini CLI และบางทีก็ใช้ Z.ai คู่กับ OpenCode ด้วย อีกอย่างคือมีบางคนบอกว่าจะใช้ Opus สำหรับการวางแผน แล้วโยนงานที่สำคัญน้อยกว่าไปให้โมเดลที่ถูกกว่า แต่ผมไม่ค่อยชอบการคิดเงินตามการใช้งาน เพราะสุดท้ายมันไม่น่าจะถูกกว่า ผมทำงานหลักๆ กับ Python backend และ TypeScript frontend โฮสต์บน Hetzner ใช้ Docker เยอะ และถ้าจำเป็นก็ใช้ k3s ด้วย เลยอยากได้การแชร์ เซ็ตอัปที่ใช้ได้จริง สำหรับสภาพแวดล้อมแบบนี้

 
ajh508 8 일 전

ถ้าใช้ prompt caching ไม่ได้ โทเค็นก็น่าจะละลายหายไปเฉย ๆ เลยนะครับ