Anthropic - OpenClaw: กลับมาใช้งานได้อีกครั้ง
(docs.openclaw.ai)- ผู้รับผิดชอบจาก Anthropic แจ้งว่า อนุญาตให้ใช้ Claude CLI ในรูปแบบ OpenClaw ได้อีกครั้ง
- รองรับทั้ง Anthropic API key และ การนำ Claude CLI กลับมาใช้ซ้ำ ร่วมกัน และโปรไฟล์โทเค็น Anthropic เดิมที่ตั้งค่าไว้ก็ยังคงได้รับการยอมรับเมื่อรัน
- Claude CLI backend จะถูกจัดการเป็นรูปแบบการผสานรวมที่กลับมาได้รับอนุญาตอีกครั้ง และก่อนจะมีการประกาศนโยบายใหม่ การใช้
claude -pก็ยังถือว่าได้รับอนุญาต - โมเดล Claude 4.6 จะใช้ adaptive thinking เป็นค่าเริ่มต้นเมื่อไม่มีการตั้งค่า thinking แบบชัดเจน และสามารถเขียนทับได้ด้วย
/think:<level>หรือพารามิเตอร์ของโมเดล - สวิตช์
/fastจะใส่ค่า service_tier เฉพาะกับคำขอที่ส่งตรงไปยังapi.anthropic.comเท่านั้น และหากผ่านพร็อกซีหรือเกตเวย์จะไม่มีการเปลี่ยน tier - รองรับทั้ง prompt caching และ 1M context window ด้วย แต่การแคชใช้ได้เฉพาะ API และ 1M context ต้องเปิดใช้งานอย่างชัดเจนพร้อมสิทธิ์ใช้ long-context โดยในการยืนยันตัวตนแบบ
sk-ant-oat-*เดิมจะไม่ใส่ beta header
วิธีรองรับของ Anthropic
- รองรับทั้ง API และ Claude CLI ผ่านเส้นทางเข้าถึงของ ตระกูลโมเดล Claude โดยใน OpenClaw สามารถใช้ได้ทั้ง Anthropic API key และ การนำ Claude CLI กลับมาใช้ซ้ำ
- โปรไฟล์โทเค็น Anthropic เดิม ที่ตั้งค่าไว้แล้วก็ยังคงได้รับการยอมรับเมื่อรัน
-
Anthropic API key
- เป็นเส้นทางที่เหมาะกับ การเข้าถึง API มาตรฐาน และการคิดค่าบริการตามปริมาณใช้งาน
- สามารถสร้าง API key ได้จาก Anthropic Console
- ในตัวอย่างการตั้งค่า CLI สามารถเลือก Anthropic API key ได้ใน
openclaw onboard - รองรับวิธีแบบ non-interactive ด้วย
openclaw onboard --anthropic-api-key "$ANTHROPIC_API_KEY" - ในตัวอย่างสไนเป็ตการตั้งค่า ใช้ตัวแปรแวดล้อม
ANTHROPIC_API_KEYและโมเดลเริ่มต้นanthropic/claude-opus-4-6
ค่าเริ่มต้นของ Thinking
- โมเดล Claude 4.6 จะใช้ adaptive thinking เป็นค่าเริ่มต้นใน OpenClaw เมื่อไม่มีการระบุระดับ thinking อย่างชัดเจน
- สามารถเขียนทับได้ด้วย
/think:<level>รายข้อความ หรือพารามิเตอร์ของโมเดลagents.defaults.models["anthropic/<model>"].params.thinking - มีลิงก์เอกสารที่เกี่ยวข้องสำหรับ Adaptive thinking และ Extended thinking
Fast mode
- สวิตช์
/fastแบบใช้ร่วมกันของ OpenClaw รองรับทราฟฟิก Anthropic สาธารณะแบบตรงที่ส่งไปยังapi.anthropic.comด้วย- รวมทั้งคำขอที่ยืนยันตัวตนด้วย API key และ คำขอแบบ OAuth
/fast onจะถูกแมปเป็นservice_tier: "auto"/fast offจะถูกแมปเป็นservice_tier: "standard_only"- ในตัวอย่างค่าเริ่มต้นของการตั้งค่า ใช้
params.fastMode: trueกับโมเดลanthropic/claude-sonnet-4-6 -
ข้อจำกัด
- OpenClaw จะใส่ค่า Anthropic service tier ให้เฉพาะกับ คำขอ
api.anthropic.comแบบตรง เท่านั้น - หากส่งคำขอ
anthropic/*อ้อมผ่านพร็อกซีหรือเกตเวย์/fastจะไม่เปลี่ยนservice_tier - หากมีพารามิเตอร์ของโมเดล
serviceTierหรือservice_tierแบบชัดเจน จะมีลำดับความสำคัญเหนือค่าปริยายของ/fast - Anthropic จะบันทึก tier ที่ถูกใช้จริงไว้ใน
usage.service_tierของคำตอบ - สำหรับบัญชีที่ไม่มี Priority Tier capacity ค่า
service_tier: "auto"ก็อาจยังถูกตีความเป็นstandard
- OpenClaw จะใส่ค่า Anthropic service tier ให้เฉพาะกับ คำขอ
Prompt caching
- OpenClaw รองรับความสามารถ prompt caching ของ Anthropic
- ฟีเจอร์นี้เป็น API เท่านั้น และการยืนยันตัวตนด้วยโทเค็น Anthropic แบบเดิมจะไม่สะท้อนการตั้งค่าแคช
-
การตั้งค่า
- ใช้พารามิเตอร์
cacheRetentionในการตั้งค่าโมเดล noneคือปิดการแคชshortคือแคช 5 นาทีlongคือแคชแบบขยาย 1 ชั่วโมง- ในตัวอย่างการตั้งค่า ใช้
params.cacheRetention: "long"กับโมเดลanthropic/claude-opus-4-6
- ใช้พารามิเตอร์
-
ค่าเริ่มต้น
- เมื่อใช้การยืนยันตัวตนด้วย Anthropic API key จะมีการใช้
cacheRetention: "short"อัตโนมัติกับโมเดล Anthropic ทั้งหมด - หากตั้งค่า
cacheRetentionแบบชัดเจน ก็สามารถเขียนทับค่าเริ่มต้นนี้ได้
- เมื่อใช้การยืนยันตัวตนด้วย Anthropic API key จะมีการใช้
-
การเขียนทับแยกตามเอเจนต์
- ใช้พารามิเตอร์ระดับโมเดลเป็นค่าพื้นฐาน และเอเจนต์เฉพาะสามารถเขียนทับแยกได้ด้วย
agents.list[].params - ในตัวอย่าง
researchใช้ค่าพื้นฐาน ส่วนalertsใช้cacheRetention: "none" - ลำดับการรวมพารามิเตอร์ที่เกี่ยวกับแคชคือ
agents.defaults.models["provider/model"].paramsตามด้วยagents.list[].params - แม้จะใช้โมเดลเดียวกัน เอเจนต์หนึ่งก็สามารถคงแคชระยะยาวไว้ได้ ในขณะที่อีกเอเจนต์หนึ่งปิดแคชได้
- มีการยกตัวอย่างจุดประสงค์ของการปิดแคชเพื่อหลีกเลี่ยงค่าเขียนในทราฟฟิกแบบ burst หรือ ทราฟฟิกที่มีการนำกลับมาใช้น้อย
- ใช้พารามิเตอร์ระดับโมเดลเป็นค่าพื้นฐาน และเอเจนต์เฉพาะสามารถเขียนทับแยกได้ด้วย
-
หมายเหตุเกี่ยวกับ Bedrock Claude
- โมเดล Anthropic Claude บน Bedrock
amazon-bedrock/*anthropic.claude*รองรับการส่งต่อcacheRetentionเมื่อมีการตั้งค่าไว้ - โมเดล Bedrock ที่ไม่ใช่ Anthropic จะถูกบังคับเป็น
cacheRetention: "none"ระหว่างรัน - ค่าปริยายอัจฉริยะที่อิงจาก Anthropic API key จะใช้
cacheRetention: "short"กับการอ้างอิง Claude-on-Bedrock ด้วยเช่นกันเมื่อไม่มีการระบุค่าแบบชัดเจน
- โมเดล Anthropic Claude บน Bedrock
หน้าต่าง context 1M
- 1M context window ของ Anthropic เป็นฟีเจอร์ที่ถูกจำกัดในสถานะเบต้า และใน OpenClaw สามารถเปิดใช้ได้ด้วย
params.context1m: trueสำหรับแต่ละโมเดล Opus/Sonnet ที่รองรับ - ในตัวอย่างการตั้งค่า ใช้
params.context1m: trueกับโมเดลanthropic/claude-opus-4-6 - OpenClaw จะแมปสิ่งนี้ไปเป็นเฮดเดอร์
anthropic-beta: context-1m-2025-08-07ในคำขอของ Anthropic - ฟีเจอร์นี้จะทำงานเฉพาะเมื่อ
params.context1mของโมเดลนั้นถูกตั้งเป็นtrueอย่างชัดเจนเท่านั้น - เงื่อนไขการใช้งานคือข้อมูลยืนยันตัวตนนั้นต้องได้รับอนุญาตจาก Anthropic ให้ใช้ long-context usage
- ปัจจุบัน Anthropic จะปฏิเสธคำขอเบต้าประเภท
context-1m-*เมื่อใช้การยืนยันตัวตนแบบโทเค็น Anthropic เดิมsk-ant-oat-* - หากตั้งค่า
context1m: trueในโหมดการยืนยันตัวตนแบบเดิม OpenClaw จะบันทึก warning log และ ข้าม beta header ของ context1m แล้วถอยกลับไปใช้หน้าต่าง context มาตรฐาน- เบต้า OAuth ที่จำเป็นยังคงถูกเก็บไว้
Claude CLI backend
- OpenClaw รองรับ Anthropic backend
claude-cliที่มาพร้อมกัน - พนักงานของ Anthropic แจ้งว่าแนวทางการใช้งานนี้ กลับมาได้รับอนุญาตอีกครั้ง
- ดังนั้น OpenClaw จะถือว่า การนำ Claude CLI กลับมาใช้ซ้ำ และการใช้
claude -pเป็นรูปแบบการผสานรวมที่ได้รับอนุญาต จนกว่า Anthropic จะประกาศนโยบายใหม่ - สำหรับโฮสต์เกตเวย์ที่เปิดตลอดเวลาและการควบคุมการคิดค่าบริการฝั่งเซิร์ฟเวอร์อย่างชัดเจน Anthropic API key คือเส้นทางปฏิบัติการที่ชัดเจนที่สุด
- รายละเอียดการตั้งค่าและการรันดูได้ที่พาธ
/gateway/cli-backends
หมายเหตุ
- เอกสารสาธารณะของ Anthropic สำหรับ Claude Code ยังคงอธิบายการใช้ CLI โดยตรงอย่าง
claude -pอยู่ - พนักงานของ Anthropic แจ้งว่า การใช้ Claude CLI ในรูปแบบของ OpenClaw กลับมาได้รับอนุญาตอีกครั้ง และให้ถือว่านี่เป็นแนวทางที่ยืนยันแล้วจนกว่า Anthropic จะประกาศเปลี่ยนนโยบายใหม่
- ใน OpenClaw ยังรองรับ Anthropic setup-token ต่อไปในฐานะเส้นทางการยืนยันตัวตนด้วยโทเค็นที่รองรับ
- อย่างไรก็ตาม หากใช้งานได้ OpenClaw จะให้ความสำคัญกับ การนำ Claude CLI กลับมาใช้ซ้ำ และ
claude -pมากกว่า - รายละเอียดการยืนยันตัวตนและกฎการนำกลับมาใช้ซ้ำดูได้ที่พาธ
/concepts/oauth
การแก้ปัญหา
-
401 errors / token suddenly invalid
- การยืนยันตัวตนด้วยโทเค็น Anthropic อาจหมดอายุหรือถูกเพิกถอนได้
- สำหรับการตั้งค่าใหม่ แนะนำให้ย้ายไปใช้ Anthropic API key
-
No API key found for provider “anthropic”
- การยืนยันตัวตนจะมีผล แยกตามเอเจนต์
- เอเจนต์ใหม่จะไม่สืบทอดคีย์ของเอเจนต์หลัก
- ต้องรัน onboarding ใหม่สำหรับเอเจนต์นั้น หรือกำหนด API key ไว้ที่โฮสต์เกตเวย์แล้วตรวจสอบด้วย
openclaw models status
-
No credentials found for profile
anthropic:default- สามารถตรวจสอบได้ว่าโปรไฟล์การยืนยันตัวตนใดกำลังทำงานอยู่ด้วย
openclaw models status - ต้องรัน onboarding ใหม่ หรือตั้งค่า API key ให้กับพาธของโปรไฟล์นั้น
- สามารถตรวจสอบได้ว่าโปรไฟล์การยืนยันตัวตนใดกำลังทำงานอยู่ด้วย
-
No available auth profile (all in cooldown/unavailable)
- สามารถตรวจสอบ
auth.unusableProfilesได้ในopenclaw models status --json - ช่วง cooldown ของ rate limit ของ Anthropic อาจเป็น ระดับโมเดล ดังนั้นแม้โมเดลปัจจุบันจะอยู่ใน cooldown โมเดล Anthropic อื่นในตระกูลเดียวกันก็อาจยังใช้งานได้
- ต้องเพิ่มโปรไฟล์ Anthropic อื่น หรือรอให้ cooldown สิ้นสุด
- มีพาธเพิ่มเติมคือ
/gateway/troubleshootingและ/help/faq
- สามารถตรวจสอบ
9 ความคิดเห็น
หลังจากทำให้สามารถใช้โมเดลโลคัล gemma4 31b บน codex ด้วย Codex ได้แล้ว (ละเอียดรอบคอบถึงขั้นเช็ก multi-turn ให้เองด้วย!) ผมก็ยกเลิกทุก subscription อื่นนอกจาก ChatGPT Pro ไปหมดเลย พอเอา codex-app-linux มารวมกับสองตัวนี้ ต่อให้รันงานแบบขนานสูงสุดเท่าที่รับรู้ได้ ปริมาณการใช้งานก็ยังเหลือ
ช่วยบอกสเปกฮาร์ดแวร์หน่อยครับ!
ลองรันด้วย 4090 แล้วฉลาดดีอยู่ แต่ถ้าจะใช้งานระยะยาวมันยังไม่ค่อยพอครับ
ผมก็กำลังจะรัน gemma4 แบบโลคัลเหมือนกัน อยากทราบว่าสเปกฮาร์ดแวร์ของคุณประมาณไหนครับ?
พูดตามตรง มันดูน่าอนาถเกินไป...
ผมมองว่านี่ก็แค่ทำชั่วคราว เพราะพยายามจะไม่ให้ผู้ใช้ Pro ใช้ Claude Code แล้วกระแสตอบรับออกมาไม่ดี..
แต่ก็น่าจะดีกว่าถ้าเผลอใช้ผิดแล้วโดนระงับบัญชี เอาเป็นว่าคอยดูก่อนน่าจะดีที่สุด
เคยปวดหัวกับการใช้คีย์ CC OAuth API อยู่พักหนึ่ง สุดท้ายก็ไปปักหลักใช้ Codex เวอร์ชันก่อนหน้าแทนเลย...
จริง ๆ ช่วงนี้ผมก็ปักหลักใช้ Codex ไปแล้วเหมือนกัน.. Claude ใช้โทเค็นหมดเร็วเกินไป
ความคิดเห็นบน Hacker News
ผมคือ Peter จาก OpenClaw, Boris จาก Claude Code พูดไว้สาธารณะบน Twitter ว่า อนุญาตการใช้งานแบบ CLI style ก็เลยเชื่อแนวทางนั้นและลงทุนลงแรงกับการพัฒนาไปเยอะ ตอนใช้งานแบบ cli ก็เปลี่ยนให้ฟีเจอร์ที่กินโทเคนเกินจำเป็นอย่าง heartbeat ถูกปิดเป็นค่าเริ่มต้นด้วย แต่ในความเป็นจริง Anthropic กลับบล็อกบางส่วนของ system prompt อยู่ ทำให้สิ่งที่สื่อสารต่อสาธารณะไม่ตรงกับพฤติกรรมปัจจุบัน ดูคำพูดที่เกี่ยวข้องได้จากที่นี่ พอมีคนเลี่ยงด้วยการเปลี่ยนชื่อเล็กน้อย ดูเหมือนตัว classifier ก็ถูกปรับตามไปด้วย แต่ผมไม่คิดจะเล่นเกม หาทางเลี่ยงข้อจำกัด แบบนั้น เลยกลายเป็นอยู่ในสภาพกึ่งๆ ว่าทางทฤษฎีทำได้ แต่ใช้งานจริงไม่ได้
claude -pไว้ลึกพอสมควร แต่พอมีการเพิ่มแฟลก--bareใหม่ ก็เริ่มดูน่ากังวลเหมือนจะมีการ rug pull ที่ค่อยๆ ดัน-pออกจากผู้ใช้แบบไม่จำกัด เอกสารก็เขียนไว้ด้วยว่า--bareเป็นโหมดที่แนะนำสำหรับสคริปต์และการเรียกผ่าน SDK และในอนาคตจะกลายเป็นค่าเริ่มต้นของ-pด้วย หวังว่าผมจะเข้าใจผิดเอง ไม่ก็ต้องมีคำอธิบายที่ชัดเจนกว่านี้ เอกสารคือ headless docsclaude -pหรือเวิร์กโฟลว์ที่ดีกว่าบน SDK โดยใช้ OAuth token ของตัวเองได้ผมรู้สึกว่าสถานการณ์ตอนนี้มันเป็น โคลนขุ่นๆ ที่มัวไปหมด จริงๆ Anthropic ควรบอกให้ชัดว่าอะไรรองรับ อะไรไม่รองรับ แยกตามสถานะ subscription และจนกว่าจะทำแบบนั้น ผู้ใช้ก็ยากที่จะรู้ว่าตัวเองควรใช้ผลิตภัณฑ์อย่างไร ตอนนี้ผมไม่ได้ใช้ OpenClaw หรือผลิตภัณฑ์คล้ายกันอยู่ด้วยซ้ำ แต่ก็อยากรู้ให้ได้ว่าอะไรทำได้หรือทำไม่ได้ และตอนนี้มันแทบเป็นไปไม่ได้เลย
vibe productทุกวันนี้หลายอย่างโผล่มาเร็วแล้วก็หายไปเร็ว จนความคาดหวังแบบเดิมลดลงไปมากผมคิดว่าประเด็นสำคัญคือพนักงานของ Anthropic ออกมาให้ คำอธิบายที่ขัดกันเอง บน Twitter และยังมีการแก้คำพูดกันไปมา จนยิ่งทำให้สับสนมากขึ้น วันนี้อาจบอกว่าการใช้ Claude CLI แบบ OpenClaw ใช้ได้ แต่พรุ่งนี้อาจมีอัปเดตนโยบายแล้วถอนกลับอีกก็ได้ ความไม่แน่นอนตรงนี้สูงมาก เรื่อง Claude Code ทำให้ Anthropic ดูเป็นบริษัทที่ไว้ใจยาก และถ้าจะรักษาสุขภาพจิตของตัวเองไว้ การย้ายไปผู้ให้บริการรายอื่นอาจดีกว่า
keep your insanityกลับรู้สึกว่าเป็น ถ้อยคำที่ตรงเกินไป จนน่าขำclaude -pให้กลายเป็นกรณีที่ต้องจ่ายเพิ่มแทน เพราะอย่างนั้นผมเลยไม่รู้สึกว่าหน้านี้ขัดแย้งกับประกาศดังกล่าวการเปลี่ยนแปลงนี้กลับมาแล้วตั้งแต่ 2 สัปดาห์ก่อนผ่าน commit และช่วงเวลานั้นก็เกิดขึ้นเพียง 3 วันหลังจากที่ Anthropic บอกว่า OpenClaw ต้องมี ปริมาณการใช้งานเพิ่มเติม ด้วยซ้ำ ถ้าดูจากลำดับเหตุการณ์นี้ มันก็ยากจะมองอย่างจริงจัง แปลกด้วยที่ไม่มีทั้งแถลงการณ์ทางการหรือแม้แต่ Tweet สักอัน บริบทอื่นดูได้ใน ลิงก์ HN
Open-Claw style CLI usageน่าจะหมายถึงแบบหลังมากกว่า และถ้าใช้ข้อมูลรับรอง OAuth นอก Claude Code CLI ก็เข้าใจว่าโครงสร้างคือจะมีการคิดเงินเพิ่มตามราคา API ภายใต้ subscription เดิมclaude -pจะอยู่ในหมวดที่มีค่าใช้จ่ายเพิ่มAnthropic กำลังขึ้นราคา ลดข้อจำกัด และทำให้นโยบายคลุมเครือ เหมือนกำลังเผา goodwill ที่สะสมมาเอง
เพิ่งเซ็นสัญญากับ Amazon ไปไม่นาน เลยทำให้นึกว่าครั้งนี้สุดท้ายอาจเป็นปัญหา ข้อจำกัดด้าน compute อยู่ดี ยังไงก็ตาม แพ็ก Codex เดือนละ 20 ดอลลาร์ที่ผมเคยใช้มีข้อจำกัดต่ำเกินไป จนเอเจนต์ยังแทบทำอะไรไม่ทันก่อนจะต้องส่งต่อให้เอเจนต์ตัวอื่น และตราบใดที่ Anthropic ยังไม่มีประกาศอย่างเป็นทางการ ผมคงขอเฝ้าดูอย่างระวังไปก่อน เพราะไม่อยากเสียบัญชี Max เดือนละ 200 ดอลลาร์ที่ผมใช้อยู่
ตามความเข้าใจของผม ตราบใดที่ยังใช้ไลบรารีหรือเครื่องมือของ Anthropic ก็สามารถใช้ ข้อมูลรับรอง OAuth ได้ เช่น เอา OAuth ไปผูกกับ Claude Agent SDK เพื่อทำต้นแบบเอเจนต์หลายแบบที่ฝัง Claude Code ไว้ภายใต้งบรายเดือนที่คาดการณ์ได้ และมันน่าสนใจมากโดยเฉพาะเวลาจะทำ skill ให้เป็นเครื่องมือหรือแอปแบบ standalone ถ้าจะทำซับซ้อนขึ้น ก็สามารถรัน Claude Code ใน tmux แล้วสื่อสาร I/O กันได้ และ MCP Channels ก็น่าสนใจ เพราะช่วยให้วาง MCP server ไว้ระหว่างแอปกับอินสแตนซ์ Claude Code ที่กำลังรันอยู่เพื่อสื่อสารสองทาง ถึงจะช้า แต่ก็ทำให้เกิดการใช้งานแบบที่ GUI หลุดออกไปจัดการงานที่ง่ายกว่าได้ชั่วคราว แล้วกลับมาโดยไม่เสียบริบทของเซสชัน CLI ซึ่งน่าสนใจมาก
ช่วงสัปดาห์ที่ผ่านมา ผู้ช่วยรองของ OpenClaw ที่ผมใช้กับ Claude เริ่ม สูญเสียบุคลิก และทำงานที่เคยทำได้ดีไม่ได้แล้ว ยอดใช้งานสะสมไปประมาณ 28 ดอลลาร์แล้วหลังจากนั้นก็ไม่เพิ่มอีก เลยไม่แน่ใจว่ามีปัญหาอื่นร่วมด้วยหรือเปล่า แต่สภาพนั้นก็ยังคงอยู่ สุดท้ายผมเบื่อจนใช้ migration script ย้ายประวัติการสนทนาและบุคลิกไปใส่ใน claude code config และด้วยฟีเจอร์ remote exec ใหม่ ผมก็ได้ฟังก์ชันเดิมกลับมาส่วนใหญ่โดยไม่ต้องรับความเสี่ยงเรื่องความไม่เสถียรของเครื่องมือทดลองใหม่ๆ แบบ OpenClaw ความรู้สึกของผมคือ Anthropic น่าจะตั้งใจเพิ่ม แรงเสียดทาน ให้กับฝั่งผู้ใช้สายงานอดิเรกมากพอ จนสุดท้ายย้ายไปใช้โซลูชันของตัวเอง และไม่ว่าอย่างไรทางนั้นก็ดูเป็นตัวเลือกที่ปลอดภัยกว่า
claude -p promptบวก cron มาทำ OpenClaw ขึ้นใหม่ Anthropic จะพอใจไหม หรือบางทีอาจไม่สนใจเพราะจำนวนคนที่ทำได้จริงมีน้อยจนอยู่ในระดับความคลาดเคลื่อนก็ได้ บริบทดูเพิ่มได้จาก โพสต์ HN นี้แค่โครงสร้างที่ OpenClaw พูดว่า
Anthropic บอกว่าโอเคก็ชวนให้ประชดว่า ช่างเป็นสถานการณ์ที่ ชัดเจนราวคริสตัล จริงๆโดยรวมผมค่อนข้างพอใจกับชุด Claude Code + Opus + แพ็ก Max แต่ก็ยังติดใจเรื่องช่วงเวลาที่มันใช้ไม่ได้ ต้นทุน และความเสี่ยงโดนแบนบัญชีอยู่ดี เลยสงสัยว่ามี ชุดทางเลือก ที่ให้ประสบการณ์ใกล้เคียงหรือดีกว่าในราคาถูกกว่าหรือไม่ เห็นหลายคนพูดถึง pi.dev กับ OpenCode ว่าดี และพอลองใช้ OpenCode คู่กับ Mimo V2 pro ก็ถือว่าโอเค ก่อนหน้านี้ตอนที่ยังใช้ฟรีได้ ผมก็เคยใช้ Qwen CLI กับ Gemini CLI และบางทีก็ใช้ Z.ai คู่กับ OpenCode ด้วย อีกอย่างคือมีบางคนบอกว่าจะใช้ Opus สำหรับการวางแผน แล้วโยนงานที่สำคัญน้อยกว่าไปให้โมเดลที่ถูกกว่า แต่ผมไม่ค่อยชอบการคิดเงินตามการใช้งาน เพราะสุดท้ายมันไม่น่าจะถูกกว่า ผมทำงานหลักๆ กับ Python backend และ TypeScript frontend โฮสต์บน Hetzner ใช้ Docker เยอะ และถ้าจำเป็นก็ใช้ k3s ด้วย เลยอยากได้การแชร์ เซ็ตอัปที่ใช้ได้จริง สำหรับสภาพแวดล้อมแบบนี้
ถ้าใช้ prompt caching ไม่ได้ โทเค็นก็น่าจะละลายหายไปเฉย ๆ เลยนะครับ