- ระหว่างใช้งาน Claude Code CLI เพื่อทำระบบอัตโนมัติสำหรับโปรเจกต์ส่วนตัว บัญชีถูก ปิดใช้งานโดยไม่มีการแจ้งเตือนล่วงหน้า ระหว่างกระบวนการสร้างไฟล์
CLAUDE.md
- มีการตั้งค่า ลูปทำซ้ำอัตโนมัติ โดยรัน Claude สองอินสแตนซ์แบบขนาน เพื่อให้อีกฝั่งหนึ่งช่วยแก้ข้อผิดพลาดของอีกฝั่ง
- คาดว่าในไฟล์ที่ Claude สร้างขึ้นมี ประโยคในรูปแบบคำสั่งของระบบ ถูกใส่ซ้ำ ๆ จนระบบตรวจจับ ‘prompt injection’ ทำงาน
- หลังจากนั้นได้พยายาม ส่งคำขอความช่วยเหลือและอุทธรณ์ แต่ ไม่ได้รับคำตอบใด ๆ เลย และได้รับเพียง ใบแจ้งคืนเงิน
- ผู้เขียนชี้ให้เห็นผ่านกรณีนี้ว่า การเซ็นเซอร์อัตโนมัติและโครงสร้างการดำเนินงานที่ไม่โปร่งใสของบริการ AI ส่งผลกระทบต่อผู้ใช้อย่างไร
เกิดการปิดใช้งานบัญชี
- ผู้เขียนซึ่งจ่าย €220 ต่อเดือนเพื่อใช้งาน Claude Code CLI ได้รับข้อผิดพลาด
"This organization has been disabled" ระหว่างเรียกใช้ API
- ข้อผิดพลาดนี้หมายความว่าบัญชีถูกปิดใช้งานแล้ว
- ในเวลานั้นเขากำลังปรับปรุง เครื่องมือ scaffolding อัตโนมัติ สำหรับโปรเจกต์ส่วนตัว
- ระหว่างงานดังกล่าว เขาตั้งค่าให้ Claude สร้างและแก้ไขโค้ดโดยอัตโนมัติ และการระงับก็เกิดขึ้นในขั้นตอนนี้
กระบวนการสร้างไฟล์ CLAUDE.md
- ผู้เขียนขอให้ Claude ทำให้เครื่องมือ scaffolding ของตนใส่ ไฟล์
CLAUDE.md เข้ามาโดยอัตโนมัติเมื่อสร้างโปรเจกต์
- ภายในไฟล์นี้มีคำแนะนำเกี่ยวกับ เฟรมเวิร์กภายในของตนเอง (boreDOM)
- มีการรัน Claude สองอินสแตนซ์ (A และ B) แยกกันในเซสชัน
tmux
- Claude A ทำหน้าที่อัปเดตเครื่องมือ ส่วน Claude B ทำงานในโปรเจกต์ใหม่
- หาก Claude B เกิดข้อผิดพลาด ก็จะส่งข้อผิดพลาดนั้นไปให้ Claude A แก้ไข แล้ววนซ้ำเช่นนี้ต่อไป
- ระหว่างที่ลูปนี้ทำงานต่อเนื่อง บัญชีก็ถูกปิดใช้งาน
ปฏิกิริยาของ Claude และการตรวจจับของระบบ
- ระหว่างที่ Claude A แก้ข้อผิดพลาดของ Claude B มีเอาต์พุตผิดปกติเกิดขึ้น เช่น การเขียนคำสั่งเป็น ตัวพิมพ์ใหญ่ทั้งหมด (ALL CAPS)
- ในไฟล์
CLAUDE.md ที่ถูกสร้างขึ้น มี ประโยคจำนวนมากที่เป็นการสั่งงาน Claude B
- ผู้เขียนระบุว่าแพตเทิร์นลักษณะนี้อาจทำให้ ระบบความปลอดภัยของ Claude ตีความว่าเป็น ‘prompt injection’
- อย่างไรก็ตาม ไม่มี คำอธิบายอย่างเป็นทางการ เกี่ยวกับสาเหตุที่แท้จริงของการระงับบัญชี
การติดต่อฝ่ายสนับสนุนและการคืนเงิน
- ผู้เขียนส่งคำอุทธรณ์ผ่าน แบบฟอร์ม Google Docs แต่ ไม่ได้รับการตอบกลับใด ๆ
- ต่อมาเขาใช้ความช่วยเหลือจาก LLM อื่นเพื่อ ส่งอีเมลถึงทีมสนับสนุน แต่ก็ ไม่มีแม้แต่ข้อความตอบรับอัตโนมัติ
- หลายวันต่อมา สิ่งที่ได้รับจาก Anthropic มีเพียง ใบลดหนี้/ใบคืนเงิน (credit note)
- ผู้เขียนอธิบายว่านี่คือ “การแจ้งฝ่ายเดียว ไม่ใช่การสนทนา”
- เขาวิพากษ์วิจารณ์ ระบบการกีดกันแบบอัตโนมัติ ด้วยประโยค “It’s not just bad support; it’s automated exclusion.”
ประเด็นปัญหาต่อการดำเนินงานของบริการ AI
- ผู้เขียนชี้ว่ากรณีนี้สะท้อนว่า การเซ็นเซอร์และการจัดการบัญชีของบริการ AI ขาดความโปร่งใสและเป็นการตัดสินใจฝ่ายเดียว
- เขากล่าวว่าหากเหตุการณ์เดียวกันนี้เกิดขึ้นบนแพลตฟอร์มอื่น ก็อาจมีความเสี่ยงที่จะถูกตัดการเข้าถึงบริการสำคัญอย่าง อีเมล รูปภาพ และเอกสาร
- การเซ็นเซอร์ที่เน้น ความปลอดภัยของ AI กำลังแลกมาด้วย ความแม่นยำ และจากมุมมองของผู้ใช้ ระบบการดำเนินงานลักษณะนี้ให้ความรู้สึกเหมือน กล่องดำ
- หลังจากนั้น เขาวางแผนจะ ปรับโครงสร้างโปรเจกต์ใหม่โดยไม่ใช้ Claude และเปิดตัวเฟรมเวิร์ก boreDOM ใหม่ในฐานะ JS framework ที่มี LLM เป็นศูนย์กลาง
- ท้ายที่สุด เขาระบุว่าในตอนที่ถูกระงับนั้น Claude เพียงแค่แก้ไขไฟล์
CLAUDE.md ซ้ำไปมา และ ไม่มีการติดต่อเพิ่มเติมจาก Anthropic
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
ผมก็กำลังทดลองอะไรที่มี โครงสร้างคล้ายกัน อยู่เหมือนกัน ใช้ GLM 4.7 เพราะเรื่องต้นทุน แต่ไม่มีปัญหาอะไร
จัด Claude หลายตัวเป็นเหมือนโครงสร้างองค์กร ให้มีอินสแตนซ์ Director, EM, Worker ทำงานระยะยาว
โค้ดทั้งหมดเปิดเป็นโอเพนซอร์สแล้ว → claude-code-orchestrator
ผมก็ใช้ อินสแตนซ์ claude-desktop แบบคล้ายกัน โดยต่อเข้ากับเซิร์ฟเวอร์ MCP ส่วนตัวเพื่อสร้าง worker node มาใช้งาน
อยู่หลายเดือนก็ทำงานได้สมบูรณ์ดี และใช้แชตหลักเหมือนเป็นผู้จัดการโปรเจ็กต์จนสามารถเขียนซอฟต์แวร์ได้จริง (ผมไม่ใช่นักพัฒนา)
แต่ช่วงหลังมานี้แชตเริ่มค้าง หรือไม่สนใจอินพุต จนไม่เสถียรไปหมด
ช่องทางซัพพอร์ตก็แทบไม่มีจริง มีแต่บอต AI และต่อให้ขอคุยกับคนก็ไม่มีอีเมลตามมา
สุดท้ายเลยกลายเป็นว่าเป็น บริการแบบเสียเงินแต่ไม่มีซัพพอร์ตเลย เทคโนโลยีนั้นยอดเยี่ยม แต่ดูเหมือนยังไม่พร้อมด้านบริการลูกค้าโดยสิ้นเชิง
Grok ก็เป็นทางเลือกได้ แต่ผมไม่อยากใช้มันเด็ดขาด
ทั้งบั๊กจอกะพริบในเทอร์มินัล ความไม่เสถียรบนมือถือ อัตราส่งข้อความล้มเหลวของ Claude Code บนเว็บ โดยรวมรู้สึกว่าคุณภาพกำลังลดลง
ถ้าอุตสาหกรรม AI เข้าสู่ช่วงปรับฐาน เรื่องพวกนี้อาจกลายเป็นจุดที่กระทบหนักได้
ผมใช้ Claude Code กับงานที่ไม่ใช่โค้ดด้วย
บอตซัพพอร์ตของ Anthropic ก็ทำหน้าที่แบบนั้นอยู่แล้ว และต่อไปบริษัทอื่นก็น่าจะไปทางเดียวกัน
ผมขอให้ยกตัวอย่างอธิบายเกี่ยวกับ TTRPG แต่มันค้างหลายครั้ง
ปกติใช้เฉลี่ยวันละ 10 ครั้ง ถ้ายังเป็นแบบนี้ก็คงจะ ยกเลิกการสมัคร
ผมก็เคยโดน ระงับบัญชี จาก Claude เมื่อ 1 ปีก่อน
ตอนสมัครเกิดข้อผิดพลาด แล้วเบอร์โทรก็ถูกผูกไว้จนลองใหม่ไม่ได้
การซัพพอร์ตก็มีแค่ระดับให้ส่งคำชี้แจงผ่าน Google Form และจนถึงตอนนี้ก็ยังไม่ปลด
ถึงขั้นเคยทิ้งคำบ่นแบบเดียวกันไว้เมื่อ 11 เดือนก่อน แปลว่ายังโกรธอยู่มาก
ทีมของเราก็ใช้โครงสร้างที่แชร์ CLAUDE.md และ HANDOFF.md ให้ Claude หลายอินสแตนซ์ทำงานร่วมกันมาหลายสัปดาห์แล้ว
มันมีประสิทธิภาพมากสำหรับการ รักษาความต่อเนื่อง ข้ามเซสชัน
ไม่ชัดเจนว่าการแบนเกิดจากลูป self-modification หรือจากเนื้อหาในพรอมป์ต์
เพราะไม่มีคำอธิบายชัดเจนเลยไม่รู้ว่าอะไรคือสิ่งต้องห้าม
มีการยกคำพูดจาก 《Dune》 ของ Frank Herbert เพื่อเตือนว่า ถ้ามนุษย์ฝากการคิดไว้กับเครื่องจักร สุดท้ายก็จะ ตกอยู่ใต้การครอบงำของคนที่ครอบครองเครื่องจักร
ผมก็เคยโดน บล็อกระหว่างทดสอบ Claude Code Web beta ทันทีหลัง GitHub ล่มเมื่อวันที่ 19 พฤศจิกายน
เขาบอกว่าละเมิด ToS แต่ไม่ได้ให้เหตุผลที่ชัดเจน และบน Reddit ก็มีหลายคนที่เจอปัญหาเดียวกันในช่วงเวลาเดียวกัน
มันทำให้รู้สึกว่า ความเชื่อถือที่บริษัทสั่งสมมาสามารถพังทลายได้ด้วย การตรวจจับผิดพลาดแบบอัตโนมัติ เพียงครั้งเดียว
สโลแกนโฆษณาอย่าง “Keep thinking” ฟังดูประชดประชันอย่างประหลาด
สุดท้ายผมคิดว่า LLM แบบเปิดที่รันในเครื่อง จะเข้ามาแทนโมเดลเชิงพาณิชย์ แต่ตัวแปรทางการเมืองก็ยังน่ากังวลอยู่ดี
คำว่า ‘disabled organization’ ชวนสับสนมากจนเข้าใจยากว่าเกิดอะไรขึ้นกันแน่
เนื้อหาในโพสต์เองก็มีจุดขัดแย้งหลายอย่าง และเหมือนจะอ้างถึง Google แต่ก็ไม่ชัดว่าหมายถึงอะไร
ดูแล้วน่าจะมี เหตุผลอื่น ที่ไม่ได้เขียนไว้ในโพสต์แน่ ๆ
ดูไม่เหมือนแค่การทำโปรเจ็กต์สแคฟโฟลดิงธรรมดา
claude.mdแล้ว Claude B ก็อ่านไฟล์นั้นถ้า Claude B พลาด ก็จะขอให้ A แก้อีกครั้ง เป็นโครงสร้างแบบนั้น
การผสมกันแบบนี้น่าจะไปชนกับ ระบบตรวจจับความปลอดภัย จนโดนแบน
ตัวที่ทำหน้าที่ปรับแต่งอาจมีพฤติกรรมบีบบังคับเกินไปจนเกิดความขัดแย้ง และสุดท้ายก็น่าจะนำไปสู่การแบน
ผมก็เคยมีประสบการณ์คล้ายกันกับผู้ให้บริการรายอื่น
พอส่งคำสั่งผ่าน gemini-cli อยู่ประมาณ 3 ชั่วโมง บัญชีก็ถูกปิดใช้งาน และอีกสองวันต่อมา Gmail ก็โดนบล็อกด้วย
โชคดีที่เป็น บัญชีชั่วคราว เลยไม่ได้เสียหายอะไร
ตอนนี้ได้รู้แล้วว่า Anthropic แทบจะ ไม่มีฝ่ายบริการลูกค้าอยู่จริง
ถ้าเป็นแล็บระดับ Frontier ก็น่าจะทดลองวิธีซัพพอร์ตที่ล้ำสมัยบ้าง แต่กลับไม่เป็นเช่นนั้นเลย
ถ้า Claude เป็นเครื่องมือที่ยอดเยี่ยมขนาดนี้ ก็น่าเสียดายที่ไม่ได้ ปฏิวัติประสบการณ์ซัพพอร์ต ไปด้วย
ในระยะยาวมันอาจกลายเป็น ความเสี่ยงเชิงกลยุทธ์ ของ Anthropic เอง
มันนำไปสู่คำถามว่า “ในเมื่อ Anthropic ยังไม่เชื่อถือ Claude แล้วทำไมเราต้องเชื่อถือมัน?”
AI ยังไม่เก่งพอจะมาแทนที่งานส่วนนี้ และอาจเหมาะกับการแทนที่ ผู้จัดการระดับกลาง มากกว่า
เพราะการตัดสินใจอย่างการกู้คืนบัญชีหรือคืนเงินนั้น มีความเสี่ยงต่อการถูกนำไปใช้ในทางที่ผิด สูง
สำหรับมือใหม่ถือว่าโหดเกินไป และขาดบรรยากาศแบบ เรียนรู้ร่วมกัน
เพราะปัญหา prompt injection และ hallucination ทำให้ยากจะเอาไปใช้ใน จุดเสียดทานของกระบวนการธุรกิจ
บล็อกโพสต์นี้ ขาดความเจาะจง เลยทำให้เชื่อถือได้ยาก
ถ้าผู้เขียนยกตัวอย่างว่าจริง ๆ ใช้พรอมป์ต์แบบไหนก็คงจะดี
เลยอดสงสัยไม่ได้ว่าเขาเคยขออะไรที่ เสี่ยงอันตราย หรือเปล่า
เป็นแพลน Max ที่ใช้กับหลายโปรเจ็กต์ แต่จนถึงตอนนี้ก็ยังไม่รู้ว่าอะไรคือปัญหา
ต่อให้บัญชีที่ผูกทั้งอีเมล การชำระเงิน และเบอร์โทรถูกแบน ก็ยัง ไม่มีช่องทางเยียวยาเลย ซึ่งร้ายแรงกว่าอีก
เพราะมี ข้อกำหนดการใช้งานที่คลุมเครือ จนโดนแบนเมื่อไรก็ได้ ทำให้ผู้ใช้ต้องเซ็นเซอร์ตัวเอง
เป็นไปได้ว่าปัญหาอาจเกิดจากการพยายามทำอัตโนมัติโดยไม่ใช้ API