1 คะแนน โดย GN⁺ 2026-01-23 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • ระหว่างใช้งาน Claude Code CLI เพื่อทำระบบอัตโนมัติสำหรับโปรเจกต์ส่วนตัว บัญชีถูก ปิดใช้งานโดยไม่มีการแจ้งเตือนล่วงหน้า ระหว่างกระบวนการสร้างไฟล์ CLAUDE.md
  • มีการตั้งค่า ลูปทำซ้ำอัตโนมัติ โดยรัน Claude สองอินสแตนซ์แบบขนาน เพื่อให้อีกฝั่งหนึ่งช่วยแก้ข้อผิดพลาดของอีกฝั่ง
  • คาดว่าในไฟล์ที่ Claude สร้างขึ้นมี ประโยคในรูปแบบคำสั่งของระบบ ถูกใส่ซ้ำ ๆ จนระบบตรวจจับ ‘prompt injection’ ทำงาน
  • หลังจากนั้นได้พยายาม ส่งคำขอความช่วยเหลือและอุทธรณ์ แต่ ไม่ได้รับคำตอบใด ๆ เลย และได้รับเพียง ใบแจ้งคืนเงิน
  • ผู้เขียนชี้ให้เห็นผ่านกรณีนี้ว่า การเซ็นเซอร์อัตโนมัติและโครงสร้างการดำเนินงานที่ไม่โปร่งใสของบริการ AI ส่งผลกระทบต่อผู้ใช้อย่างไร

เกิดการปิดใช้งานบัญชี

  • ผู้เขียนซึ่งจ่าย €220 ต่อเดือนเพื่อใช้งาน Claude Code CLI ได้รับข้อผิดพลาด "This organization has been disabled" ระหว่างเรียกใช้ API
    • ข้อผิดพลาดนี้หมายความว่าบัญชีถูกปิดใช้งานแล้ว
  • ในเวลานั้นเขากำลังปรับปรุง เครื่องมือ scaffolding อัตโนมัติ สำหรับโปรเจกต์ส่วนตัว
  • ระหว่างงานดังกล่าว เขาตั้งค่าให้ Claude สร้างและแก้ไขโค้ดโดยอัตโนมัติ และการระงับก็เกิดขึ้นในขั้นตอนนี้

กระบวนการสร้างไฟล์ CLAUDE.md

  • ผู้เขียนขอให้ Claude ทำให้เครื่องมือ scaffolding ของตนใส่ ไฟล์ CLAUDE.md เข้ามาโดยอัตโนมัติเมื่อสร้างโปรเจกต์
    • ภายในไฟล์นี้มีคำแนะนำเกี่ยวกับ เฟรมเวิร์กภายในของตนเอง (boreDOM)
  • มีการรัน Claude สองอินสแตนซ์ (A และ B) แยกกันในเซสชัน tmux
    • Claude A ทำหน้าที่อัปเดตเครื่องมือ ส่วน Claude B ทำงานในโปรเจกต์ใหม่
    • หาก Claude B เกิดข้อผิดพลาด ก็จะส่งข้อผิดพลาดนั้นไปให้ Claude A แก้ไข แล้ววนซ้ำเช่นนี้ต่อไป
  • ระหว่างที่ลูปนี้ทำงานต่อเนื่อง บัญชีก็ถูกปิดใช้งาน

ปฏิกิริยาของ Claude และการตรวจจับของระบบ

  • ระหว่างที่ Claude A แก้ข้อผิดพลาดของ Claude B มีเอาต์พุตผิดปกติเกิดขึ้น เช่น การเขียนคำสั่งเป็น ตัวพิมพ์ใหญ่ทั้งหมด (ALL CAPS)
  • ในไฟล์ CLAUDE.md ที่ถูกสร้างขึ้น มี ประโยคจำนวนมากที่เป็นการสั่งงาน Claude B
  • ผู้เขียนระบุว่าแพตเทิร์นลักษณะนี้อาจทำให้ ระบบความปลอดภัยของ Claude ตีความว่าเป็น ‘prompt injection’
  • อย่างไรก็ตาม ไม่มี คำอธิบายอย่างเป็นทางการ เกี่ยวกับสาเหตุที่แท้จริงของการระงับบัญชี

การติดต่อฝ่ายสนับสนุนและการคืนเงิน

  • ผู้เขียนส่งคำอุทธรณ์ผ่าน แบบฟอร์ม Google Docs แต่ ไม่ได้รับการตอบกลับใด ๆ
  • ต่อมาเขาใช้ความช่วยเหลือจาก LLM อื่นเพื่อ ส่งอีเมลถึงทีมสนับสนุน แต่ก็ ไม่มีแม้แต่ข้อความตอบรับอัตโนมัติ
  • หลายวันต่อมา สิ่งที่ได้รับจาก Anthropic มีเพียง ใบลดหนี้/ใบคืนเงิน (credit note)
    • ผู้เขียนอธิบายว่านี่คือ “การแจ้งฝ่ายเดียว ไม่ใช่การสนทนา”
    • เขาวิพากษ์วิจารณ์ ระบบการกีดกันแบบอัตโนมัติ ด้วยประโยค “It’s not just bad support; it’s automated exclusion.”

ประเด็นปัญหาต่อการดำเนินงานของบริการ AI

  • ผู้เขียนชี้ว่ากรณีนี้สะท้อนว่า การเซ็นเซอร์และการจัดการบัญชีของบริการ AI ขาดความโปร่งใสและเป็นการตัดสินใจฝ่ายเดียว
  • เขากล่าวว่าหากเหตุการณ์เดียวกันนี้เกิดขึ้นบนแพลตฟอร์มอื่น ก็อาจมีความเสี่ยงที่จะถูกตัดการเข้าถึงบริการสำคัญอย่าง อีเมล รูปภาพ และเอกสาร
  • การเซ็นเซอร์ที่เน้น ความปลอดภัยของ AI กำลังแลกมาด้วย ความแม่นยำ และจากมุมมองของผู้ใช้ ระบบการดำเนินงานลักษณะนี้ให้ความรู้สึกเหมือน กล่องดำ
  • หลังจากนั้น เขาวางแผนจะ ปรับโครงสร้างโปรเจกต์ใหม่โดยไม่ใช้ Claude และเปิดตัวเฟรมเวิร์ก boreDOM ใหม่ในฐานะ JS framework ที่มี LLM เป็นศูนย์กลาง
  • ท้ายที่สุด เขาระบุว่าในตอนที่ถูกระงับนั้น Claude เพียงแค่แก้ไขไฟล์ CLAUDE.md ซ้ำไปมา และ ไม่มีการติดต่อเพิ่มเติมจาก Anthropic

1 ความคิดเห็น

 
GN⁺ 2026-01-23
ความคิดเห็นจาก Hacker News
  • ผมก็กำลังทดลองอะไรที่มี โครงสร้างคล้ายกัน อยู่เหมือนกัน ใช้ GLM 4.7 เพราะเรื่องต้นทุน แต่ไม่มีปัญหาอะไร
    จัด Claude หลายตัวเป็นเหมือนโครงสร้างองค์กร ให้มีอินสแตนซ์ Director, EM, Worker ทำงานระยะยาว
    โค้ดทั้งหมดเปิดเป็นโอเพนซอร์สแล้ว → claude-code-orchestrator

  • ผมก็ใช้ อินสแตนซ์ claude-desktop แบบคล้ายกัน โดยต่อเข้ากับเซิร์ฟเวอร์ MCP ส่วนตัวเพื่อสร้าง worker node มาใช้งาน
    อยู่หลายเดือนก็ทำงานได้สมบูรณ์ดี และใช้แชตหลักเหมือนเป็นผู้จัดการโปรเจ็กต์จนสามารถเขียนซอฟต์แวร์ได้จริง (ผมไม่ใช่นักพัฒนา)
    แต่ช่วงหลังมานี้แชตเริ่มค้าง หรือไม่สนใจอินพุต จนไม่เสถียรไปหมด
    ช่องทางซัพพอร์ตก็แทบไม่มีจริง มีแต่บอต AI และต่อให้ขอคุยกับคนก็ไม่มีอีเมลตามมา
    สุดท้ายเลยกลายเป็นว่าเป็น บริการแบบเสียเงินแต่ไม่มีซัพพอร์ตเลย เทคโนโลยีนั้นยอดเยี่ยม แต่ดูเหมือนยังไม่พร้อมด้านบริการลูกค้าโดยสิ้นเชิง
    Grok ก็เป็นทางเลือกได้ แต่ผมไม่อยากใช้มันเด็ดขาด

    • Anthropic โตเร็วเกินไป จนเริ่มเห็นปัญหาหลายอย่าง
      ทั้งบั๊กจอกะพริบในเทอร์มินัล ความไม่เสถียรบนมือถือ อัตราส่งข้อความล้มเหลวของ Claude Code บนเว็บ โดยรวมรู้สึกว่าคุณภาพกำลังลดลง
      ถ้าอุตสาหกรรม AI เข้าสู่ช่วงปรับฐาน เรื่องพวกนี้อาจกลายเป็นจุดที่กระทบหนักได้
    • แอปเดสก์ท็อป มีข้อผิดพลาดบ่อยและไม่เสถียร แต่ Claude Code เสถียรกว่ามาก
      ผมใช้ Claude Code กับงานที่ไม่ใช่โค้ดด้วย
    • บางที บอต AI เองอาจเป็นอนาคตของฝ่ายบริการลูกค้า ก็ได้
      บอตซัพพอร์ตของ Anthropic ก็ทำหน้าที่แบบนั้นอยู่แล้ว และต่อไปบริษัทอื่นก็น่าจะไปทางเดียวกัน
    • คุณบอกว่าไม่ใช่นักพัฒนา เลยอยากรู้ว่าคุณสร้างซอฟต์แวร์แบบไหนอยู่
    • ผมก็ใช้แพลน Max แต่ช่วงไม่กี่วันที่ผ่านมาแทบไม่ได้ใช้เลย
      ผมขอให้ยกตัวอย่างอธิบายเกี่ยวกับ TTRPG แต่มันค้างหลายครั้ง
      ปกติใช้เฉลี่ยวันละ 10 ครั้ง ถ้ายังเป็นแบบนี้ก็คงจะ ยกเลิกการสมัคร
  • ผมก็เคยโดน ระงับบัญชี จาก Claude เมื่อ 1 ปีก่อน
    ตอนสมัครเกิดข้อผิดพลาด แล้วเบอร์โทรก็ถูกผูกไว้จนลองใหม่ไม่ได้
    การซัพพอร์ตก็มีแค่ระดับให้ส่งคำชี้แจงผ่าน Google Form และจนถึงตอนนี้ก็ยังไม่ปลด
    ถึงขั้นเคยทิ้งคำบ่นแบบเดียวกันไว้เมื่อ 11 เดือนก่อน แปลว่ายังโกรธอยู่มาก

  • ทีมของเราก็ใช้โครงสร้างที่แชร์ CLAUDE.md และ HANDOFF.md ให้ Claude หลายอินสแตนซ์ทำงานร่วมกันมาหลายสัปดาห์แล้ว
    มันมีประสิทธิภาพมากสำหรับการ รักษาความต่อเนื่อง ข้ามเซสชัน
    ไม่ชัดเจนว่าการแบนเกิดจากลูป self-modification หรือจากเนื้อหาในพรอมป์ต์
    เพราะไม่มีคำอธิบายชัดเจนเลยไม่รู้ว่าอะไรคือสิ่งต้องห้าม

  • มีการยกคำพูดจาก 《Dune》 ของ Frank Herbert เพื่อเตือนว่า ถ้ามนุษย์ฝากการคิดไว้กับเครื่องจักร สุดท้ายก็จะ ตกอยู่ใต้การครอบงำของคนที่ครอบครองเครื่องจักร

    • ถ้าอย่างนั้นก็มีคำถามว่า ทำไมเรื่องแบบนี้ถึงไม่เกิดขึ้นกับ ไฟฟ้า น้ำ หรืออาหาร
  • ผมก็เคยโดน บล็อกระหว่างทดสอบ Claude Code Web beta ทันทีหลัง GitHub ล่มเมื่อวันที่ 19 พฤศจิกายน
    เขาบอกว่าละเมิด ToS แต่ไม่ได้ให้เหตุผลที่ชัดเจน และบน Reddit ก็มีหลายคนที่เจอปัญหาเดียวกันในช่วงเวลาเดียวกัน
    มันทำให้รู้สึกว่า ความเชื่อถือที่บริษัทสั่งสมมาสามารถพังทลายได้ด้วย การตรวจจับผิดพลาดแบบอัตโนมัติ เพียงครั้งเดียว
    สโลแกนโฆษณาอย่าง “Keep thinking” ฟังดูประชดประชันอย่างประหลาด

    • ถ้าการใช้ LLM ระดับ Frontier กลายเป็นสิ่งจำเป็นขึ้นมา การ ถูกตัดสิทธิ์การเข้าถึงเพียงอย่างเดียวก็อาจทำให้ถูกกีดกันออกจากตลาดแรงงาน ซึ่งน่ากลัวมาก
      สุดท้ายผมคิดว่า LLM แบบเปิดที่รันในเครื่อง จะเข้ามาแทนโมเดลเชิงพาณิชย์ แต่ตัวแปรทางการเมืองก็ยังน่ากังวลอยู่ดี
  • คำว่า ‘disabled organization’ ชวนสับสนมากจนเข้าใจยากว่าเกิดอะไรขึ้นกันแน่

    • จากประสบการณ์ที่เคยรับผิดชอบการแบนผู้ใช้มาก่อน มีหลายกรณีที่คนอาศัย สถานการณ์ที่บริษัทเปิดเผยเหตุผลไม่ได้ มาสร้างเรื่องเล่าว่าตัวเองเป็นเหยื่อ
      เนื้อหาในโพสต์เองก็มีจุดขัดแย้งหลายอย่าง และเหมือนจะอ้างถึง Google แต่ก็ไม่ชัดว่าหมายถึงอะไร
      ดูแล้วน่าจะมี เหตุผลอื่น ที่ไม่ได้เขียนไว้ในโพสต์แน่ ๆ
    • ผมก็คิดว่าผู้เขียนน่าจะพยายามทำ การฉีดพรอมป์ต์แบบวนลูประหว่าง Claude สองอินสแตนซ์
      ดูไม่เหมือนแค่การทำโปรเจ็กต์สแคฟโฟลดิงธรรมดา
    • ถ้าพูดให้ชัดคือ Claude A แก้ claude.md แล้ว Claude B ก็อ่านไฟล์นั้น
      ถ้า Claude B พลาด ก็จะขอให้ A แก้อีกครั้ง เป็นโครงสร้างแบบนั้น
    • เป็นไปได้ว่า Claude ตัวหนึ่งพยายาม เปลี่ยน system prompt ของอีกตัวหนึ่ง จนไปกระตุ้นคำเตือนตัวพิมพ์ใหญ่
      การผสมกันแบบนี้น่าจะไปชนกับ ระบบตรวจจับความปลอดภัย จนโดนแบน
    • เดิมที CLAUDE.md ใช้ปรับแต่งพฤติกรรมของเอเจนต์ได้ แต่ OP เอากระบวนการนั้นไป ทำให้เป็นอัตโนมัติด้วยเอเจนต์อีกตัว
      ตัวที่ทำหน้าที่ปรับแต่งอาจมีพฤติกรรมบีบบังคับเกินไปจนเกิดความขัดแย้ง และสุดท้ายก็น่าจะนำไปสู่การแบน
  • ผมก็เคยมีประสบการณ์คล้ายกันกับผู้ให้บริการรายอื่น
    พอส่งคำสั่งผ่าน gemini-cli อยู่ประมาณ 3 ชั่วโมง บัญชีก็ถูกปิดใช้งาน และอีกสองวันต่อมา Gmail ก็โดนบล็อกด้วย
    โชคดีที่เป็น บัญชีชั่วคราว เลยไม่ได้เสียหายอะไร

  • ตอนนี้ได้รู้แล้วว่า Anthropic แทบจะ ไม่มีฝ่ายบริการลูกค้าอยู่จริง
    ถ้าเป็นแล็บระดับ Frontier ก็น่าจะทดลองวิธีซัพพอร์ตที่ล้ำสมัยบ้าง แต่กลับไม่เป็นเช่นนั้นเลย
    ถ้า Claude เป็นเครื่องมือที่ยอดเยี่ยมขนาดนี้ ก็น่าเสียดายที่ไม่ได้ ปฏิวัติประสบการณ์ซัพพอร์ต ไปด้วย
    ในระยะยาวมันอาจกลายเป็น ความเสี่ยงเชิงกลยุทธ์ ของ Anthropic เอง
    มันนำไปสู่คำถามว่า “ในเมื่อ Anthropic ยังไม่เชื่อถือ Claude แล้วทำไมเราต้องเชื่อถือมัน?”

    • งานบริการลูกค้านั้น ยากมากกว่าที่คิด
      AI ยังไม่เก่งพอจะมาแทนที่งานส่วนนี้ และอาจเหมาะกับการแทนที่ ผู้จัดการระดับกลาง มากกว่า
    • มันดูเป็นสัญญาณว่า Anthropic เองก็ยังเชื่อถือโมเดลของตัวเองไม่เต็มที่
      เพราะการตัดสินใจอย่างการกู้คืนบัญชีหรือคืนเงินนั้น มีความเสี่ยงต่อการถูกนำไปใช้ในทางที่ผิด สูง
    • ถ้ามีซัพพอร์ต ก็จะก่อให้เกิดความคาดหวัง แต่ถ้าไม่มีตั้งแต่แรก ต่อให้เกิด ความไม่พอใจ ก็มักกระทบรายได้ไม่มากนัก
    • มีคอมมูนิตี้บน Discord อยู่ แต่ใช้นโยบายเข้มงวดแบบ ทำผิดกฎ 2 ครั้งก็แบนถาวร
      สำหรับมือใหม่ถือว่าโหดเกินไป และขาดบรรยากาศแบบ เรียนรู้ร่วมกัน
    • โดยพื้นฐานแล้ว LLM ยังเหมาะแค่กับ งานระดับบริการตัวเอง เท่านั้น
      เพราะปัญหา prompt injection และ hallucination ทำให้ยากจะเอาไปใช้ใน จุดเสียดทานของกระบวนการธุรกิจ
  • บล็อกโพสต์นี้ ขาดความเจาะจง เลยทำให้เชื่อถือได้ยาก
    ถ้าผู้เขียนยกตัวอย่างว่าจริง ๆ ใช้พรอมป์ต์แบบไหนก็คงจะดี
    เลยอดสงสัยไม่ได้ว่าเขาเคยขออะไรที่ เสี่ยงอันตราย หรือเปล่า

    • ตอนท้ายของโพสต์มีลิงก์ไปยังไฟล์คอมมิตที่สร้าง CLAUDE.md
    • ผมก็โดนแบนด้วยเหตุผลคล้ายกัน แต่ ไม่มีคำอธิบายชัดเจนหรือการคืนเงิน
      เป็นแพลน Max ที่ใช้กับหลายโปรเจ็กต์ แต่จนถึงตอนนี้ก็ยังไม่รู้ว่าอะไรคือปัญหา
    • แก่นของปัญหาคือ การไม่มีซัพพอร์ตของบริษัทใหญ่
      ต่อให้บัญชีที่ผูกทั้งอีเมล การชำระเงิน และเบอร์โทรถูกแบน ก็ยัง ไม่มีช่องทางเยียวยาเลย ซึ่งร้ายแรงกว่าอีก
    • SaaS ไม่ได้ใช้งานได้อย่างอิสระเหมือนซอฟต์แวร์ที่รันในเครื่อง
      เพราะมี ข้อกำหนดการใช้งานที่คลุมเครือ จนโดนแบนเมื่อไรก็ได้ ทำให้ผู้ใช้ต้องเซ็นเซอร์ตัวเอง
      เป็นไปได้ว่าปัญหาอาจเกิดจากการพยายามทำอัตโนมัติโดยไม่ใช้ API
    • ในสถานการณ์แบบนี้ มักจะมีปฏิกิริยาแบบ โทษเหยื่อ อยู่เสมอ