1 คะแนน โดย GN⁺ 2026-03-14 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • Claude Opus 4.6 และ Sonnet 4.6 รองรับ หน้าต่างคอนเท็กซ์ 1 ล้านโทเค็น (1M) ภายใต้ราคามาตรฐานแล้ว ทำให้ใช้งานช่วงทั้งหมดได้โดยไม่มีค่าพรีเมียมเพิ่มเติม
  • ราคายังคงใช้อัตราเดิม โดย Opus 4.6 อยู่ที่ $5/$25 และ Sonnet 4.6 อยู่ที่ $3/$15 (คิดตามอินพุต/เอาต์พุต) โดยคำขอขนาด 9K หรือ 900K ก็ถูกคิดค่าบริการในอัตราส่วนเดียวกัน
  • ขยายขีดจำกัดอินพุตสื่อ 6 เท่า ทำให้ประมวลผลภาพหรือหน้า PDF ได้สูงสุด 600 รายการในครั้งเดียว และพร้อมใช้งานทันทีบน Azure Foundry, Google Vertex AI และแพลตฟอร์มอื่น ๆ
  • ผู้ใช้ Claude Code แผน Max, Team และ Enterprise สามารถใช้คอนเท็กซ์ 1M ได้โดยอัตโนมัติ ช่วยลดการบีบอัดเซสชันและเพิ่มความต่อเนื่องของบทสนทนา
  • ถูกมองว่าเป็น ความสามารถที่ช่วยเพิ่มความแม่นยำและประสิทธิภาพ พร้อมคงบริบทยาวที่ซับซ้อนได้ สำหรับงานอย่างโค้ดเบสขนาดใหญ่ สัญญา และล็อกการดำเนินงาน

ภาพรวมการเปิดให้ใช้งานคอนเท็กซ์ 1M ทั่วไป

  • Opus 4.6 และ Sonnet 4.6 ให้บริการหน้าต่างคอนเท็กซ์ 1M บน Claude Platform ในราคามาตรฐาน
    • Opus 4.6 คิดที่ $5 (อินพุต)/$25 (เอาต์พุต) ต่อหนึ่งล้านโทเค็น และ Sonnet 4.6 คิดที่ $3/$15
    • ไม่มีการแบ่งอัตราค่าบริการตามขนาดของคำขอ
  • ยกเลิกค่าพรีเมียมสำหรับคอนเท็กซ์ยาว, และยังคง ปริมาณงานเท่าเดิมในทุกความยาวคอนเท็กซ์
  • เพิ่มขีดจำกัดอินพุตสื่อ 6 เท่า: รองรับภาพหรือหน้า PDF ได้สูงสุด 600 รายการ
  • ไม่ต้องใช้เบต้าเฮดเดอร์ และคำขอที่เกิน 200K โทเค็นจะถูกจัดการให้อัตโนมัติ

การผสานเข้ากับ Claude Code

  • เมื่อใช้ Opus 4.6 ใน แผน Max, Team และ Enterprise ของ Claude Code จะเปิดใช้งานคอนเท็กซ์ 1M ให้อัตโนมัติ
    • ลดการบีบอัดบทสนทนา (compaction) ภายในเซสชัน
    • ก่อนหน้านี้ต้องใช้ปริมาณการใช้งานเพิ่มเติม แต่ตอนนี้รวมอยู่ในแพ็กเกจพื้นฐานแล้ว

ประสิทธิภาพและความแม่นยำของโมเดล

  • Opus 4.6 ทำได้ 78.3% ตามเกณฑ์ MRCR v2 ซึ่งเป็นประสิทธิภาพสูงสุดในบรรดาโมเดลที่มีความยาวคอนเท็กซ์ระดับเดียวกัน
  • แม้ที่คอนเท็กซ์ 1M ก็ยัง คงความแม่นยำและปรับปรุงประสิทธิภาพการค้นคืนข้อมูลในข้อความยาว
  • สามารถประมวลผล โดยคงบริบททั้งหมดไว้ตามเดิม สำหรับโค้ดเบสขนาดใหญ่ สัญญา และล็อกเอเจนต์ระยะยาว
    • รักษาบทสนทนาทั้งหมดไว้ได้โดยไม่ต้องสรุปหรือรีเซ็ตคอนเท็กซ์

กรณีการใช้งานจริง

  • งานวิจัยทางวิทยาศาสตร์: วิเคราะห์แบบบูรณาการทั้งงานวิจัยหลายร้อยฉบับ เฟรมเวิร์กทางคณิตศาสตร์ และโค้ดจำลองได้พร้อมกัน (Alex Wissner-Gross)
  • งานด้านกฎหมาย: เปรียบเทียบสัญญา 100 หน้าหลายเวอร์ชันได้ภายในเซสชันเดียว (Bardia Pourvakil)
  • การวิเคราะห์ระบบปฏิบัติการ: ระหว่างการรับมือเหตุขัดข้อง สามารถคงสัญญาณและสมมติฐานทั้งหมดไว้ได้ในมุมมองเดียว (Mayank Agarwal)
  • งานวิจัย AI และการรีวิวโค้ด: ประมวลผลไฟล์ diff ขนาดใหญ่ได้ในครั้งเดียวเพื่อยกระดับคุณภาพ (Adhyyan Sekhsaria)
  • การวิเคราะห์ข้อมูลและดีบัก: คงรายละเอียดไว้ครบถ้วนโดยไม่สูญหายระหว่างค้นหาใน Datadog, ฐานข้อมูล และซอร์สโค้ด (Anton Biryukov)
  • เพิ่มประสิทธิภาพของเอเจนต์: ลดเหตุการณ์บีบอัดคอนเท็กซ์ลง 15% และยังคงข้อมูลตั้งต้นไว้ได้แม้ในเซสชันที่ยาวนาน (Jon Bell)

แพลตฟอร์มที่รองรับและวิธีเริ่มต้นใช้งาน

  • คอนเท็กซ์ 1M พร้อมใช้งานทันทีบน Claude Platform, Amazon Bedrock, Google Cloud Vertex AI และ Microsoft Foundry
  • ผู้ใช้ Claude Code Max, Team และ Enterprise ที่ใช้ Opus 4.6 จะได้รับ คอนเท็กซ์ 1M เป็นค่าเริ่มต้น
  • รายละเอียดเพิ่มเติมดูได้จากหน้า documentation และ pricing อย่างเป็นทางการ

1 ความคิดเห็น

 
GN⁺ 2026-03-14
ความเห็นจาก Hacker News
  • Opus 4.6 นี่อยู่ในระดับที่ น่าทึ่งมาก
    ไม่ว่าจะโยนงานฝั่งฟรอนต์เอนด์ แบ็กเอนด์ หรืออัลกอริทึมแบบไหนให้ ก็จัดการได้ดี
    ถ้าเริ่มจาก PRD แล้ววางแผนเป็นขั้นตอน จากนั้นค่อย ๆ ทำทีละข้อ ก็จะได้ผลลัพธ์ที่ใช้งานได้จริงภายในไม่กี่ชั่วโมง
    นี่เป็น AI ตัวแรกที่ทำให้คิดว่า “เหมือนมันจะฉลาดกว่าฉัน”
    แถมด้วยเทคโนโลยีตอนนี้ ยังรันเอเจนต์หลายตัวพร้อมกันที่ความเร็ว 1k โทเคนต่อวินาทีได้ด้วย

    • ฉันเองก็อยากได้ประสบการณ์แบบนั้นเหมือนกัน
      ฉันให้ Claude Code ที่ใช้ Opus 4.6 รีแฟกเตอร์โค้ด React โดยเปลี่ยนจาก useState/useEffect → useMemo
      แผนที่มันวางมาดีมาก แต่ในบางส่วนของโค้ดมันเอาการประกาศตัวแปรไปไว้ผิดตำแหน่ง จนเกิดการอ้างอิง undefined
      พอจะให้มันแก้ มันกลับพยายามเปลี่ยนโครงสร้างใหญ่กว่าเดิม สุดท้ายเลยต้องแก้เองด้วยมือ
      ถึงอย่างนั้นโดยรวมก็ยังช่วยประหยัดเวลาได้ แต่ก็เป็นประสบการณ์ที่ น่าหงุดหงิดมาก
    • อยากรู้ว่าคุณกำลังทำอะไรอยู่
      ฉันพยายามใช้ Opus 4.6 สร้าง test harness สำหรับเครื่องมือ diff ฐานข้อมูล แต่ดันไปสร้างเทสต์ของเครื่องมือเก่าที่ไม่เกี่ยวกัน
      โค้ดเทสต์ก็ไม่ได้เรียกใช้ฟังก์ชันจริง แต่ดันไปเขียนลอจิกขึ้นมาเองโดยตรง
      ฉันเสียเวลาไป 4 ชั่วโมงกับเงิน $75 กว่าจะได้ของที่พอรันได้ แต่คุณภาพก็ยังไม่ดี
      ที่บริษัทก็มีคำสั่งให้เพิ่มงบสำหรับการใช้ Claude แต่ทุกคนก็ดูจะเจอปัญหาคล้าย ๆ กัน
      ตอนนี้เอาไปใช้กับ การแก้โค้ดบางส่วนหรือดีบักใน VS Studio ยังมีประสิทธิภาพกว่ามาก
    • ฉันเคยติดอยู่ใน ลูป AI ครั้งหนึ่ง
      เป็นปัญหาคำนวณการสะสมตะกอนในอ่างภูมิประเทศ ซึ่ง Opus เอาแต่พูดคำอธิบายที่ขัดกันเองอยู่สามแบบซ้ำ ๆ
      ลองสามครั้งก็ยังวนอยู่ในลูปเดิม สุดท้ายเลยต้องบังคับให้มันใช้วิธี brute force เพื่อแก้
      ถ้าเป็นคน ป่านนี้คงไม่ติดลูปแบบนี้ตั้งแต่ครั้งที่สองแล้ว
    • สำหรับฉัน Opus 4.6 อยู่ในระดับ AGI แล้ว
      มันไม่ได้แค่ทำตามคำสั่ง แต่ยังเสนอ ไอเดียปรับปรุง ที่เราไม่ได้ขอขึ้นมาเองด้วย
  • แก่นของอัปเดตครั้งนี้คือ คิดค่าบริการมาตรฐานตลอดทั้งหน้าต่าง 1M โทเคน และ รองรับรูปภาพ/หน้า PDF 600 หน้า
    สำหรับผู้ใช้ Claude Code นี่เป็นการเปลี่ยนแปลงครั้งใหญ่

    • ยังสงสัยว่าการใช้หน้าต่าง 1M ให้เต็มนี่มีประโยชน์จริงหรือเปล่า
      สำหรับฉัน การคุมไว้ต่ำกว่า 40% (ราว 80k โทเคน) แบบงานวิจัยของ Dex Horthy ดูเสถียรกว่า
      วิดีโอ “No vibes allowed” อยู่ที่นี่
    • ที่บริษัทมีการใช้ หน้าต่าง 1M กับงานจริงอยู่
      จนถึงราว 700k โทเคนยังโอเค แต่เกินกว่านั้นจะเริ่มรู้สึกว่า ช้าลงและทื่อขึ้น ทีละนิด
      ใช้แบบ pair programming mode จะเสถียรกว่าการปล่อยอัตโนมัติเต็มรูปแบบ
    • ยิ่งคอนเท็กซ์ใหญ่ ค่าอินพุตโทเคนก็ยิ่งสูง
      อินพุต 800k มีต้นทุนมากกว่า 100k ถึง 8 เท่า ดังนั้นถ้าแคชไม่เข้า ก็อาจกลายเป็น บิลค่า API มหาโหด ได้
    • มีคนเล่นมุกว่า “งั้นรูปหนึ่งรูปมีค่าเท่ากับ 1,666 คำเหรอ?”
    • สำหรับฉัน คุณภาพการเขียนโค้ดในหน้าต่าง 1M ลดลงอย่างชัดเจน
      ระหว่างคุยมันลืมบริบทบ่อยมาก
  • มีความเห็นว่า เขียนโค้ดเองตรง ๆ ยังดีกว่า

  • เส้นทางอาชีพของฉันย้ายจาก Python ไป C/C++
    Opus อาจจะ ทำได้ดีกว่าฉันใน Python บางครั้ง แต่ในสาย embedded ยังอยู่แค่ระดับ จูเนียร์
    ท้ายที่สุดฉันคิดว่านี่เป็นปัญหาเรื่อง คุณภาพของข้อมูลฝึก
    เพราะงั้น LLM คงยังไม่มาแทนวิศวกรฮาร์ดแวร์ในเร็ว ๆ นี้

  • ฉันทำ CI check ขึ้นมาเพื่อหยุดปัญหา thrashing ของโค้ดที่ AI เขียน
    เอเจนต์มักจะพยายามแก้เทสต์ที่ล้มเหลวซ้ำไปมา แล้วใส่ import หลอน หรือ API ที่เลิกใช้แล้ว เข้ามา
    เลยรันสแกนเบา ๆ ทุก PR เพื่อจับ แพ็กเกจ npm ที่ไม่มีอยู่จริง หรือ การหลุดออกจากบริบท
    เครื่องมือ static analysis แบบเดิมดูแค่ไวยากรณ์ แต่โค้ดจาก AI มัก ผิดในเชิงความหมาย
    ต่อไปฉันมองว่าการตรวจสอบแบบ อิงความรู้เฉพาะโดเมน จะกลายเป็นสิ่งจำเป็น

  • มีคนถามว่าทำไมประสิทธิภาพถึงตกแถว ๆ 100k โทเคน
    หลายคนมองว่าคอนเท็กซ์ที่ใช้งานได้จริงมีขนาดเล็กกว่านั้น

    • สำหรับฉัน ใน Opus 4.6 แทบ ไม่รู้สึกถึงการตกของประสิทธิภาพ แบบนั้นเลย
      อาจเป็นเพราะยังติดภาพจำจากประสบการณ์เก่าอยู่ก็ได้
    • จากประสบการณ์ของฉัน context rot ยังมีอยู่เหมือนเดิม
      ใช้ 90k โทเคนเมื่อไร ไม่ว่าจะ 100k หรือ 1M ก็แย่ลงคล้ายกัน
      ในโค้ดเบสขนาดใหญ่ คุณภาพของพรอมป์ต์ คือหัวใจสำคัญ
    • ฉันคิดว่ากราฟ benchmark ก็ตอบ คำถามนั้นเองอยู่แล้ว
    • เนื่องจากความซับซ้อนของ attention ใน Transformer เพิ่มขึ้นเป็นกำลังสองตามขนาดคอนเท็กซ์
      การประมวลผล 1M โทเคนจึงต้องใช้ เทคนิคประมาณค่า หลายอย่าง และนั่นอาจเป็นสาเหตุของประสิทธิภาพที่ลดลง
  • ใน Claude Code 2.1.75 ความต่างระหว่าง Opus ปกติกับ Opus 1M หายไปแล้ว
    ในแพ็กเกจ Pro ก็ดูเหมือนจะเป็นแบบนั้น แต่ความจริงยังมีข้อจำกัดอยู่
    ดูเหมือน Anthropic จะวางกลยุทธ์ตอบโต้การแข่งขันหน้าต่าง 1M ของ GPT 5.4

    • ใน Max 20x ยังแยกเป็นคนละโมเดลอยู่
    • ใน Pro ก็ยัง คิดเงินเพิ่มสำหรับคอนเท็กซ์ 1M อยู่ดี
  • นโยบายราคาของ Claude ดูแปลก ๆ
    แพ็กเกจ 5X มีราคาแพงกว่าแพ็กเกจก่อนหน้าพอดี 5 เท่า
    ปกติซื้อเยอะก็น่าจะได้ส่วนลด แต่ที่นี่ไม่มี

    • Anthropic ตอนนี้ ดีมานด์มากกว่าซัพพลาย อยู่แล้ว จึงไม่จำเป็นต้องจูงใจให้คนใช้มากขึ้น
      ดูเหมือนบริษัทจะคิดว่ามีผู้ใช้ 5 คนแบ่งกันใช้ น่าจะดีกว่าให้ผู้ใช้คนเดียวใช้เพิ่ม 5 เท่า
    • แพ็กเกจ 5X เป็นแค่ตัวล่อ และจริง ๆ แล้วเป็นกลยุทธ์เพื่อขาย แพ็กเกจ 20x
    • มีคนเล่นมุกว่า “เดี๋ยวก็คงไปชดเชยเอาจากปริมาณ”
    • บางคนก็มองว่าทั้งสองแพ็กเกจยังเป็น ดีลที่ดีเพราะมีการอุดหนุนราคา
  • วันนี้ลองใช้แล้ว รู้สึกว่าเป็น ความเปลี่ยนแปลงที่น่าสนใจมาก
    ตอนนี้สามารถยัด เซสชันซับเอเจนต์แบบขนานหลายตัว ไว้ในมาสเตอร์เซสชันเดียวได้
    แม้จะบอกว่า Opus 1M ใกล้เคียงกับ GPT 5.4 ระดับ 256k แต่แทบไม่เจอปัญหาคุณภาพตก
    อย่างน้อยก็ไม่ได้ดรอปฮวบแบบโมเดล q4 ’25

    • ฉันใช้ Sonnet 4.5 1M บ่อย และประสิทธิภาพใกล้กัน แต่ เร็วกว่าเยอะมาก
      น่าจะเพราะมันใช้โทเคนอย่างเต็มที่โดยไม่ค่อยประหยัด
    • มีคนถามว่าเป็นการจ่ายเองหรือบริษัทจ่ายให้
      ซึ่งบริษัทของเขารองรับแค่ GitHub Copilot
  • มีคนถามว่าเซสชันยาว ๆ ทำให้ งบโทเคนหมดเร็ว หรือไม่
    เพราะยิ่งคุยนาน ก็ยิ่งต้องส่งบริบทก่อนหน้ากลับไปซ้ำเรื่อย ๆ

    • ใช่ ต่อให้ใช้แคช ถ้ามี 800k โทเคนก็ยังตกประมาณ $0.40 ต่อคำขอ และสะสมเร็วมาก
      ถ้าเรียกใช้เครื่องมือถี่ ๆ อาจโดนคิดเงินหลายครั้งต่อนาที
    • ถ้าใช้ context caching ให้ดี ก็ช่วยลดค่าใช้จ่ายได้มาก
      แคชได้สูงสุดถึง 900k โทเคน