- Claude Opus 4.6 และ Sonnet 4.6 รองรับ หน้าต่างคอนเท็กซ์ 1 ล้านโทเค็น (1M) ภายใต้ราคามาตรฐานแล้ว ทำให้ใช้งานช่วงทั้งหมดได้โดยไม่มีค่าพรีเมียมเพิ่มเติม
- ราคายังคงใช้อัตราเดิม โดย Opus 4.6 อยู่ที่ $5/$25 และ Sonnet 4.6 อยู่ที่ $3/$15 (คิดตามอินพุต/เอาต์พุต) โดยคำขอขนาด 9K หรือ 900K ก็ถูกคิดค่าบริการในอัตราส่วนเดียวกัน
- ขยายขีดจำกัดอินพุตสื่อ 6 เท่า ทำให้ประมวลผลภาพหรือหน้า PDF ได้สูงสุด 600 รายการในครั้งเดียว และพร้อมใช้งานทันทีบน Azure Foundry, Google Vertex AI และแพลตฟอร์มอื่น ๆ
- ผู้ใช้ Claude Code แผน Max, Team และ Enterprise สามารถใช้คอนเท็กซ์ 1M ได้โดยอัตโนมัติ ช่วยลดการบีบอัดเซสชันและเพิ่มความต่อเนื่องของบทสนทนา
- ถูกมองว่าเป็น ความสามารถที่ช่วยเพิ่มความแม่นยำและประสิทธิภาพ พร้อมคงบริบทยาวที่ซับซ้อนได้ สำหรับงานอย่างโค้ดเบสขนาดใหญ่ สัญญา และล็อกการดำเนินงาน
ภาพรวมการเปิดให้ใช้งานคอนเท็กซ์ 1M ทั่วไป
- Opus 4.6 และ Sonnet 4.6 ให้บริการหน้าต่างคอนเท็กซ์ 1M บน Claude Platform ในราคามาตรฐาน
- Opus 4.6 คิดที่ $5 (อินพุต)/$25 (เอาต์พุต) ต่อหนึ่งล้านโทเค็น และ Sonnet 4.6 คิดที่ $3/$15
- ไม่มีการแบ่งอัตราค่าบริการตามขนาดของคำขอ
- ยกเลิกค่าพรีเมียมสำหรับคอนเท็กซ์ยาว, และยังคง ปริมาณงานเท่าเดิมในทุกความยาวคอนเท็กซ์
- เพิ่มขีดจำกัดอินพุตสื่อ 6 เท่า: รองรับภาพหรือหน้า PDF ได้สูงสุด 600 รายการ
- ไม่ต้องใช้เบต้าเฮดเดอร์ และคำขอที่เกิน 200K โทเค็นจะถูกจัดการให้อัตโนมัติ
การผสานเข้ากับ Claude Code
- เมื่อใช้ Opus 4.6 ใน แผน Max, Team และ Enterprise ของ Claude Code จะเปิดใช้งานคอนเท็กซ์ 1M ให้อัตโนมัติ
- ลดการบีบอัดบทสนทนา (compaction) ภายในเซสชัน
- ก่อนหน้านี้ต้องใช้ปริมาณการใช้งานเพิ่มเติม แต่ตอนนี้รวมอยู่ในแพ็กเกจพื้นฐานแล้ว
ประสิทธิภาพและความแม่นยำของโมเดล
- Opus 4.6 ทำได้ 78.3% ตามเกณฑ์ MRCR v2 ซึ่งเป็นประสิทธิภาพสูงสุดในบรรดาโมเดลที่มีความยาวคอนเท็กซ์ระดับเดียวกัน
- แม้ที่คอนเท็กซ์ 1M ก็ยัง คงความแม่นยำและปรับปรุงประสิทธิภาพการค้นคืนข้อมูลในข้อความยาว
- สามารถประมวลผล โดยคงบริบททั้งหมดไว้ตามเดิม สำหรับโค้ดเบสขนาดใหญ่ สัญญา และล็อกเอเจนต์ระยะยาว
- รักษาบทสนทนาทั้งหมดไว้ได้โดยไม่ต้องสรุปหรือรีเซ็ตคอนเท็กซ์
กรณีการใช้งานจริง
- งานวิจัยทางวิทยาศาสตร์: วิเคราะห์แบบบูรณาการทั้งงานวิจัยหลายร้อยฉบับ เฟรมเวิร์กทางคณิตศาสตร์ และโค้ดจำลองได้พร้อมกัน (Alex Wissner-Gross)
- งานด้านกฎหมาย: เปรียบเทียบสัญญา 100 หน้าหลายเวอร์ชันได้ภายในเซสชันเดียว (Bardia Pourvakil)
- การวิเคราะห์ระบบปฏิบัติการ: ระหว่างการรับมือเหตุขัดข้อง สามารถคงสัญญาณและสมมติฐานทั้งหมดไว้ได้ในมุมมองเดียว (Mayank Agarwal)
- งานวิจัย AI และการรีวิวโค้ด: ประมวลผลไฟล์ diff ขนาดใหญ่ได้ในครั้งเดียวเพื่อยกระดับคุณภาพ (Adhyyan Sekhsaria)
- การวิเคราะห์ข้อมูลและดีบัก: คงรายละเอียดไว้ครบถ้วนโดยไม่สูญหายระหว่างค้นหาใน Datadog, ฐานข้อมูล และซอร์สโค้ด (Anton Biryukov)
- เพิ่มประสิทธิภาพของเอเจนต์: ลดเหตุการณ์บีบอัดคอนเท็กซ์ลง 15% และยังคงข้อมูลตั้งต้นไว้ได้แม้ในเซสชันที่ยาวนาน (Jon Bell)
แพลตฟอร์มที่รองรับและวิธีเริ่มต้นใช้งาน
- คอนเท็กซ์ 1M พร้อมใช้งานทันทีบน Claude Platform, Amazon Bedrock, Google Cloud Vertex AI และ Microsoft Foundry
- ผู้ใช้ Claude Code Max, Team และ Enterprise ที่ใช้ Opus 4.6 จะได้รับ คอนเท็กซ์ 1M เป็นค่าเริ่มต้น
- รายละเอียดเพิ่มเติมดูได้จากหน้า documentation และ pricing อย่างเป็นทางการ
1 ความคิดเห็น
ความเห็นจาก Hacker News
Opus 4.6 นี่อยู่ในระดับที่ น่าทึ่งมาก
ไม่ว่าจะโยนงานฝั่งฟรอนต์เอนด์ แบ็กเอนด์ หรืออัลกอริทึมแบบไหนให้ ก็จัดการได้ดี
ถ้าเริ่มจาก PRD แล้ววางแผนเป็นขั้นตอน จากนั้นค่อย ๆ ทำทีละข้อ ก็จะได้ผลลัพธ์ที่ใช้งานได้จริงภายในไม่กี่ชั่วโมง
นี่เป็น AI ตัวแรกที่ทำให้คิดว่า “เหมือนมันจะฉลาดกว่าฉัน”
แถมด้วยเทคโนโลยีตอนนี้ ยังรันเอเจนต์หลายตัวพร้อมกันที่ความเร็ว 1k โทเคนต่อวินาทีได้ด้วย
ฉันให้ Claude Code ที่ใช้ Opus 4.6 รีแฟกเตอร์โค้ด React โดยเปลี่ยนจาก useState/useEffect → useMemo
แผนที่มันวางมาดีมาก แต่ในบางส่วนของโค้ดมันเอาการประกาศตัวแปรไปไว้ผิดตำแหน่ง จนเกิดการอ้างอิง undefined
พอจะให้มันแก้ มันกลับพยายามเปลี่ยนโครงสร้างใหญ่กว่าเดิม สุดท้ายเลยต้องแก้เองด้วยมือ
ถึงอย่างนั้นโดยรวมก็ยังช่วยประหยัดเวลาได้ แต่ก็เป็นประสบการณ์ที่ น่าหงุดหงิดมาก
ฉันพยายามใช้ Opus 4.6 สร้าง test harness สำหรับเครื่องมือ diff ฐานข้อมูล แต่ดันไปสร้างเทสต์ของเครื่องมือเก่าที่ไม่เกี่ยวกัน
โค้ดเทสต์ก็ไม่ได้เรียกใช้ฟังก์ชันจริง แต่ดันไปเขียนลอจิกขึ้นมาเองโดยตรง
ฉันเสียเวลาไป 4 ชั่วโมงกับเงิน $75 กว่าจะได้ของที่พอรันได้ แต่คุณภาพก็ยังไม่ดี
ที่บริษัทก็มีคำสั่งให้เพิ่มงบสำหรับการใช้ Claude แต่ทุกคนก็ดูจะเจอปัญหาคล้าย ๆ กัน
ตอนนี้เอาไปใช้กับ การแก้โค้ดบางส่วนหรือดีบักใน VS Studio ยังมีประสิทธิภาพกว่ามาก
เป็นปัญหาคำนวณการสะสมตะกอนในอ่างภูมิประเทศ ซึ่ง Opus เอาแต่พูดคำอธิบายที่ขัดกันเองอยู่สามแบบซ้ำ ๆ
ลองสามครั้งก็ยังวนอยู่ในลูปเดิม สุดท้ายเลยต้องบังคับให้มันใช้วิธี brute force เพื่อแก้
ถ้าเป็นคน ป่านนี้คงไม่ติดลูปแบบนี้ตั้งแต่ครั้งที่สองแล้ว
มันไม่ได้แค่ทำตามคำสั่ง แต่ยังเสนอ ไอเดียปรับปรุง ที่เราไม่ได้ขอขึ้นมาเองด้วย
แก่นของอัปเดตครั้งนี้คือ คิดค่าบริการมาตรฐานตลอดทั้งหน้าต่าง 1M โทเคน และ รองรับรูปภาพ/หน้า PDF 600 หน้า
สำหรับผู้ใช้ Claude Code นี่เป็นการเปลี่ยนแปลงครั้งใหญ่
สำหรับฉัน การคุมไว้ต่ำกว่า 40% (ราว 80k โทเคน) แบบงานวิจัยของ Dex Horthy ดูเสถียรกว่า
วิดีโอ “No vibes allowed” อยู่ที่นี่
จนถึงราว 700k โทเคนยังโอเค แต่เกินกว่านั้นจะเริ่มรู้สึกว่า ช้าลงและทื่อขึ้น ทีละนิด
ใช้แบบ pair programming mode จะเสถียรกว่าการปล่อยอัตโนมัติเต็มรูปแบบ
อินพุต 800k มีต้นทุนมากกว่า 100k ถึง 8 เท่า ดังนั้นถ้าแคชไม่เข้า ก็อาจกลายเป็น บิลค่า API มหาโหด ได้
ระหว่างคุยมันลืมบริบทบ่อยมาก
มีความเห็นว่า เขียนโค้ดเองตรง ๆ ยังดีกว่า
เส้นทางอาชีพของฉันย้ายจาก Python ไป C/C++
Opus อาจจะ ทำได้ดีกว่าฉันใน Python บางครั้ง แต่ในสาย embedded ยังอยู่แค่ระดับ จูเนียร์
ท้ายที่สุดฉันคิดว่านี่เป็นปัญหาเรื่อง คุณภาพของข้อมูลฝึก
เพราะงั้น LLM คงยังไม่มาแทนวิศวกรฮาร์ดแวร์ในเร็ว ๆ นี้
ฉันทำ CI check ขึ้นมาเพื่อหยุดปัญหา thrashing ของโค้ดที่ AI เขียน
เอเจนต์มักจะพยายามแก้เทสต์ที่ล้มเหลวซ้ำไปมา แล้วใส่ import หลอน หรือ API ที่เลิกใช้แล้ว เข้ามา
เลยรันสแกนเบา ๆ ทุก PR เพื่อจับ แพ็กเกจ npm ที่ไม่มีอยู่จริง หรือ การหลุดออกจากบริบท
เครื่องมือ static analysis แบบเดิมดูแค่ไวยากรณ์ แต่โค้ดจาก AI มัก ผิดในเชิงความหมาย
ต่อไปฉันมองว่าการตรวจสอบแบบ อิงความรู้เฉพาะโดเมน จะกลายเป็นสิ่งจำเป็น
มีคนถามว่าทำไมประสิทธิภาพถึงตกแถว ๆ 100k โทเคน
หลายคนมองว่าคอนเท็กซ์ที่ใช้งานได้จริงมีขนาดเล็กกว่านั้น
อาจเป็นเพราะยังติดภาพจำจากประสบการณ์เก่าอยู่ก็ได้
ใช้ 90k โทเคนเมื่อไร ไม่ว่าจะ 100k หรือ 1M ก็แย่ลงคล้ายกัน
ในโค้ดเบสขนาดใหญ่ คุณภาพของพรอมป์ต์ คือหัวใจสำคัญ
การประมวลผล 1M โทเคนจึงต้องใช้ เทคนิคประมาณค่า หลายอย่าง และนั่นอาจเป็นสาเหตุของประสิทธิภาพที่ลดลง
ใน Claude Code 2.1.75 ความต่างระหว่าง Opus ปกติกับ Opus 1M หายไปแล้ว
ในแพ็กเกจ Pro ก็ดูเหมือนจะเป็นแบบนั้น แต่ความจริงยังมีข้อจำกัดอยู่
ดูเหมือน Anthropic จะวางกลยุทธ์ตอบโต้การแข่งขันหน้าต่าง 1M ของ GPT 5.4
นโยบายราคาของ Claude ดูแปลก ๆ
แพ็กเกจ 5X มีราคาแพงกว่าแพ็กเกจก่อนหน้าพอดี 5 เท่า
ปกติซื้อเยอะก็น่าจะได้ส่วนลด แต่ที่นี่ไม่มี
ดูเหมือนบริษัทจะคิดว่ามีผู้ใช้ 5 คนแบ่งกันใช้ น่าจะดีกว่าให้ผู้ใช้คนเดียวใช้เพิ่ม 5 เท่า
วันนี้ลองใช้แล้ว รู้สึกว่าเป็น ความเปลี่ยนแปลงที่น่าสนใจมาก
ตอนนี้สามารถยัด เซสชันซับเอเจนต์แบบขนานหลายตัว ไว้ในมาสเตอร์เซสชันเดียวได้
แม้จะบอกว่า Opus 1M ใกล้เคียงกับ GPT 5.4 ระดับ 256k แต่แทบไม่เจอปัญหาคุณภาพตก
อย่างน้อยก็ไม่ได้ดรอปฮวบแบบโมเดล q4 ’25
น่าจะเพราะมันใช้โทเคนอย่างเต็มที่โดยไม่ค่อยประหยัด
ซึ่งบริษัทของเขารองรับแค่ GitHub Copilot
มีคนถามว่าเซสชันยาว ๆ ทำให้ งบโทเคนหมดเร็ว หรือไม่
เพราะยิ่งคุยนาน ก็ยิ่งต้องส่งบริบทก่อนหน้ากลับไปซ้ำเรื่อย ๆ
ถ้าเรียกใช้เครื่องมือถี่ ๆ อาจโดนคิดเงินหลายครั้งต่อนาที
แคชได้สูงสุดถึง 900k โทเคน