OpenAI เปิดตัว GPT-5.5 และ GPT-5.5 Pro บน API
(developers.openai.com)- GPT-5.5 เป็นโมเดลล่าสุดที่ถูกเพิ่มเข้ามาใน Chat Completions API และ Responses API และ GPT-5.5 pro ก็ถูกเพิ่มเข้ามาพร้อมกันในคำขอของ Responses API สำหรับโจทย์ยากที่ได้ประโยชน์จากการประมวลผลที่มากกว่า
- รองรับอย่างกว้างขวางทั้ง หน้าต่างบริบท 1 ล้านโทเค็น, การป้อนภาพ, structured output, function calling, prompt caching, Batch, tool search, computer use ในตัว, hosted shell, apply patch, Skills, MCP และการค้นหาเว็บ
- ค่าเริ่มต้นของ reasoning effort ถูกตั้งเป็น
mediumและเมื่อimage_detailไม่ได้ถูกตั้งค่าหรือเป็นautoก็จะคงพฤติกรรมเดิมไว้ - การแคชของ GPT-5.5 ทำงานได้เฉพาะกับ extended prompt caching เท่านั้น และไม่รองรับ in-memory prompt caching
- แนวทางการเปลี่ยนแปลง API ล่าสุดได้ขยายจากการเปิดตัวโมเดลไปสู่ image, audio, realtime, video และเครื่องมือ agent แล้ว โดยตระกูล GPT-5.5 ถือเป็นหนึ่งในรายการหลักล่าสุดที่ถูกเพิ่มเข้ามา
บันทึกการเปลี่ยนแปลง
- สามารถตรวจสอบ รายการที่จะยุติการรองรับในอนาคต ได้ในหน้าแยกต่างหาก
เมษายน 2026
-
24 เมษายน
- เปิดตัว GPT-5.5 บน Chat Completions API และ Responses API และเพิ่ม GPT-5.5 pro เข้ามาพร้อมกันในคำขอของ Responses API สำหรับโจทย์ยากที่ได้ประโยชน์จากการประมวลผลที่มากกว่า
- GPT-5.5 รองรับหน้าต่างบริบท 1 ล้านโทเค็น, การป้อนภาพ, structured output, function calling, prompt caching, Batch, tool search, computer use ในตัว, hosted shell, apply patch, Skills, MCP และการค้นหาเว็บ
- การเปลี่ยนแปลงสำคัญคือค่าเริ่มต้นของ reasoning effort ถูกตั้งเป็น
medium - เมื่อ
image_detailไม่ได้ถูกตั้งค่าหรือเป็นautoจะใช้พฤติกรรมเดิม - การแคชของ GPT-5.5 ทำงานได้เฉพาะกับ extended prompt caching เท่านั้น และไม่รองรับ in-memory prompt caching
- รายละเอียดเพิ่มเติม: behavioral changes
-
21 เมษายน
- เปิดตัว GPT Image 2 เป็นโมเดลสร้างภาพล่าสุดสำหรับการสร้างและแก้ไขภาพ
- GPT Image 2 รองรับขนาดภาพที่ยืดหยุ่น, การป้อนภาพความเที่ยงตรงสูง, การคิดค่าบริการภาพแบบอิงโทเค็น และการรองรับ Batch API ที่ลดราคา 50%
-
15 เมษายน
- เพิ่มความสามารถใหม่ให้กับ Agents SDK
- สามารถรัน agent ใน sandbox ที่มีการควบคุมได้
- สามารถตรวจสอบและปรับแต่ง harness แบบโอเพนซอร์สได้
- สามารถควบคุมช่วงเวลาการสร้าง memory และตำแหน่งที่จัดเก็บได้
- เพิ่มความสามารถใหม่ให้กับ Agents SDK
มีนาคม 2026
-
17 มีนาคม
- เปิดตัว GPT-5.4 mini และ GPT-5.4 nano บน Chat Completions API และ Responses API
- GPT-5.4 mini มอบประสิทธิภาพระดับ GPT-5.4 ในรูปแบบที่เร็วและมีประสิทธิภาพมากขึ้น เหมาะกับเวิร์กโหลดที่มีปริมาณงานสูง
- GPT-5.4 nano ถูกปรับให้เหมาะกับงานปริมาณมากแบบง่าย ๆ ที่ความเร็วและต้นทุนสำคัญที่สุด
- GPT-5.4 mini รองรับ tool search, computer use ในตัว และ compaction
- GPT-5.4 nano รองรับ compaction แต่ไม่รองรับ tool search และ computer use
-
16 มีนาคม
- slug ของ gpt-5.3-chat-latest ถูกอัปเดตให้ชี้ไปยังโมเดลล่าสุดที่ ChatGPT ใช้งานอยู่ในปัจจุบัน
-
13 มีนาคม
- อัปเดต image encoder เพื่อแก้บั๊กเล็กน้อยที่เกิดขึ้นกับอินพุต
input_imageของ GPT-5.4 - คุณภาพอาจดีขึ้นในบางกรณีการใช้งานด้าน การทำความเข้าใจภาพ
- ไม่จำเป็นต้องดำเนินการเพิ่มเติม
- อัปเดต image encoder เพื่อแก้บั๊กเล็กน้อยที่เกิดขึ้นกับอินพุต
-
12 มีนาคม
- ขยาย Sora API โดยเพิ่ม character reference ที่นำกลับมาใช้ซ้ำได้, การสร้างที่ยาวขึ้นได้สูงสุด
20วินาที, เอาต์พุต1080pสำหรับsora-2-pro, video extension และการรองรับ Batch API สำหรับPOST /v1/videos - การสร้าง
1080pของsora-2-proมีค่าบริการที่$0.70ต่อวินาที - รายละเอียดเพิ่มเติม: video generation guide
- ขยาย Sora API โดยเพิ่ม character reference ที่นำกลับมาใช้ซ้ำได้, การสร้างที่ยาวขึ้นได้สูงสุด
-
อัปเดต 12 มีนาคม
- เพิ่ม
POST /v1/videos/editsสำหรับการแก้ไขวิดีโอเดิม POST /v1/videos/{video_id}/remixเป็นเส้นทางที่ใช้แทนสิ่งนี้ และมีกำหนดยุติการรองรับในอีก6เดือน- รายละเอียดเพิ่มเติม: edit existing videos
- เพิ่ม
-
5 มีนาคม
- เปิดตัว GPT-5.4 บน Chat Completions API และ Responses API และเพิ่ม GPT-5.4 pro เข้าสู่ Responses API สำหรับโจทย์ยากที่ได้ประโยชน์จากการประมวลผลที่มากกว่า
- เปิดตัว tool search ของ Responses API พร้อมกัน เพื่อให้โมเดลสามารถเลื่อนการจัดการ tool surface ขนาดใหญ่ไปจนถึงรันไทม์ เพื่อลดการใช้โทเค็น รักษาประสิทธิภาพแคช และปรับปรุงเวลาแฝง
- เพิ่มการรองรับ computer use ในตัวผ่านเครื่องมือ
computerของ Responses API ให้กับ GPT-5.4 ทำให้สามารถโต้ตอบกับ UI แบบอิงภาพหน้าจอได้ - สำหรับเวิร์กโฟลว์ agent ที่ทำงานยาวนานขึ้น มีการรองรับหน้าต่างบริบท 1 ล้านโทเค็นและ Compaction แบบเนทีฟ
-
3 มีนาคม
- เปิดตัว
gpt-5.3-chat-latestบน Chat Completions API และ Responses API - โมเดลนี้ชี้ไปยังสแนปช็อต GPT-5.3 Instant ที่ ChatGPT ใช้งานอยู่ในปัจจุบัน
- รายละเอียดเพิ่มเติม: gpt-5.3-chat-latest
- เปิดตัว
กุมภาพันธ์ 2026
-
24 กุมภาพันธ์
- ขยายขอบเขตการรองรับ
input_fileเพื่อให้รับไฟล์เอกสาร งานนำเสนอ สเปรดชีต โค้ด และไฟล์ข้อความได้หลากหลายรูปแบบมากขึ้น - รายละเอียดเพิ่มเติม: file inputs
- ขยายขอบเขตการรองรับ
-
24 กุมภาพันธ์ Responses API
- เพิ่ม
phaseใน Responses API - ติดป้ายกำกับข้อความ assistant โดยแยกเป็นคำอธิบายระหว่างทาง
commentaryและคำตอบสุดท้ายfinal_answer - รายละเอียดเพิ่มเติม: phase
- เพิ่ม
-
24 กุมภาพันธ์ gpt-5.3-codex
- เปิดตัว
gpt-5.3-codexบน Responses API - รายละเอียดเพิ่มเติม: gpt-5.3-codex
- เปิดตัว
-
23 กุมภาพันธ์
- เปิดตัว WebSocket mode บน Responses API
- รายละเอียดเพิ่มเติม: websocket mode
-
23 กุมภาพันธ์ โมเดลเสียงและเรียลไทม์
- เปิดตัว
gpt-realtime-1.5บน Realtime API- รายละเอียดเพิ่มเติม: gpt-realtime-1.5
- เปิดตัว
gpt-audio-1.5บน Chat Completions API- รายละเอียดเพิ่มเติม: gpt-audio-1.5
- เปิดตัว
-
10 กุมภาพันธ์ GPT Image Batch
- รองรับ Batch API สำหรับ
gpt-image-1.5,chatgpt-image-latest,gpt-image-1,gpt-image-1-mini
- รองรับ Batch API สำหรับ
-
10 กุมภาพันธ์ gpt-5.2-chat-latest
- อัปเดต slug ของ gpt-5.2-chat-latest ให้ชี้ไปยังโมเดลล่าสุดที่ ChatGPT ใช้อยู่ในปัจจุบัน
-
10 กุมภาพันธ์ compaction
- เปิดตัว server-side compaction บน Responses API
-
10 กุมภาพันธ์ Skills
- เพิ่มการรองรับ Skills ใน Responses API
- รองรับ Skills ทั้งการรันแบบ local และแบบอิง hosted container
-
10 กุมภาพันธ์ Hosted Shell
- เปิดตัวเครื่องมือ Hosted Shell ใหม่ และรองรับระบบเครือข่ายภายในคอนเทนเนอร์ด้วย
-
9 กุมภาพันธ์
- เพิ่มการรองรับคำขอ
application/jsonสำหรับ/v1/images/editsของโมเดล GPT image - คำขอแบบ JSON ใช้การอ้างอิง
image_urlหรือfile_idสำหรับimagesและmaskแบบเลือกได้ แทนการอัปโหลดแบบ multipart
- เพิ่มการรองรับคำขอ
-
3 กุมภาพันธ์
- ปรับแต่ง reasoning stack สำหรับลูกค้า API ทำให้ GPT-5.2 และ GPT-5.2-Codex ทำงานได้เร็วขึ้นประมาณ 40%
- ตัวโมเดลและค่าน้ำหนักของโมเดลไม่มีการเปลี่ยนแปลง
มกราคม 2026
-
15 มกราคม
- ประกาศ Open Responses
- เป็นสเปกโอเพนซอร์สสำหรับอินเทอร์เฟซ LLM แบบทำงานร่วมกันได้ข้ามผู้ให้บริการหลายราย ซึ่งสร้างอยู่บน OpenAI Responses API
-
14 มกราคม
- เปิดตัว
gpt-5.2-codexบน Responses API - GPT-5.2-Codex เป็นรุ่นย่อยของ GPT-5.2 ที่ปรับให้เหมาะกับงานเขียนโค้ดแบบ agentic ใน Codex หรือสภาพแวดล้อมลักษณะใกล้เคียงกัน
- รายละเอียดเพิ่มเติม: gpt-5.2-codex
- เปิดตัว
-
13 มกราคม Realtime SIP
- เพิ่มช่วง IP สำหรับ SIP โดยเฉพาะใน Realtime API
sip.api.openai.comทำ GeoIP routing และส่งทราฟฟิก SIP ไปยังรีเจียนที่ใกล้ที่สุด- รายละเอียดเพิ่มเติม: dedicated SIP IP ranges
-
13 มกราคม อัปเดต slug ของโมเดล
- อัปเดต slug ของ gpt-realtime-mini และ gpt-audio-mini ให้ชี้ไปยังสแนปชอต
2025-12-15 - หากต้องการสแนปชอตของโมเดลก่อนหน้า ให้ใช้
gpt-realtime-mini-2025-10-06และgpt-audio-mini-2025-10-06 - อัปเดต slug ของ sora-2 ให้ชี้ไปยัง
sora-2-2025-12-08 - หากต้องการสแนปชอต
sora-2ก่อนหน้า ให้ใช้sora-2-2025-10-06 - อัปเดต slug ของ
gpt-4o-mini-ttsและgpt-4o-mini-transcribeให้ชี้ไปยังสแนปชอต2025-12-15 - หากต้องการสแนปชอตของโมเดลก่อนหน้า ให้ใช้
gpt-4o-mini-tts-2025-03-20และgpt-4o-mini-transcribe-2025-03-20 - ปัจจุบันแนะนำให้ใช้
gpt-4o-mini-transcribeแทนgpt-4o-transcribeเพื่อผลลัพธ์ที่ดีที่สุด
- อัปเดต slug ของ gpt-realtime-mini และ gpt-audio-mini ให้ชี้ไปยังสแนปชอต
-
9 มกราคม
- แก้ไขปัญหาใน
/v1/images/editsที่gpt-image-1.5และchatgpt-image-latestใช้ high fidelity อย่างผิดพลาด แม้จะตั้งค่าfidelityเป็นlowอย่างชัดเจนแล้ว
- แก้ไขปัญหาใน
ธันวาคม 2025
-
19 ธันวาคม
- เพิ่ม
gpt-image-1.5และchatgpt-image-latestไปยังเครื่องมือสร้างภาพของ Responses API
- เพิ่ม
-
16 ธันวาคม
- เปิดตัว gpt-image-1.5 และ chatgpt-image-latest เป็นโมเดลสร้างภาพขั้นสูงรุ่นล่าสุด
- รายละเอียดเพิ่มเติม: image generation guide
-
15 ธันวาคม
- เปิดตัว audio snapshot แบบระบุวันที่ใหม่ 4 รุ่น
- อัปเดตนี้ช่วยปรับปรุงความน่าเชื่อถือ คุณภาพ และความเที่ยงตรงของเสียงสำหรับแอปพลิเคชันที่ใช้เสียงแบบเรียลไทม์
- รายละเอียดเพิ่มเติม: updates audio models
gpt-realtime-mini-2025-12-15gpt-audio-mini-2025-12-15gpt-4o-mini-transcribe-2025-12-15gpt-4o-mini-tts-2025-12-15- การเปิดตัวครั้งนี้ยังรวมการรองรับ Custom voices สำหรับลูกค้าที่มีสิทธิ์ด้วย
-
11 ธันวาคม GPT-5.2
- เปิดตัว GPT-5.2 เป็นโมเดล flagship รุ่นล่าสุดในตระกูล GPT-5
- ปรับปรุงจาก GPT-5.1 ในด้าน ความฉลาดทั่วไป, การทำตามคำสั่ง, ความแม่นยำและประสิทธิภาพการใช้โทเค็น, มัลติโมดาลิตีโดยเฉพาะด้านวิชัน, การสร้างโค้ดโดยเฉพาะการสร้าง UI ฝั่งฟรอนต์เอนด์, tool calling และการจัดการ context บน API รวมถึงความเข้าใจและการสร้างสเปรดชีต
- เพิ่มระดับ reasoning effort แบบ
xhigh, reasoning summary แบบกระชับ และการจัดการ context แบบใหม่ที่ใช้ compaction
-
11 ธันวาคม client-side compaction
- เปิดตัว client-side compaction
- ในการสนทนาที่ทำงานระยะยาวบน Responses API สามารถลด context ที่ส่งในแต่ละเทิร์นได้ด้วยเอนด์พอยต์
/responses/compact
-
4 ธันวาคม
- เปิดตัว
gpt-5.1-codex-maxบน Responses API - GPT-5.1-Codex เป็นโมเดลโค้ดดิ้งที่ฉลาดที่สุด ซึ่งปรับแต่งมาสำหรับงาน agentic coding ระยะยาว
- รายละเอียดเพิ่มเติม: gpt-5.1-codex-max
- เปิดตัว
พฤศจิกายน 2025
-
20 พฤศจิกายน
- เพิ่มการรองรับการกดปุ่ม DTMF ใน Realtime API
- สามารถรับอีเวนต์ DTMF ได้ระหว่างใช้งาน Realtime sideband connection
- รายละเอียดเพิ่มเติม: dtmf_event_received
-
13 พฤศจิกายน GPT-5.1
- เปิดตัว GPT-5.1 เป็นโมเดล flagship รุ่นล่าสุดในตระกูล GPT-5
- ฝึกมาให้เด่นเป็นพิเศษด้าน steerability, การตอบสนองที่เร็วขึ้นในสถานการณ์ที่ไม่ต้องใช้การคิดมาก, การสร้างโค้ดและกรณีใช้งานด้านการเขียนโค้ด, และ agentic workflow
- GPT-5.1 ใช้การตั้งค่า reasoning แบบ
noneใหม่เป็นค่าเริ่มต้น เพื่อให้ตอบสนองได้รวดเร็วในสถานการณ์ที่ไม่ต้องใช้การคิดมาก - ค่าเริ่มต้นนี้แตกต่างจากค่าเริ่มต้นก่อนหน้าของ GPT-5 ที่เป็น
medium
-
13 พฤศจิกายน RBAC
- เปิดตัว role-based access controls ที่ปรับปรุงแล้ว
- RBAC ช่วยกำหนดได้ว่าใครสามารถทำอะไรได้บ้าง ทั้งในระดับองค์กรและโปรเจกต์ ครอบคลุมทั้ง API และ Dashboard
-
13 พฤศจิกายน GPT-5.1-Codex
- เปิดตัว
gpt-5.1-codexและgpt-5.1-codex-miniบน Responses API - GPT-5.1-Codex เป็นรุ่นย่อยของ GPT-5.1 ที่ปรับแต่งมาสำหรับงาน agentic coding ใน Codex หรือสภาพแวดล้อมที่คล้ายกัน
- รายละเอียดเพิ่มเติม: gpt-5.1-codex
- เปิดตัว
-
13 พฤศจิกายน extended prompt caching
- เปิดตัว extended prompt cache retention
- คงสถานะ cached prefix ให้ active ได้นานขึ้น สูงสุด 24 ชั่วโมง
- เมื่อหน่วยความจำเต็ม จะ offload key/value tensor ไปยัง GPU local storage เพื่อเพิ่มความจุที่ใช้แคชได้อย่างมาก
ตุลาคม 2025
-
29 ตุลาคม
gpt-oss-safeguard-120bและgpt-oss-safeguard-20bเป็นโมเดล safety reasoning ที่สร้างขึ้นบน gpt-oss- รายละเอียดเพิ่มเติม: gpt-oss-safeguard collection
-
24 ตุลาคม
- เปิดตัว Enterprise Key Management (EKM)
- EKM ช่วยให้สามารถเข้ารหัสคอนเทนต์ของลูกค้าภายใน OpenAI โดยใช้คีย์ที่จัดการจาก Key Management System (KMS) ภายนอก
- เปิดตัว UK data residency ด้วย
-
6 ตุลาคม OpenAI DevDay
- เปิดตัวหลายฟีเจอร์ในงาน OpenAI DevDay
- เปิดตัว gpt-5-pro
- ใช้การประมวลผลมากกว่า GPT-5 เพื่อคิดได้ลึกขึ้นและให้คำตอบที่ดีกว่าอย่างสม่ำเสมอ
- เปิดตัว gpt-realtime-mini และ gpt-audio-mini สำหรับประสิทธิภาพ speech-to-speech ที่คุ้มค่าต้นทุนมากขึ้น
- เปิดตัว gpt-image-1-mini สำหรับการสร้างและแก้ไขภาพที่คุ้มค่าต้นทุนมากขึ้น
- เปิดตัว v1/videos สำหรับการสร้างวิดีโอและ remix ที่สมบูรณ์ รายละเอียดสูง และมีความเคลื่อนไหว ด้วยโมเดลล่าสุด Sora 2 และ Sora 2 Pro
- เปิดตัว Agent Builder ที่สามารถสร้าง custom multi-agent workflow แบบภาพได้
- เปิดตัว ChatKit อินเทอร์เฟซแชตแบบฝังตัวสำหรับการนำ agent ไปใช้งาน
- เปิดตัว Trace Evals, Datasets, and Prompt Optimization tools
- เพิ่ม Third-Party Model Support ให้กับ Evals
- เปิดตัว Service health dashboard
-
1 ตุลาคม
- เปิดตัว IP allowlist
- จำกัดให้มีเพียง IP address หรือช่วง IP ที่กำหนดไว้เท่านั้นที่เข้าถึง API ได้
กันยายน 2025
-
26 กันยายน
- รองรับรูปภาพและไฟล์เป็น tool call output ของ Responses API
-
23 กันยายน
- เปิดตัว gpt-5-codex เป็นโมเดลเฉพาะทาง
- สร้างและปรับแต่งมาให้เหมาะกับการใช้งาน Codex CLI
สิงหาคม 2025
-
28 สิงหาคม
- OpenAI Realtime API เปิดให้ใช้งานทั่วไปแล้ว
- รายละเอียดเพิ่มเติม: Realtime API guide
-
21 สิงหาคม
- เพิ่มการรองรับ connectors ใน Responses API
- connector คือ MCP wrapper ที่ OpenAI ดูแลรักษา สำหรับบริการยอดนิยมอย่าง Google apps, Dropbox เป็นต้น และสามารถใช้เพื่อให้โมเดลเข้าถึงข้อมูลแบบอ่านอย่างเดียวที่เก็บอยู่ในบริการเหล่านั้นได้
-
20 สิงหาคม
- เปิดตัว Conversations API
- สามารถสร้างและจัดการบทสนทนาระยะยาวร่วมกับ Responses API ได้
- ดูวิธีย้ายจากการผสานรวม Assistants API ไปยัง Responses และ Conversations พร้อมการเปรียบเทียบแบบเคียงข้างกันได้ใน migration guide
-
7 สิงหาคม
- เปิดตัวโมเดลตระกูล GPT-5 บน API ได้แก่ gpt-5, gpt-5-mini, gpt-5-nano
- เพิ่มค่า
minimalของ reasoning effort เพื่อเพิ่มประสิทธิภาพการตอบสนองที่รวดเร็วในโมเดล GPT-5 ที่รองรับ reasoning - เพิ่มประเภท tool call แบบ
customที่อนุญาตให้อินพุตและเอาต์พุตเป็นรูปแบบอิสระ
มิถุนายน 2025
-
27 มิถุนายน
- เปิดตัวการรองรับ Priority processing
- มี latency ต่ำกว่าและสม่ำเสมอกว่า Standard processing มาก ขณะเดียวกันยังคงความยืดหยุ่นของการคิดค่าบริการตามการใช้งาน
-
24 มิถุนายน
- เปิดตัว o3-deep-research และ o4-mini-deep-research บน Responses API
- เป็น deep research รุ่นย่อยของ reasoning models ซีรีส์ o ที่ปรับให้เหมาะกับงานวิเคราะห์และงานวิจัยเชิงลึก
- รายละเอียดเพิ่มเติม: deep research guide
- เพิ่มการรองรับการจัดการ event แบบ asynchronous ผ่าน webhooks
- ลดราคาและทำให้เรียบง่ายขึ้น สำหรับราคาของเครื่องมือค้นหาเว็บ
- เพิ่มการรองรับ web search tool
-
13 มิถุนายน
- ทำให้ reusable prompts แบบใหม่สามารถใช้งานได้บน Dashboard และ Responses API
- ใน API สามารถอ้างอิงเทมเพลตที่สร้างใน Dashboard ได้ผ่านพารามิเตอร์
promptและส่ง promptid,versionแบบเลือกได้ และvariablesแบบไดนามิกที่รองรับอินพุตเป็นสตริง รูปภาพ และไฟล์ได้ - reusable prompts ไม่สามารถใช้ใน Chat Completions ได้
- รายละเอียดเพิ่มเติม: reusable prompts
-
10 มิถุนายน
-
4 มิถุนายน
- เพิ่มการรองรับ fine-tuning ที่ใช้ direct preference optimization ให้กับ
gpt-4.1-2025-04-14,gpt-4.1-mini-2025-04-14,gpt-4.1-nano-2025-04-14
- เพิ่มการรองรับ fine-tuning ที่ใช้ direct preference optimization ให้กับ
-
3 มิถุนายน
- ให้บริการ model snapshot ใหม่ของ gpt-4o-audio-preview และ gpt-4o-realtime-preview
- เปิดตัว Agents SDK for TypeScript
พฤษภาคม 2025
-
20 พฤษภาคม เครื่องมือในตัว
- เพิ่มเครื่องมือในตัวใหม่ให้กับ Responses API
- รวมถึง remote MCP servers และ code interpreter
- รายละเอียดเพิ่มเติม: tools
-
20 พฤษภาคม schema
- ทำให้สามารถใช้โหมด
strictกับ tool schema ได้ในการเรียกใช้เครื่องมือแบบขนานของโมเดลที่ไม่ได้ fine-tuning บน Responses API และ Chat Completions API - เพิ่ม schema features ใหม่ด้วย โดยรวมถึงการตรวจสอบสตริงสำหรับ
emailและแพตเทิร์นอื่น ๆ รวมถึงการกำหนดช่วงของตัวเลขและอาร์เรย์
- ทำให้สามารถใช้โหมด
-
15 พฤษภาคม
- เปิดตัว codex-mini-latest บน API
- ปรับให้เหมาะกับการใช้งาน Codex CLI
-
7 พฤษภาคม
- เปิดตัวการรองรับ reinforcement fine-tuning
- สามารถดูรูปแบบ fine-tuning ที่ใช้งานได้ใน fine-tuning guide
- เพิ่ม gpt-4.1-nano เป็นโมเดลที่รองรับการทำ fine-tuning
เมษายน 2025
-
30 เมษายน
- เปิดตัวการรองรับ Enhanced API Budget Alerts & Auto-recharge Limits
-
23 เมษายน
- เพิ่มโมเดลสร้างภาพ
gpt-image-1 - โมเดลนี้ยกระดับคุณภาพและการทำตาม instruction จนเป็นมาตรฐานใหม่ของการสร้างภาพ
- อัปเดต Image Generation และ Edit endpoint ให้รองรับพารามิเตอร์ใหม่สำหรับ
gpt-image-1โดยเฉพาะด้วย
- เพิ่มโมเดลสร้างภาพ
-
16 เมษายน
- เพิ่ม o-series reasoning models สองรุ่นคือ
o3และo4-miniไปยัง Chat Completions API และ Responses API - สร้างมาตรฐานใหม่ด้านคณิตศาสตร์ วิทยาศาสตร์ การเขียนโค้ด งาน visual reasoning และการเขียนเอกสารทางเทคนิค
- เปิดตัว Codex ซึ่งเป็นเครื่องมือ CLI สำหรับสร้างโค้ดด้วย
- เพิ่ม o-series reasoning models สองรุ่นคือ
-
14 เมษายน
- เพิ่ม gpt-4.1, gpt-4.1-mini, gpt-4.1-nano ลงใน API
- รองรับ instruction following, การเขียนโค้ด และ context window ที่ใหญ่ขึ้นสูงสุด 1 ล้านโทเค็น
gpt-4.1และgpt-4.1-miniรองรับ supervised fine-tuning- ประกาศยุติการรองรับ gpt-4.5-preview ด้วย
มีนาคม 2025
-
20 มีนาคม
- เพิ่มโมเดล
gpt-4o-mini-tts,gpt-4o-transcribe,gpt-4o-mini-transcribe,whisper-1ลงใน Audio API
- เพิ่มโมเดล
-
19 มีนาคม
-
11 มีนาคม
- เปิดตัวหลายโมเดลใหม่ เครื่องมือใหม่ และ API ใหม่สำหรับ agentic workflow
- เปิดตัว Responses API เพื่อให้สามารถสร้างและใช้งาน agent กับเครื่องมือได้
- เปิดตัวชุดเครื่องมือในตัวสำหรับ Responses API ได้แก่ web search, file search, computer use
- เปิดตัว Agents SDK ซึ่งเป็น orchestration framework สำหรับการออกแบบ สร้าง และดีพลอย agent
- ประกาศโมเดล
gpt-4o-search-preview,gpt-4o-mini-search-preview,computer-use-preview - เปิดเผยแผนที่จะย้ายความสามารถทั้งหมดของ Assistants API ไปยัง Responses API ที่ใช้งานง่ายกว่า และแจ้งกำหนดการว่าจะยุติ Assistants ในปี 2026 หลังจากบรรลุความเท่าเทียมด้านฟีเจอร์ครบถ้วน
-
3 มีนาคม
- เพิ่มการรองรับฟิลด์
metadataสำหรับ fine-tuning job
- เพิ่มการรองรับฟิลด์
กุมภาพันธ์ 2025
-
27 กุมภาพันธ์
- เปิดตัว GPT-4.5 ในรูปแบบ research preview บน Chat Completions API, Assistants API และ Batch API
- GPT-4.5 ถูกอธิบายว่าเป็นโมเดลแชตที่ใหญ่ที่สุดและมีประสิทธิภาพสูงที่สุด โดยมี EQ สูงและเข้าใจเจตนาของผู้ใช้ได้ดี จึงโดดเด่นกว่าในงานสร้างสรรค์และ agentic planning
-
25 กุมภาพันธ์
- เปิดตัว API Usage Dashboard Update
- สะท้อนคำขอเพิ่มตัวกรองข้อมูล เช่น การเลือกโปรเจกต์ ตัวเลือกวันที่ และช่วงเวลาที่ละเอียดขึ้น
- ช่วยให้มองเห็นการใช้งานในผลิตภัณฑ์และ service tier ที่แตกต่างกันได้ดียิ่งขึ้น
-
5 กุมภาพันธ์
- เปิดตัว data residency ในยุโรป
- รายละเอียดเพิ่มเติม: your data
มกราคม 2025
-
31 มกราคม
- เปิดตัว o3-mini เป็นโมเดล reasoning ขนาดเล็ก
- ปรับแต่งให้เหมาะกับงานวิทยาศาสตร์ คณิตศาสตร์ และการเขียนโค้ด
-
21 มกราคม
- ขยายขอบเขตการเข้าถึง o1 model
- โมเดลตระกูล o1 ได้รับการฝึกด้วย reinforcement learning เพื่อทำ reasoning ที่ซับซ้อน
ธันวาคม 2024
-
18 ธันวาคม
- เปิดตัว Admin API Key Rotations เพื่อให้สามารถหมุนเวียน admin API key แบบโปรแกรมได้
- อัปเดต Admin API Invites เพื่อให้สามารถเชิญผู้ใช้เข้าร่วมโปรเจกต์แบบโปรแกรมได้พร้อมกับการเชิญเข้าร่วมองค์กร
-
17 ธันวาคม
- เพิ่มโมเดลใหม่ เช่น o1, gpt-4o-realtime, gpt-4o-audio
- เพิ่มวิธีการเชื่อมต่อแบบ WebRTC ให้กับ Realtime API
- เพิ่ม reasoning_effort parameter ให้กับโมเดล o1
- เพิ่ม developer message role ให้กับโมเดล o1
o1-previewและo1-miniไม่รองรับ system หรือ developer message- เปิดตัว Preference Fine-tuning โดยใช้ Direct Preference Optimization (DPO)
- เปิดตัว beta SDK สำหรับ Go และ Java
- รายละเอียดเพิ่มเติม: libraries
- เพิ่มการรองรับ Realtime API ให้กับ Python SDK
-
4 ธันวาคม
- เปิดตัว Usage API
- ทำให้สามารถดูข้อมูลกิจกรรมและค่าใช้จ่ายทั่วทั้ง OpenAI API แบบโปรแกรมได้
พฤศจิกายน 2024
-
20 พฤศจิกายน
- เปิดตัว gpt-4o-2024-11-20 บน
v1/chat/completions - เป็นโมเดลล่าสุดในตระกูล gpt-4o
- เปิดตัว gpt-4o-2024-11-20 บน
-
4 พฤศจิกายน
- เปิดตัว Predicted Outputs
- ลดเวลาแฝงของการตอบกลับจากโมเดลได้อย่างมากในสถานการณ์ที่รู้เนื้อหาส่วนใหญ่ของคำตอบล่วงหน้าอยู่แล้ว
- ใช้บ่อยเป็นพิเศษเมื่อสร้างเนื้อหาเอกสารและไฟล์โค้ดขึ้นใหม่โดยมีการเปลี่ยนแปลงเพียงเล็กน้อย
ตุลาคม 2024
-
30 ตุลาคม
- เพิ่มเสียงแบบใหม่ 5 แบบใน Realtime API และ Chat Completions API
- โมเดลที่รองรับคือ
gpt-4o-realtime-previewและgpt-4o-audio-previewและมีการระบุ endpointv1/chat/completionsไว้ด้วย
-
17 ตุลาคม
- เปิดตัวโมเดล
gpt-4o-audio-previewใหม่ - รองรับทั้งอินพุตและเอาต์พุตแบบเสียงใน Chat Completions
- โมเดลนี้ใช้โมเดลพื้นฐานเดียวกับ Realtime API
- เปิดตัวโมเดล
-
1 ตุลาคม OpenAI DevDay in San Francisco
- เปิดตัวฟีเจอร์หลายอย่างพร้อมกันใน OpenAI DevDay in San Francisco
- Realtime API ช่วยให้สร้างประสบการณ์ speech-to-speech ที่รวดเร็วในแอปพลิเคชันได้ด้วยอินเทอร์เฟซ WebSockets
- Model distillation ช่วยให้ fine-tune โมเดลที่คุ้มค่าด้านต้นทุนได้โดยใช้เอาต์พุตจาก frontier model ขนาดใหญ่
- Image fine-tuning ช่วยให้ fine-tune GPT-4o ด้วยภาพและข้อความเพื่อปรับปรุงความสามารถด้านการมองเห็น
- Evals มีฟังก์ชันรันการประเมินแบบกำหนดเองเพื่อวัดประสิทธิภาพของโมเดลในงานเฉพาะ
- Prompt caching มอบส่วนลดและเวลาในการประมวลผลที่เร็วขึ้นสำหรับโทเค็นอินพุตที่เพิ่งถูกใช้ล่าสุด
- Generate in playground ช่วยให้สร้างพรอมป์ต์ คำจำกัดความของฟังก์ชัน และ structured output schema ได้ง่ายด้วยปุ่ม Generate
กันยายน 2024
-
26 กันยายน
- เปิดตัวโมเดล moderation
omni-moderation-latestใหม่ - รองรับภาพและข้อความ และในบางหมวดหมู่สามารถจัดการข้อความและภาพร่วมกันได้
- รองรับ harm category สำหรับข้อความเท่านั้นแบบใหม่ 2 หมวด และความแม่นยำของคะแนนก็ดีขึ้น
- เปิดตัวโมเดล moderation
-
12 กันยายน
- เปิดตัว o1-preview และ o1-mini
- ทั้งสองโมเดลเป็นโมเดลภาษาขนาดใหญ่แบบใหม่ที่ฝึกด้วยreinforcement learning และมีเป้าหมายเพื่อทำงานด้านการให้เหตุผลที่ซับซ้อน
- endpoint แสดงเป็น
v1/chat/completions
สิงหาคม 2024
-
29 สิงหาคม
-
20 สิงหาคม
- การ fine-tune
gpt-4o-2024-08-06เข้าสู่ GA ทำให้ผู้ใช้ API ทุกคนสามารถ fine-tune โมเดล GPT-4o รุ่นล่าสุดได้
- การ fine-tune
-
15 สิงหาคม
- เปิดตัวdynamic model สำหรับ
chatgpt-4o-latestและตั้งค่าให้ชี้ไปยังโมเดล GPT-4o ล่าสุดที่ ChatGPT ใช้งาน
- เปิดตัวdynamic model สำหรับ
-
6 สิงหาคม
- เปิดตัว Structured Outputs เพื่อให้เอาต์พุตของโมเดลปฏิบัติตามJSON Schemaที่นักพัฒนาระบุไว้อย่างน่าเชื่อถือ
- ในวันเดียวกัน gpt-4o-2024-08-06 ก็ถูกเปิดตัวในฐานะโมเดลล่าสุดของซีรีส์ gpt-4o
-
1 สิงหาคม
- เปิดตัว Admin and Audit Log APIs เพื่อให้จัดการองค์กรด้วยโปรแกรมและติดตามการเปลี่ยนแปลงผ่าน audit log ได้
- ต้องเปิดใช้งาน Audit logging ภายใน settings
กรกฎาคม 2024
-
24 กรกฎาคม
- เปิดตัว self-serve SSO configuration
- ลูกค้า Enterprise ที่ใช้ custom และ unlimited billing สามารถตั้งค่าการยืนยันตัวตนให้ตรงกับ IDP ที่ต้องการได้
-
23 กรกฎาคม
- เปิดตัว การ fine-tune GPT-4o mini เพื่อมุ่งสู่ประสิทธิภาพที่สูงขึ้นใน use case เฉพาะ
-
18 กรกฎาคม
- เปิดตัว GPT-4o mini
- ถูกแนะนำว่าเป็นโมเดลขนาดเล็กราคาประหยัดสำหรับงานที่ต้องการความเร็วและน้ำหนักเบา
-
17 กรกฎาคม
- เปิดตัว Uploads เพื่อให้อัปโหลดไฟล์ขนาดใหญ่โดยแบ่งเป็นหลายพาร์ตได้
มิถุนายน 2024
-
6 มิถุนายน
- ใน Chat Completions และ Assistants API สามารถส่ง
parallel_tool_calls=falseเพื่อปิดใช้งานการเรียกฟังก์ชันแบบขนานได้ - .NET SDK เปิดตัวในสถานะ Beta
- ใน Chat Completions และ Assistants API สามารถส่ง
-
3 มิถุนายน
- เพิ่มการรองรับ file search customizations
พฤษภาคม 2024
-
15 พฤษภาคม
- เพิ่มการรองรับ Project Archive และมีเพียง organization owner เท่านั้นที่เข้าถึงได้
- เพิ่มการรองรับการ ตั้งค่า cost limit แยกตามโปรเจกต์สำหรับลูกค้าแบบคิดค่าบริการตามการใช้งาน
-
13 พฤษภาคม
- เปิดตัว GPT-4o บน API
- ระบุว่าเป็นโมเดล flagship ที่เร็วที่สุดและราคาถูกที่สุด
-
9 พฤษภาคม
- Assistants API รองรับ image input
-
7 พฤษภาคม
- Batch API รองรับ โมเดลที่ผ่านการ fine-tune
-
6 พฤษภาคม
- เพิ่มพารามิเตอร์
stream_options: {"include_usage": true}ให้กับ Chat Completions API และ Completions API - เมื่อใช้การตั้งค่านี้ จะเข้าถึง usage stats ได้ระหว่างการสตรีม
- เพิ่มพารามิเตอร์
-
2 พฤษภาคม
- เพิ่ม endpoint ใหม่ สำหรับลบข้อความในเธรดบน Assistants API
เมษายน 2024
-
29 เมษายน
- เพิ่ม ตัวเลือก function calling
tool_choice: "required"ให้กับ Chat Completions API และ Assistants API - เพิ่มทั้ง คู่มือ Batch API และ การรองรับ embeddings model ของ Batch API
- เพิ่ม ตัวเลือก function calling
-
17 เมษายน
- เปิดตัว ชุดอัปเดต Assistants API
- file search tool ใหม่รองรับ ไฟล์สูงสุด 10,000 ไฟล์ ต่อ assistant
- รวมการรองรับ token controls และ tool choice แบบใหม่ด้วย
-
16 เมษายน
- เปิดตัว โครงสร้างลำดับชั้นแบบอิงโปรเจกต์ เพื่อให้จัดระเบียบงานตามโปรเจกต์ได้
- สามารถสร้าง API keys ได้
- จัดการ rate limit และ cost limit แยกตามโปรเจกต์ได้ โดย cost limit มีให้เฉพาะลูกค้า Enterprise
-
15 เมษายน
- เปิดตัว Batch API
-
9 เมษายน
- GPT-4 Turbo with Vision เปลี่ยนเป็นสถานะ general availability บน API
-
4 เมษายน
- เพิ่มการรองรับ seed ใน Fine-tuning API
- เพิ่มการรองรับ checkpoints ใน Fine-tuning API
- Assistants API รองรับการ เพิ่ม Messages ระหว่างสร้าง Run
-
1 เมษายน
- Assistants API รองรับการ กรอง Messages ด้วย run_id
มีนาคม 2024
-
29 มีนาคม
- เพิ่มการรองรับ temperature และ การสร้าง assistant message ใน Assistants API
-
14 มีนาคม
- เพิ่มการรองรับ streaming ใน Assistants API
กุมภาพันธ์ 2024
-
9 กุมภาพันธ์
- เพิ่มพารามิเตอร์
timestamp_granularitiesให้กับ Audio API
- เพิ่มพารามิเตอร์
-
1 กุมภาพันธ์
- เปิดตัว gpt-3.5-turbo-0125 เป็นโมเดล GPT-3.5 Turbo ที่อัปเดตแล้ว
มกราคม 2024
-
25 มกราคม
- เปิดตัวโมเดล embedding V3 และ GPT-4 Turbo preview เวอร์ชันอัปเดต
- เพิ่มพารามิเตอร์
dimensionsให้กับ Embeddings API
ธันวาคม 2023
-
20 ธันวาคม
- เพิ่มพารามิเตอร์
additional_instructionsสำหรับการสร้าง Run ใน Assistants API
- เพิ่มพารามิเตอร์
-
15 ธันวาคม
- เพิ่มพารามิเตอร์
logprobsและtop_logprobsให้กับ Chat Completions API
- เพิ่มพารามิเตอร์
-
14 ธันวาคม
- อาร์กิวเมนต์ function parameters ของ tool call เปลี่ยนเป็นตัวเลือกได้
พฤศจิกายน 2023
-
30 พฤศจิกายน
- เปิดตัว OpenAI Deno SDK
-
6 พฤศจิกายน
- เปิดตัวหลายรายการพร้อมกัน
- GPT-4 Turbo Preview
- GPT-3.5 Turbo ที่อัปเดตแล้ว
- GPT-4 Turbo with Vision
- Assistants API
- DALL·E 3 in the API
- text-to-speech API
- พารามิเตอร์
functionsของ Chat Completions ถูกประกาศให้ deprecated โดยจะถูกแทนที่ด้วย tools - เปิดตัว OpenAI Python SDK V1.0
ตุลาคม 2023
-
16 ตุลาคม
- เพิ่ม
encoding_formatพารามิเตอร์ให้กับ Embeddings API - เพิ่ม
max_tokensให้กับ Moderation models
- เพิ่ม
-
6 ตุลาคม
- เพิ่ม การรองรับ function calling ให้กับ Fine-tuning API
2 ความคิดเห็น
ตอนนี้ตั้งแต่ 5.4 เป็นต้นไป เวอร์ชัน pro ก็จะไม่รองรับ Chat Completions API อีกต่อไปแล้ว
ความเห็นจาก Hacker News
ผมเพิ่งลองใช้ทันทีเพราะมีปัญหาในโปรดักชัน แล้วก็เจอว่า GPT-5.5 ทำแบบที่ Claude ไม่เคยทำ
มันให้ผมเขียนคำสั่ง update หลังจาก troubleshooting เสร็จ แล้วพอผมบอกว่า "โอเค งั้นครอบอันนี้ด้วย transaction แล้วใส่ rollback ด้วย" มันกลับตอบมาแบบโบราณว่า
BEGIN TRAN;-- put the query herecommit;แค่นี้เอง
พักหลังผมแทบไม่ต้องคอยผลักให้โมเดลทำงานที่สั่งจริง ๆ แล้ว แต่เจอแบบนี้ถือว่าช็อกพอสมควร
เข้าใจนะว่ามันพยายามใช้โทเค็นให้น้อยลง แต่ถ้าผมจ่ายเงินให้ โมเดลล้ำสมัย แล้วมันออกอาการขี้เกียจแบบนี้ก็หงุดหงิดเหมือนกัน
เห็นมันขึ้นในตัวเลือกโมเดลของ Cursor ก็เลยลองเฉย ๆ
ถ้าปัญหาคือมันตอบแค่
-- put the query hereแล้วไม่ได้พิมพ์ query ซ้ำอีกครั้ง ผมก็ไม่คิดว่านั่นจำเป็นต้องเป็นปัญหาถ้าเป้าหมายจริง ๆ คือให้ได้ query ที่จะรัน แล้วคุณบอกว่า "ทำอันนี้เป็น transaction" การบอกว่าแค่พิมพ์
beginไว้ข้างหน้าก็ถือว่าสมเหตุสมผลทีเดียวถ้า query ยาว ก็ประหยัดโทเค็นด้วย และมันก็คล้ายกับเวลาขึ้น
permission deniedแล้วแทนที่จะเขียนคำสั่งทั้งหมดซ้ำอีกครั้ง ก็บอกให้เติมsudoข้างหน้าแต่ถ้าคุณคาดหวังให้โมเดลรัน query ให้จริง ๆ แล้วมันตอบประมาณว่า "นี่ไง เอาไปจัดการรันเอง" แบบนั้นก็ขี้เกียจชัดเจน และงงได้ไม่แปลก
เหมือนจะเป็น emergent behavior ที่โผล่มาในรูปแบบนี้
พูดเล่นก็ส่วนพูดเล่น แต่การที่ OpenAI หมกมุ่นกับการเพิ่ม intelligence ต่อ token แบบสุดโต่ง ทำให้นึกถึงยุคก่อน M1 ที่ Apple พยายามทำ MacBook ให้บางลงแบบเกินพอดี
คือไล่ตามตัวชี้วัดเดียวจนสุด แล้วเสียอย่างอื่นไปหมด
GPT-5.3+ ชัดเจนว่าเป็นโมเดลที่ฉลาดมากกลุ่มหนึ่ง แต่บางทีก็ขี้เกียจจนร่วมงานด้วยแล้วทรมาน
เมื่อกี้ผมลองรันกับ Wordpress+GravityForms benchmark ของตัวเองแล้ว ผลคือทั้งตามเกณฑ์ประสิทธิภาพก็ติดท้ายลีดเดอร์บอร์ด และถ้าวัดความคุ้มค่าก็แย่ที่สุด: https://github.com/guilamu/llms-wordpress-plugin-benchmark
รู้ว่าเป็นแค่ benchmark เดียว แต่ก็ยังไม่เข้าใจว่าจะออกมาแย่ได้ขนาดนี้ยังไง
ทุกวันนี้ความหมายของคำต่าง ๆ พังง่ายเกินไป เลยเห็นอะไรแบบนี้บ่อย
ฟอรัมที่เมื่อก่อนมีคนทำงานสายเทคนิคจริง ๆ เยอะ เดี๋ยวนี้ก็ดูเหมือนจะเต็มไปด้วยมวลชนสาย vibe researcher และพออะไรดังเกินจุดหนึ่งก็มักลงเอยแบบนี้
HN ยังดูเหมือนเป็นฐานที่มั่นสุดท้ายที่เหลือการสำรวจค้นคว้าแบบจริงจังอยู่บ้าง แต่ดูจากคอมเมนต์ต้นทางแล้วก็ไม่ได้มีภูมิคุ้มกันเสียทีเดียว
benchmarking แบบนี้ผมชอบพอสมควร
ผมสงสัยว่า judge benchmark ประเมินกันยังไง และผมเองก็อยากจัด benchmark คล้าย ๆ กันขึ้นมาบ้าง
ตัวพรอมป์บางเฉียบ แต่เกณฑ์ให้คะแนนเยอะมาก
ราคาตามความยาวคอนเท็กซ์ เป็นแบบนี้
อินพุตไม่เกิน 272K ราคา $5/M, เกินนั้น $10/M
เอาต์พุตไม่เกิน 272K ราคา $30/M, เกินนั้น $45/M
การอ่านแคชไม่เกิน 272K ราคา $0.50/M, เกินนั้น $1/M
ถ้าเกิน 272K ก็แพงกว่า Opus 4.7 อย่างชัดเจน และอย่างน้อยสำหรับงานของผม มันก็ดูไม่ได้มีประสิทธิภาพต่อโทเค็นดีขึ้นพอจะคุ้ม
ยังไม่มากพอจะชดเชยส่วนต่างราคา
จุดแข็งของ GPT-5.4 คือคอนเท็กซ์ 400k และ compaction ที่ไว้ใจได้ แต่ทั้งสองอย่างดูถอยหลังลงเล็กน้อย
อย่างไรก็ตาม ยังเร็วเกินไปที่จะฟันธงว่า compaction เชื่อถือได้น้อยลงจริงหรือไม่
เอาต์พุตฝั่งฟรอนต์เอนด์ก็ยังมีแนวโน้มเอนไปทางเทมเพลตโทนสีน้ำเงินที่เต็มไปด้วยการ์ดสะดุดตาแบบเดิม
เป็นสไตล์ที่ดูน่าสงสัยมาตั้งแต่ช่วง Horizon Alpha/Beta ก่อนเปิดตัว GPT-5 แล้ว แต่ตอนนั้น task adherence ดีมากจนยอมทนจุดอ่อนใหญ่นั้นได้และยังถือว่าใช้งานได้
แต่พอ GPT-5.5 บอกว่าเป็น foundation ใหม่ทั้งหมดแล้ว ส่วนนี้ยังจำกัดอยู่แบบนี้ก็ค่อนข้างแปลก
ผล benchmark การให้เหตุผลด้านโค้ดแบบภาพรวมของ GPT 5.5 ขึ้นแล้วที่ https://gertlabs.com/
ทั้ง live decision และ agentic eval ที่หนักกว่านี้จะทยอยเพิ่มต่ออีกเรื่อย ๆ ตลอด 24 ชั่วโมง แต่ตอนนี้ก็ดูไม่น่าจะมีอะไรเปลี่ยนอันดับบนลีดเดอร์บอร์ดแล้ว
GPT 5.5 เป็นโมเดลที่ฉลาดที่สุดในบรรดาโมเดลสาธารณะ และเร็วขึ้นจากรุ่นก่อนอย่างชัดเจน
เมื่อวานยังพูดแบบนี้อยู่เลย
https://simonwillison.net/2026/Apr/23/gpt-5-5/#the-openclaw-backdoor
เลยคิดว่าเรื่องนั้นอาจเป็นปัจจัยที่ทำให้การเปิดตัวครั้งนี้เร็วขึ้นก็ได้
มีตัวอย่างเก่าด้วย
ไม่แน่ใจว่าผมคิดไปเองไหม แต่ผมเริ่มรู้สึกว่า OpenAI ปล่อย นักคอมเมนต์รับเงิน หรือบอตมาคอยกด Claude แล้วดัน Codex ว่าดีกว่ามากทุกครั้งที่มีข่าวแบบนี้
มันเยอะเกินไป และหลายข้ออ้างก็ฟังไม่ขึ้นถ้าคุณใช้ Claude ทุกวัน
มันคล้ายกับบรรยากาศที่เหมือนทุกคนลืมไปแล้วว่า OpenAI ทรยศต่อประชาธิปไตยด้วยการไปช่วยเรื่อง อาวุธอัตโนมัติไร้การกำกับดูแล และการสอดส่องภายในประเทศขนาดใหญ่
อย่างน้อยสิ่งที่เริ่มโผล่ให้เห็นชัด ๆ ก็คือช่วงหลัง Opus 4.6 hype นี่เอง
ทุกวันนี้บริษัทที่พยายามดันสินค้าตัวเองก็คล้าย ๆ กันหมด
ผมเป็นผู้ใช้ Enterprise แต่ก็ยังเห็นแค่ 5.4
เมื่อวานประกาศว่าต้องใช้เวลาอีกไม่กี่ชั่วโมงกว่าจะ rollout ครบทุกคน ซึ่ง OpenAI ควรทำ GTM ให้ดีกว่านี้หน่อยถ้าจะบริหารความคาดหวัง
ปล่อยได้เร็วแบบนี้ก็ดี
คราวหน้าคงต้องรีบบ่นให้เร็วกว่านี้
เป็นโมเดลที่สองที่ได้ 25/25 ใน benchmark ของผม
ตัวแรกคือ Opus 4.7 และผลอยู่ที่นี่: https://sql-benchmark.nicklothian.com/?highlight=openai_gpt-5.5
ถูกกว่า Opus แต่ช้ากว่า
ในหน้า API ระบุ knowledge cutoff เป็น 2025-12-01 แต่ถ้าถามโมเดลตรง ๆ มันกลับตอบว่า ตอบว่าเป็นเดือนมิถุนายน 2024
Knowledge cutoff: 2024-06Current date: 2026-04-24You are an AI assistant accessed via an API.การถามตัวโมเดลเองเพื่อเช็กวันที่ cutoff เป็นวิธีที่เชื่อถือน้อยที่สุดมาตั้งนานแล้ว
มันอาจเคยเรียนรู้แม้แต่คอมเมนต์แบบนี้ด้วยซ้ำ
แค่ถามถึงเหตุการณ์สักอย่างที่เกิดขึ้นก่อน 2025-12-01 ไม่นานก็พอ
ถ้าเป็นไปได้ การแข่งขันกีฬา จะเหมาะที่สุด
ในหน้า API ของโมเดลรุ่นก่อน ๆ ก็เคยระบุ cutoff เดือนมิถุนายน 2024 ไว้เยอะเหมือนกัน มันอาจแค่หยิบมาเล่าตามนั้น
วิธีที่ถูกต้องในการตรวจ cutoff จริงคือถามเรื่องที่ยังไม่มีอยู่หรือยังไม่เกิดขึ้นก่อนวันนั้น
จากที่ลองทดสอบคร่าว ๆ หลายครั้ง cutoff ของความรู้ทั่วไปของ 5.5 ก็ดูยังอยู่ราวต้นปี 2025
ชุด GPT 5.5 + Codex ดีมากจริง ๆ
ไม่ว่าจะถาม วางแผน หรือให้เขียนโค้ด ตอนนี้ผมแทบจะมอบให้ทำได้โดยไม่ต้องสงสัยแล้ว
ส่วน Opus 4.7 ยังทำให้ผมต้องคอยเช็กซ้ำ
มันไม่ค่อยทำตามคำสั่งใน
CLAUDE.md, มี hallucination เยอะ และถ้าหาคำตอบไม่ได้ก็มักแต่งขึ้นมาเองเป็นค่าเริ่มต้น ซึ่งเป็นปัญหาใหญ่พอควรตอนปีที่แล้วคนพูดกันว่า OpenAI ตามหลังแล้ว เป็น code red กันอย่างรวดเร็วมาก แต่พอมาตอนนี้สถานการณ์ก็ดูเปลี่ยนไปหมดแล้ว