5 คะแนน โดย GN⁺ 4 일 전 | 2 ความคิดเห็น | แชร์ทาง WhatsApp
  • GPT-5.5 เป็นโมเดลล่าสุดที่ถูกเพิ่มเข้ามาใน Chat Completions API และ Responses API และ GPT-5.5 pro ก็ถูกเพิ่มเข้ามาพร้อมกันในคำขอของ Responses API สำหรับโจทย์ยากที่ได้ประโยชน์จากการประมวลผลที่มากกว่า
  • รองรับอย่างกว้างขวางทั้ง หน้าต่างบริบท 1 ล้านโทเค็น, การป้อนภาพ, structured output, function calling, prompt caching, Batch, tool search, computer use ในตัว, hosted shell, apply patch, Skills, MCP และการค้นหาเว็บ
  • ค่าเริ่มต้นของ reasoning effort ถูกตั้งเป็น medium และเมื่อ image_detail ไม่ได้ถูกตั้งค่าหรือเป็น auto ก็จะคงพฤติกรรมเดิมไว้
  • การแคชของ GPT-5.5 ทำงานได้เฉพาะกับ extended prompt caching เท่านั้น และไม่รองรับ in-memory prompt caching
  • แนวทางการเปลี่ยนแปลง API ล่าสุดได้ขยายจากการเปิดตัวโมเดลไปสู่ image, audio, realtime, video และเครื่องมือ agent แล้ว โดยตระกูล GPT-5.5 ถือเป็นหนึ่งในรายการหลักล่าสุดที่ถูกเพิ่มเข้ามา

บันทึกการเปลี่ยนแปลง

เมษายน 2026

  • 24 เมษายน

    • เปิดตัว GPT-5.5 บน Chat Completions API และ Responses API และเพิ่ม GPT-5.5 pro เข้ามาพร้อมกันในคำขอของ Responses API สำหรับโจทย์ยากที่ได้ประโยชน์จากการประมวลผลที่มากกว่า
    • GPT-5.5 รองรับหน้าต่างบริบท 1 ล้านโทเค็น, การป้อนภาพ, structured output, function calling, prompt caching, Batch, tool search, computer use ในตัว, hosted shell, apply patch, Skills, MCP และการค้นหาเว็บ
    • การเปลี่ยนแปลงสำคัญคือค่าเริ่มต้นของ reasoning effort ถูกตั้งเป็น medium
    • เมื่อ image_detail ไม่ได้ถูกตั้งค่าหรือเป็น auto จะใช้พฤติกรรมเดิม
    • การแคชของ GPT-5.5 ทำงานได้เฉพาะกับ extended prompt caching เท่านั้น และไม่รองรับ in-memory prompt caching
  • 21 เมษายน

    • เปิดตัว GPT Image 2 เป็นโมเดลสร้างภาพล่าสุดสำหรับการสร้างและแก้ไขภาพ
    • GPT Image 2 รองรับขนาดภาพที่ยืดหยุ่น, การป้อนภาพความเที่ยงตรงสูง, การคิดค่าบริการภาพแบบอิงโทเค็น และการรองรับ Batch API ที่ลดราคา 50%
  • 15 เมษายน

    • เพิ่มความสามารถใหม่ให้กับ Agents SDK
      • สามารถรัน agent ใน sandbox ที่มีการควบคุมได้
      • สามารถตรวจสอบและปรับแต่ง harness แบบโอเพนซอร์สได้
      • สามารถควบคุมช่วงเวลาการสร้าง memory และตำแหน่งที่จัดเก็บได้

มีนาคม 2026

  • 17 มีนาคม

    • เปิดตัว GPT-5.4 mini และ GPT-5.4 nano บน Chat Completions API และ Responses API
    • GPT-5.4 mini มอบประสิทธิภาพระดับ GPT-5.4 ในรูปแบบที่เร็วและมีประสิทธิภาพมากขึ้น เหมาะกับเวิร์กโหลดที่มีปริมาณงานสูง
    • GPT-5.4 nano ถูกปรับให้เหมาะกับงานปริมาณมากแบบง่าย ๆ ที่ความเร็วและต้นทุนสำคัญที่สุด
    • GPT-5.4 mini รองรับ tool search, computer use ในตัว และ compaction
    • GPT-5.4 nano รองรับ compaction แต่ไม่รองรับ tool search และ computer use
  • 16 มีนาคม

    • slug ของ gpt-5.3-chat-latest ถูกอัปเดตให้ชี้ไปยังโมเดลล่าสุดที่ ChatGPT ใช้งานอยู่ในปัจจุบัน
  • 13 มีนาคม

    • อัปเดต image encoder เพื่อแก้บั๊กเล็กน้อยที่เกิดขึ้นกับอินพุต input_image ของ GPT-5.4
    • คุณภาพอาจดีขึ้นในบางกรณีการใช้งานด้าน การทำความเข้าใจภาพ
    • ไม่จำเป็นต้องดำเนินการเพิ่มเติม
  • 12 มีนาคม

    • ขยาย Sora API โดยเพิ่ม character reference ที่นำกลับมาใช้ซ้ำได้, การสร้างที่ยาวขึ้นได้สูงสุด 20 วินาที, เอาต์พุต 1080p สำหรับ sora-2-pro, video extension และการรองรับ Batch API สำหรับ POST /v1/videos
    • การสร้าง 1080p ของ sora-2-pro มีค่าบริการที่ $0.70 ต่อวินาที
    • รายละเอียดเพิ่มเติม: video generation guide
  • อัปเดต 12 มีนาคม

    • เพิ่ม POST /v1/videos/edits สำหรับการแก้ไขวิดีโอเดิม
    • POST /v1/videos/{video_id}/remix เป็นเส้นทางที่ใช้แทนสิ่งนี้ และมีกำหนดยุติการรองรับในอีก 6 เดือน
    • รายละเอียดเพิ่มเติม: edit existing videos
  • 5 มีนาคม

    • เปิดตัว GPT-5.4 บน Chat Completions API และ Responses API และเพิ่ม GPT-5.4 pro เข้าสู่ Responses API สำหรับโจทย์ยากที่ได้ประโยชน์จากการประมวลผลที่มากกว่า
    • เปิดตัว tool search ของ Responses API พร้อมกัน เพื่อให้โมเดลสามารถเลื่อนการจัดการ tool surface ขนาดใหญ่ไปจนถึงรันไทม์ เพื่อลดการใช้โทเค็น รักษาประสิทธิภาพแคช และปรับปรุงเวลาแฝง
    • เพิ่มการรองรับ computer use ในตัวผ่านเครื่องมือ computer ของ Responses API ให้กับ GPT-5.4 ทำให้สามารถโต้ตอบกับ UI แบบอิงภาพหน้าจอได้
    • สำหรับเวิร์กโฟลว์ agent ที่ทำงานยาวนานขึ้น มีการรองรับหน้าต่างบริบท 1 ล้านโทเค็นและ Compaction แบบเนทีฟ
  • 3 มีนาคม

    • เปิดตัว gpt-5.3-chat-latest บน Chat Completions API และ Responses API
    • โมเดลนี้ชี้ไปยังสแนปช็อต GPT-5.3 Instant ที่ ChatGPT ใช้งานอยู่ในปัจจุบัน
    • รายละเอียดเพิ่มเติม: gpt-5.3-chat-latest

กุมภาพันธ์ 2026

  • 24 กุมภาพันธ์

    • ขยายขอบเขตการรองรับ input_file เพื่อให้รับไฟล์เอกสาร งานนำเสนอ สเปรดชีต โค้ด และไฟล์ข้อความได้หลากหลายรูปแบบมากขึ้น
    • รายละเอียดเพิ่มเติม: file inputs
  • 24 กุมภาพันธ์ Responses API

    • เพิ่ม phase ใน Responses API
    • ติดป้ายกำกับข้อความ assistant โดยแยกเป็นคำอธิบายระหว่างทาง commentary และคำตอบสุดท้าย final_answer
    • รายละเอียดเพิ่มเติม: phase
  • 24 กุมภาพันธ์ gpt-5.3-codex

    • เปิดตัว gpt-5.3-codex บน Responses API
    • รายละเอียดเพิ่มเติม: gpt-5.3-codex
  • 23 กุมภาพันธ์

    • เปิดตัว WebSocket mode บน Responses API
    • รายละเอียดเพิ่มเติม: websocket mode
  • 23 กุมภาพันธ์ โมเดลเสียงและเรียลไทม์

    • เปิดตัว gpt-realtime-1.5 บน Realtime API
    • เปิดตัว gpt-audio-1.5 บน Chat Completions API
      • รายละเอียดเพิ่มเติม: gpt-audio-1.5
  • 10 กุมภาพันธ์ GPT Image Batch

    • รองรับ Batch API สำหรับ gpt-image-1.5, chatgpt-image-latest, gpt-image-1, gpt-image-1-mini
  • 10 กุมภาพันธ์ gpt-5.2-chat-latest

    • อัปเดต slug ของ gpt-5.2-chat-latest ให้ชี้ไปยังโมเดลล่าสุดที่ ChatGPT ใช้อยู่ในปัจจุบัน
  • 10 กุมภาพันธ์ compaction

  • 10 กุมภาพันธ์ Skills

    • เพิ่มการรองรับ Skills ใน Responses API
    • รองรับ Skills ทั้งการรันแบบ local และแบบอิง hosted container
  • 10 กุมภาพันธ์ Hosted Shell

    • เปิดตัวเครื่องมือ Hosted Shell ใหม่ และรองรับระบบเครือข่ายภายในคอนเทนเนอร์ด้วย
  • 9 กุมภาพันธ์

    • เพิ่มการรองรับคำขอ application/json สำหรับ /v1/images/edits ของโมเดล GPT image
    • คำขอแบบ JSON ใช้การอ้างอิง image_url หรือ file_id สำหรับ images และ mask แบบเลือกได้ แทนการอัปโหลดแบบ multipart
  • 3 กุมภาพันธ์

    • ปรับแต่ง reasoning stack สำหรับลูกค้า API ทำให้ GPT-5.2 และ GPT-5.2-Codex ทำงานได้เร็วขึ้นประมาณ 40%
    • ตัวโมเดลและค่าน้ำหนักของโมเดลไม่มีการเปลี่ยนแปลง

มกราคม 2026

  • 15 มกราคม

    • ประกาศ Open Responses
    • เป็นสเปกโอเพนซอร์สสำหรับอินเทอร์เฟซ LLM แบบทำงานร่วมกันได้ข้ามผู้ให้บริการหลายราย ซึ่งสร้างอยู่บน OpenAI Responses API
  • 14 มกราคม

    • เปิดตัว gpt-5.2-codex บน Responses API
    • GPT-5.2-Codex เป็นรุ่นย่อยของ GPT-5.2 ที่ปรับให้เหมาะกับงานเขียนโค้ดแบบ agentic ใน Codex หรือสภาพแวดล้อมลักษณะใกล้เคียงกัน
    • รายละเอียดเพิ่มเติม: gpt-5.2-codex
  • 13 มกราคม Realtime SIP

    • เพิ่มช่วง IP สำหรับ SIP โดยเฉพาะใน Realtime API
    • sip.api.openai.com ทำ GeoIP routing และส่งทราฟฟิก SIP ไปยังรีเจียนที่ใกล้ที่สุด
    • รายละเอียดเพิ่มเติม: dedicated SIP IP ranges
  • 13 มกราคม อัปเดต slug ของโมเดล

    • อัปเดต slug ของ gpt-realtime-mini และ gpt-audio-mini ให้ชี้ไปยังสแนปชอต 2025-12-15
    • หากต้องการสแนปชอตของโมเดลก่อนหน้า ให้ใช้ gpt-realtime-mini-2025-10-06 และ gpt-audio-mini-2025-10-06
    • อัปเดต slug ของ sora-2 ให้ชี้ไปยัง sora-2-2025-12-08
    • หากต้องการสแนปชอต sora-2 ก่อนหน้า ให้ใช้ sora-2-2025-10-06
    • อัปเดต slug ของ gpt-4o-mini-tts และ gpt-4o-mini-transcribe ให้ชี้ไปยังสแนปชอต 2025-12-15
    • หากต้องการสแนปชอตของโมเดลก่อนหน้า ให้ใช้ gpt-4o-mini-tts-2025-03-20 และ gpt-4o-mini-transcribe-2025-03-20
    • ปัจจุบันแนะนำให้ใช้ gpt-4o-mini-transcribe แทน gpt-4o-transcribe เพื่อผลลัพธ์ที่ดีที่สุด
  • 9 มกราคม

    • แก้ไขปัญหาใน /v1/images/edits ที่ gpt-image-1.5 และ chatgpt-image-latest ใช้ high fidelity อย่างผิดพลาด แม้จะตั้งค่า fidelity เป็น low อย่างชัดเจนแล้ว

ธันวาคม 2025

  • 19 ธันวาคม

    • เพิ่ม gpt-image-1.5 และ chatgpt-image-latest ไปยังเครื่องมือสร้างภาพของ Responses API
  • 16 ธันวาคม

  • 15 ธันวาคม

    • เปิดตัว audio snapshot แบบระบุวันที่ใหม่ 4 รุ่น
    • อัปเดตนี้ช่วยปรับปรุงความน่าเชื่อถือ คุณภาพ และความเที่ยงตรงของเสียงสำหรับแอปพลิเคชันที่ใช้เสียงแบบเรียลไทม์
    • รายละเอียดเพิ่มเติม: updates audio models
    • gpt-realtime-mini-2025-12-15
    • gpt-audio-mini-2025-12-15
    • gpt-4o-mini-transcribe-2025-12-15
    • gpt-4o-mini-tts-2025-12-15
    • การเปิดตัวครั้งนี้ยังรวมการรองรับ Custom voices สำหรับลูกค้าที่มีสิทธิ์ด้วย
  • 11 ธันวาคม GPT-5.2

    • เปิดตัว GPT-5.2 เป็นโมเดล flagship รุ่นล่าสุดในตระกูล GPT-5
    • ปรับปรุงจาก GPT-5.1 ในด้าน ความฉลาดทั่วไป, การทำตามคำสั่ง, ความแม่นยำและประสิทธิภาพการใช้โทเค็น, มัลติโมดาลิตีโดยเฉพาะด้านวิชัน, การสร้างโค้ดโดยเฉพาะการสร้าง UI ฝั่งฟรอนต์เอนด์, tool calling และการจัดการ context บน API รวมถึงความเข้าใจและการสร้างสเปรดชีต
    • เพิ่มระดับ reasoning effort แบบ xhigh, reasoning summary แบบกระชับ และการจัดการ context แบบใหม่ที่ใช้ compaction
  • 11 ธันวาคม client-side compaction

    • เปิดตัว client-side compaction
    • ในการสนทนาที่ทำงานระยะยาวบน Responses API สามารถลด context ที่ส่งในแต่ละเทิร์นได้ด้วยเอนด์พอยต์ /responses/compact
  • 4 ธันวาคม

    • เปิดตัว gpt-5.1-codex-max บน Responses API
    • GPT-5.1-Codex เป็นโมเดลโค้ดดิ้งที่ฉลาดที่สุด ซึ่งปรับแต่งมาสำหรับงาน agentic coding ระยะยาว
    • รายละเอียดเพิ่มเติม: gpt-5.1-codex-max

พฤศจิกายน 2025

  • 20 พฤศจิกายน

    • เพิ่มการรองรับการกดปุ่ม DTMF ใน Realtime API
    • สามารถรับอีเวนต์ DTMF ได้ระหว่างใช้งาน Realtime sideband connection
    • รายละเอียดเพิ่มเติม: dtmf_event_received
  • 13 พฤศจิกายน GPT-5.1

    • เปิดตัว GPT-5.1 เป็นโมเดล flagship รุ่นล่าสุดในตระกูล GPT-5
    • ฝึกมาให้เด่นเป็นพิเศษด้าน steerability, การตอบสนองที่เร็วขึ้นในสถานการณ์ที่ไม่ต้องใช้การคิดมาก, การสร้างโค้ดและกรณีใช้งานด้านการเขียนโค้ด, และ agentic workflow
    • GPT-5.1 ใช้การตั้งค่า reasoning แบบ none ใหม่เป็นค่าเริ่มต้น เพื่อให้ตอบสนองได้รวดเร็วในสถานการณ์ที่ไม่ต้องใช้การคิดมาก
    • ค่าเริ่มต้นนี้แตกต่างจากค่าเริ่มต้นก่อนหน้าของ GPT-5 ที่เป็น medium
  • 13 พฤศจิกายน RBAC

  • 13 พฤศจิกายน GPT-5.1-Codex

    • เปิดตัว gpt-5.1-codex และ gpt-5.1-codex-mini บน Responses API
    • GPT-5.1-Codex เป็นรุ่นย่อยของ GPT-5.1 ที่ปรับแต่งมาสำหรับงาน agentic coding ใน Codex หรือสภาพแวดล้อมที่คล้ายกัน
    • รายละเอียดเพิ่มเติม: gpt-5.1-codex
  • 13 พฤศจิกายน extended prompt caching

    • เปิดตัว extended prompt cache retention
    • คงสถานะ cached prefix ให้ active ได้นานขึ้น สูงสุด 24 ชั่วโมง
    • เมื่อหน่วยความจำเต็ม จะ offload key/value tensor ไปยัง GPU local storage เพื่อเพิ่มความจุที่ใช้แคชได้อย่างมาก

ตุลาคม 2025

  • 29 ตุลาคม

    • gpt-oss-safeguard-120b และ gpt-oss-safeguard-20b เป็นโมเดล safety reasoning ที่สร้างขึ้นบน gpt-oss
    • รายละเอียดเพิ่มเติม: gpt-oss-safeguard collection
  • 24 ตุลาคม

    • เปิดตัว Enterprise Key Management (EKM)
    • EKM ช่วยให้สามารถเข้ารหัสคอนเทนต์ของลูกค้าภายใน OpenAI โดยใช้คีย์ที่จัดการจาก Key Management System (KMS) ภายนอก
    • เปิดตัว UK data residency ด้วย
  • 6 ตุลาคม OpenAI DevDay

    • เปิดตัวหลายฟีเจอร์ในงาน OpenAI DevDay
    • เปิดตัว gpt-5-pro
      • ใช้การประมวลผลมากกว่า GPT-5 เพื่อคิดได้ลึกขึ้นและให้คำตอบที่ดีกว่าอย่างสม่ำเสมอ
    • เปิดตัว gpt-realtime-mini และ gpt-audio-mini สำหรับประสิทธิภาพ speech-to-speech ที่คุ้มค่าต้นทุนมากขึ้น
    • เปิดตัว gpt-image-1-mini สำหรับการสร้างและแก้ไขภาพที่คุ้มค่าต้นทุนมากขึ้น
    • เปิดตัว v1/videos สำหรับการสร้างวิดีโอและ remix ที่สมบูรณ์ รายละเอียดสูง และมีความเคลื่อนไหว ด้วยโมเดลล่าสุด Sora 2 และ Sora 2 Pro
    • เปิดตัว Agent Builder ที่สามารถสร้าง custom multi-agent workflow แบบภาพได้
    • เปิดตัว ChatKit อินเทอร์เฟซแชตแบบฝังตัวสำหรับการนำ agent ไปใช้งาน
    • เปิดตัว Trace Evals, Datasets, and Prompt Optimization tools
    • เพิ่ม Third-Party Model Support ให้กับ Evals
    • เปิดตัว Service health dashboard
  • 1 ตุลาคม

    • เปิดตัว IP allowlist
    • จำกัดให้มีเพียง IP address หรือช่วง IP ที่กำหนดไว้เท่านั้นที่เข้าถึง API ได้

กันยายน 2025

  • 26 กันยายน

    • รองรับรูปภาพและไฟล์เป็น tool call output ของ Responses API
  • 23 กันยายน

    • เปิดตัว gpt-5-codex เป็นโมเดลเฉพาะทาง
    • สร้างและปรับแต่งมาให้เหมาะกับการใช้งาน Codex CLI

สิงหาคม 2025

  • 28 สิงหาคม

    • OpenAI Realtime API เปิดให้ใช้งานทั่วไปแล้ว
    • รายละเอียดเพิ่มเติม: Realtime API guide
  • 21 สิงหาคม

    • เพิ่มการรองรับ connectors ใน Responses API
    • connector คือ MCP wrapper ที่ OpenAI ดูแลรักษา สำหรับบริการยอดนิยมอย่าง Google apps, Dropbox เป็นต้น และสามารถใช้เพื่อให้โมเดลเข้าถึงข้อมูลแบบอ่านอย่างเดียวที่เก็บอยู่ในบริการเหล่านั้นได้
  • 20 สิงหาคม

    • เปิดตัว Conversations API
    • สามารถสร้างและจัดการบทสนทนาระยะยาวร่วมกับ Responses API ได้
    • ดูวิธีย้ายจากการผสานรวม Assistants API ไปยัง Responses และ Conversations พร้อมการเปรียบเทียบแบบเคียงข้างกันได้ใน migration guide
  • 7 สิงหาคม

    • เปิดตัวโมเดลตระกูล GPT-5 บน API ได้แก่ gpt-5, gpt-5-mini, gpt-5-nano
    • เพิ่มค่า minimal ของ reasoning effort เพื่อเพิ่มประสิทธิภาพการตอบสนองที่รวดเร็วในโมเดล GPT-5 ที่รองรับ reasoning
    • เพิ่มประเภท tool call แบบ custom ที่อนุญาตให้อินพุตและเอาต์พุตเป็นรูปแบบอิสระ

มิถุนายน 2025

  • 27 มิถุนายน

    • เปิดตัวการรองรับ Priority processing
    • มี latency ต่ำกว่าและสม่ำเสมอกว่า Standard processing มาก ขณะเดียวกันยังคงความยืดหยุ่นของการคิดค่าบริการตามการใช้งาน
  • 24 มิถุนายน

  • 13 มิถุนายน

    • ทำให้ reusable prompts แบบใหม่สามารถใช้งานได้บน Dashboard และ Responses API
    • ใน API สามารถอ้างอิงเทมเพลตที่สร้างใน Dashboard ได้ผ่านพารามิเตอร์ prompt และส่ง prompt id, version แบบเลือกได้ และ variables แบบไดนามิกที่รองรับอินพุตเป็นสตริง รูปภาพ และไฟล์ได้
    • reusable prompts ไม่สามารถใช้ใน Chat Completions ได้
    • รายละเอียดเพิ่มเติม: reusable prompts
  • 10 มิถุนายน

    • เปิดตัว o3-pro บน Responses API และ Batch API
    • ออกแบบให้ใช้การประมวลผลมากกว่า reasoning model o3 เพื่อตอบคำถามยาก ๆ ด้วย reasoning และความสม่ำเสมอที่ดีกว่า
    • ปรับลดราคาโมเดล o3 สำหรับทุกคำขอ API รวมถึง batch และ flex processing
      • รายละเอียดเพิ่มเติม: pricing
  • 4 มิถุนายน

    • เพิ่มการรองรับ fine-tuning ที่ใช้ direct preference optimization ให้กับ gpt-4.1-2025-04-14, gpt-4.1-mini-2025-04-14, gpt-4.1-nano-2025-04-14
  • 3 มิถุนายน

พฤษภาคม 2025

  • 20 พฤษภาคม เครื่องมือในตัว

    • เพิ่มเครื่องมือในตัวใหม่ให้กับ Responses API
    • รวมถึง remote MCP servers และ code interpreter
    • รายละเอียดเพิ่มเติม: tools
  • 20 พฤษภาคม schema

    • ทำให้สามารถใช้โหมด strict กับ tool schema ได้ในการเรียกใช้เครื่องมือแบบขนานของโมเดลที่ไม่ได้ fine-tuning บน Responses API และ Chat Completions API
    • เพิ่ม schema features ใหม่ด้วย โดยรวมถึงการตรวจสอบสตริงสำหรับ email และแพตเทิร์นอื่น ๆ รวมถึงการกำหนดช่วงของตัวเลขและอาร์เรย์
  • 15 พฤษภาคม

    • เปิดตัว codex-mini-latest บน API
    • ปรับให้เหมาะกับการใช้งาน Codex CLI
  • 7 พฤษภาคม

    • เปิดตัวการรองรับ reinforcement fine-tuning
    • สามารถดูรูปแบบ fine-tuning ที่ใช้งานได้ใน fine-tuning guide
    • เพิ่ม gpt-4.1-nano เป็นโมเดลที่รองรับการทำ fine-tuning

เมษายน 2025

  • 30 เมษายน

  • 23 เมษายน

    • เพิ่มโมเดลสร้างภาพ gpt-image-1
    • โมเดลนี้ยกระดับคุณภาพและการทำตาม instruction จนเป็นมาตรฐานใหม่ของการสร้างภาพ
    • อัปเดต Image Generation และ Edit endpoint ให้รองรับพารามิเตอร์ใหม่สำหรับ gpt-image-1 โดยเฉพาะด้วย
  • 16 เมษายน

    • เพิ่ม o-series reasoning models สองรุ่นคือ o3 และ o4-mini ไปยัง Chat Completions API และ Responses API
    • สร้างมาตรฐานใหม่ด้านคณิตศาสตร์ วิทยาศาสตร์ การเขียนโค้ด งาน visual reasoning และการเขียนเอกสารทางเทคนิค
    • เปิดตัว Codex ซึ่งเป็นเครื่องมือ CLI สำหรับสร้างโค้ดด้วย
  • 14 เมษายน

    • เพิ่ม gpt-4.1, gpt-4.1-mini, gpt-4.1-nano ลงใน API
    • รองรับ instruction following, การเขียนโค้ด และ context window ที่ใหญ่ขึ้นสูงสุด 1 ล้านโทเค็น
    • gpt-4.1 และ gpt-4.1-mini รองรับ supervised fine-tuning
    • ประกาศยุติการรองรับ gpt-4.5-preview ด้วย

มีนาคม 2025

  • 20 มีนาคม

    • เพิ่มโมเดล gpt-4o-mini-tts, gpt-4o-transcribe, gpt-4o-mini-transcribe, whisper-1 ลงใน Audio API
  • 19 มีนาคม

    • เปิดตัว o1-pro บน Responses API และ Batch API
    • ใช้การประมวลผลมากกว่าโมเดล reasoning o1 เพื่อให้ตอบปัญหาที่ยากได้ด้วย reasoning และความสม่ำเสมอที่ดียิ่งขึ้น
  • 11 มีนาคม

    • เปิดตัวหลายโมเดลใหม่ เครื่องมือใหม่ และ API ใหม่สำหรับ agentic workflow
    • เปิดตัว Responses API เพื่อให้สามารถสร้างและใช้งาน agent กับเครื่องมือได้
    • เปิดตัวชุดเครื่องมือในตัวสำหรับ Responses API ได้แก่ web search, file search, computer use
    • เปิดตัว Agents SDK ซึ่งเป็น orchestration framework สำหรับการออกแบบ สร้าง และดีพลอย agent
    • ประกาศโมเดล gpt-4o-search-preview, gpt-4o-mini-search-preview, computer-use-preview
    • เปิดเผยแผนที่จะย้ายความสามารถทั้งหมดของ Assistants API ไปยัง Responses API ที่ใช้งานง่ายกว่า และแจ้งกำหนดการว่าจะยุติ Assistants ในปี 2026 หลังจากบรรลุความเท่าเทียมด้านฟีเจอร์ครบถ้วน
  • 3 มีนาคม

    • เพิ่มการรองรับฟิลด์ metadata สำหรับ fine-tuning job

กุมภาพันธ์ 2025

  • 27 กุมภาพันธ์

    • เปิดตัว GPT-4.5 ในรูปแบบ research preview บน Chat Completions API, Assistants API และ Batch API
    • GPT-4.5 ถูกอธิบายว่าเป็นโมเดลแชตที่ใหญ่ที่สุดและมีประสิทธิภาพสูงที่สุด โดยมี EQ สูงและเข้าใจเจตนาของผู้ใช้ได้ดี จึงโดดเด่นกว่าในงานสร้างสรรค์และ agentic planning
  • 25 กุมภาพันธ์

    • เปิดตัว API Usage Dashboard Update
    • สะท้อนคำขอเพิ่มตัวกรองข้อมูล เช่น การเลือกโปรเจกต์ ตัวเลือกวันที่ และช่วงเวลาที่ละเอียดขึ้น
    • ช่วยให้มองเห็นการใช้งานในผลิตภัณฑ์และ service tier ที่แตกต่างกันได้ดียิ่งขึ้น
  • 5 กุมภาพันธ์

    • เปิดตัว data residency ในยุโรป
    • รายละเอียดเพิ่มเติม: your data

มกราคม 2025

  • 31 มกราคม

    • เปิดตัว o3-mini เป็นโมเดล reasoning ขนาดเล็ก
    • ปรับแต่งให้เหมาะกับงานวิทยาศาสตร์ คณิตศาสตร์ และการเขียนโค้ด
  • 21 มกราคม

    • ขยายขอบเขตการเข้าถึง o1 model
    • โมเดลตระกูล o1 ได้รับการฝึกด้วย reinforcement learning เพื่อทำ reasoning ที่ซับซ้อน

ธันวาคม 2024

  • 18 ธันวาคม

    • เปิดตัว Admin API Key Rotations เพื่อให้สามารถหมุนเวียน admin API key แบบโปรแกรมได้
    • อัปเดต Admin API Invites เพื่อให้สามารถเชิญผู้ใช้เข้าร่วมโปรเจกต์แบบโปรแกรมได้พร้อมกับการเชิญเข้าร่วมองค์กร
  • 17 ธันวาคม

  • 4 ธันวาคม

    • เปิดตัว Usage API
    • ทำให้สามารถดูข้อมูลกิจกรรมและค่าใช้จ่ายทั่วทั้ง OpenAI API แบบโปรแกรมได้

พฤศจิกายน 2024

  • 20 พฤศจิกายน

    • เปิดตัว gpt-4o-2024-11-20 บน v1/chat/completions
    • เป็นโมเดลล่าสุดในตระกูล gpt-4o
  • 4 พฤศจิกายน

    • เปิดตัว Predicted Outputs
    • ลดเวลาแฝงของการตอบกลับจากโมเดลได้อย่างมากในสถานการณ์ที่รู้เนื้อหาส่วนใหญ่ของคำตอบล่วงหน้าอยู่แล้ว
    • ใช้บ่อยเป็นพิเศษเมื่อสร้างเนื้อหาเอกสารและไฟล์โค้ดขึ้นใหม่โดยมีการเปลี่ยนแปลงเพียงเล็กน้อย

ตุลาคม 2024

  • 30 ตุลาคม

    • เพิ่มเสียงแบบใหม่ 5 แบบใน Realtime API และ Chat Completions API
    • โมเดลที่รองรับคือ gpt-4o-realtime-preview และ gpt-4o-audio-preview และมีการระบุ endpoint v1/chat/completions ไว้ด้วย
  • 17 ตุลาคม

    • เปิดตัวโมเดล gpt-4o-audio-preview ใหม่
    • รองรับทั้งอินพุตและเอาต์พุตแบบเสียงใน Chat Completions
    • โมเดลนี้ใช้โมเดลพื้นฐานเดียวกับ Realtime API
  • 1 ตุลาคม OpenAI DevDay in San Francisco

    • เปิดตัวฟีเจอร์หลายอย่างพร้อมกันใน OpenAI DevDay in San Francisco
    • Realtime API ช่วยให้สร้างประสบการณ์ speech-to-speech ที่รวดเร็วในแอปพลิเคชันได้ด้วยอินเทอร์เฟซ WebSockets
    • Model distillation ช่วยให้ fine-tune โมเดลที่คุ้มค่าด้านต้นทุนได้โดยใช้เอาต์พุตจาก frontier model ขนาดใหญ่
    • Image fine-tuning ช่วยให้ fine-tune GPT-4o ด้วยภาพและข้อความเพื่อปรับปรุงความสามารถด้านการมองเห็น
    • Evals มีฟังก์ชันรันการประเมินแบบกำหนดเองเพื่อวัดประสิทธิภาพของโมเดลในงานเฉพาะ
    • Prompt caching มอบส่วนลดและเวลาในการประมวลผลที่เร็วขึ้นสำหรับโทเค็นอินพุตที่เพิ่งถูกใช้ล่าสุด
    • Generate in playground ช่วยให้สร้างพรอมป์ต์ คำจำกัดความของฟังก์ชัน และ structured output schema ได้ง่ายด้วยปุ่ม Generate

กันยายน 2024

  • 26 กันยายน

    • เปิดตัวโมเดล moderation omni-moderation-latest ใหม่
    • รองรับภาพและข้อความ และในบางหมวดหมู่สามารถจัดการข้อความและภาพร่วมกันได้
    • รองรับ harm category สำหรับข้อความเท่านั้นแบบใหม่ 2 หมวด และความแม่นยำของคะแนนก็ดีขึ้น
  • 12 กันยายน

    • เปิดตัว o1-preview และ o1-mini
    • ทั้งสองโมเดลเป็นโมเดลภาษาขนาดใหญ่แบบใหม่ที่ฝึกด้วยreinforcement learning และมีเป้าหมายเพื่อทำงานด้านการให้เหตุผลที่ซับซ้อน
    • endpoint แสดงเป็น v1/chat/completions

สิงหาคม 2024

กรกฎาคม 2024

  • 24 กรกฎาคม

    • เปิดตัว self-serve SSO configuration
    • ลูกค้า Enterprise ที่ใช้ custom และ unlimited billing สามารถตั้งค่าการยืนยันตัวตนให้ตรงกับ IDP ที่ต้องการได้
  • 23 กรกฎาคม

    • เปิดตัว การ fine-tune GPT-4o mini เพื่อมุ่งสู่ประสิทธิภาพที่สูงขึ้นใน use case เฉพาะ
  • 18 กรกฎาคม

    • เปิดตัว GPT-4o mini
    • ถูกแนะนำว่าเป็นโมเดลขนาดเล็กราคาประหยัดสำหรับงานที่ต้องการความเร็วและน้ำหนักเบา
  • 17 กรกฎาคม

    • เปิดตัว Uploads เพื่อให้อัปโหลดไฟล์ขนาดใหญ่โดยแบ่งเป็นหลายพาร์ตได้

มิถุนายน 2024

พฤษภาคม 2024

  • 15 พฤษภาคม

    • เพิ่มการรองรับ Project Archive และมีเพียง organization owner เท่านั้นที่เข้าถึงได้
    • เพิ่มการรองรับการ ตั้งค่า cost limit แยกตามโปรเจกต์สำหรับลูกค้าแบบคิดค่าบริการตามการใช้งาน
  • 13 พฤษภาคม

    • เปิดตัว GPT-4o บน API
    • ระบุว่าเป็นโมเดล flagship ที่เร็วที่สุดและราคาถูกที่สุด
  • 9 พฤษภาคม

  • 7 พฤษภาคม

  • 6 พฤษภาคม

    • เพิ่มพารามิเตอร์ stream_options: {"include_usage": true} ให้กับ Chat Completions API และ Completions API
    • เมื่อใช้การตั้งค่านี้ จะเข้าถึง usage stats ได้ระหว่างการสตรีม
  • 2 พฤษภาคม

    • เพิ่ม endpoint ใหม่ สำหรับลบข้อความในเธรดบน Assistants API

เมษายน 2024

มีนาคม 2024

กุมภาพันธ์ 2024

  • 9 กุมภาพันธ์

  • 1 กุมภาพันธ์

    • เปิดตัว gpt-3.5-turbo-0125 เป็นโมเดล GPT-3.5 Turbo ที่อัปเดตแล้ว

มกราคม 2024

  • 25 มกราคม

    • เปิดตัวโมเดล embedding V3 และ GPT-4 Turbo preview เวอร์ชันอัปเดต
    • เพิ่มพารามิเตอร์ dimensions ให้กับ Embeddings API

ธันวาคม 2023

  • 20 ธันวาคม

    • เพิ่มพารามิเตอร์ additional_instructions สำหรับการสร้าง Run ใน Assistants API
  • 15 ธันวาคม

  • 14 ธันวาคม

    • อาร์กิวเมนต์ function parameters ของ tool call เปลี่ยนเป็นตัวเลือกได้

พฤศจิกายน 2023

ตุลาคม 2023

2 ความคิดเห็น

 
ragingwind 4 일 전

ตอนนี้ตั้งแต่ 5.4 เป็นต้นไป เวอร์ชัน pro ก็จะไม่รองรับ Chat Completions API อีกต่อไปแล้ว

 
GN⁺ 4 일 전
ความเห็นจาก Hacker News
  • ผมเพิ่งลองใช้ทันทีเพราะมีปัญหาในโปรดักชัน แล้วก็เจอว่า GPT-5.5 ทำแบบที่ Claude ไม่เคยทำ
    มันให้ผมเขียนคำสั่ง update หลังจาก troubleshooting เสร็จ แล้วพอผมบอกว่า "โอเค งั้นครอบอันนี้ด้วย transaction แล้วใส่ rollback ด้วย" มันกลับตอบมาแบบโบราณว่า
    BEGIN TRAN;
    -- put the query here
    commit;
    แค่นี้เอง
    พักหลังผมแทบไม่ต้องคอยผลักให้โมเดลทำงานที่สั่งจริง ๆ แล้ว แต่เจอแบบนี้ถือว่าช็อกพอสมควร
    เข้าใจนะว่ามันพยายามใช้โทเค็นให้น้อยลง แต่ถ้าผมจ่ายเงินให้ โมเดลล้ำสมัย แล้วมันออกอาการขี้เกียจแบบนี้ก็หงุดหงิดเหมือนกัน
    เห็นมันขึ้นในตัวเลือกโมเดลของ Cursor ก็เลยลองเฉย ๆ

    • หลัง gpt-5.3-codex มา 2-3 รุ่นหลังสุด ผมรู้สึกว่าไม่ได้ดีขึ้นแบบชัดเจน แต่เหมือนเปลี่ยนนั่นเปลี่ยนนี่แล้วได้ tradeoff คนละแบบมากกว่า
    • ผมอาจเข้าใจผิดก็ได้ แต่อยากรู้จริง ๆ ว่าปัญหาคืออะไร
      ถ้าปัญหาคือมันตอบแค่ -- put the query here แล้วไม่ได้พิมพ์ query ซ้ำอีกครั้ง ผมก็ไม่คิดว่านั่นจำเป็นต้องเป็นปัญหา
      ถ้าเป้าหมายจริง ๆ คือให้ได้ query ที่จะรัน แล้วคุณบอกว่า "ทำอันนี้เป็น transaction" การบอกว่าแค่พิมพ์ begin ไว้ข้างหน้าก็ถือว่าสมเหตุสมผลทีเดียว
      ถ้า query ยาว ก็ประหยัดโทเค็นด้วย และมันก็คล้ายกับเวลาขึ้น permission denied แล้วแทนที่จะเขียนคำสั่งทั้งหมดซ้ำอีกครั้ง ก็บอกให้เติม sudo ข้างหน้า
      แต่ถ้าคุณคาดหวังให้โมเดลรัน query ให้จริง ๆ แล้วมันตอบประมาณว่า "นี่ไง เอาไปจัดการรันเอง" แบบนั้นก็ขี้เกียจชัดเจน และงงได้ไม่แปลก
    • ดูเหมือน OpenAI จะเป็นบริษัทแรกที่ไปถึงระดับ ความฉลาดที่เอางานไปให้ผู้ใช้ทำแทน ได้สำเร็จ
      เหมือนจะเป็น emergent behavior ที่โผล่มาในรูปแบบนี้
      พูดเล่นก็ส่วนพูดเล่น แต่การที่ OpenAI หมกมุ่นกับการเพิ่ม intelligence ต่อ token แบบสุดโต่ง ทำให้นึกถึงยุคก่อน M1 ที่ Apple พยายามทำ MacBook ให้บางลงแบบเกินพอดี
      คือไล่ตามตัวชี้วัดเดียวจนสุด แล้วเสียอย่างอื่นไปหมด
      GPT-5.3+ ชัดเจนว่าเป็นโมเดลที่ฉลาดมากกลุ่มหนึ่ง แต่บางทีก็ขี้เกียจจนร่วมงานด้วยแล้วทรมาน
    • ผมยังจับความรู้สึกไม่ได้เลยว่าตัวอย่างข้างบนถือว่าดีหรือแย่กันแน่
    • เรื่องเดียวที่ GPT-5.5 ดูจะทุบ benchmark กระจุย คือความไว้ใจผู้ใช้นี่แหละ
  • เมื่อกี้ผมลองรันกับ Wordpress+GravityForms benchmark ของตัวเองแล้ว ผลคือทั้งตามเกณฑ์ประสิทธิภาพก็ติดท้ายลีดเดอร์บอร์ด และถ้าวัดความคุ้มค่าก็แย่ที่สุด: https://github.com/guilamu/llms-wordpress-plugin-benchmark
    รู้ว่าเป็นแค่ benchmark เดียว แต่ก็ยังไม่เข้าใจว่าจะออกมาแย่ได้ขนาดนี้ยังไง

    • มันให้อารมณ์เหมือนจูเนียร์ที่ประสบการณ์น้อย กำลังง่วนอยู่กับโดเมนที่ตัวเองไม่คุ้นในโรงรถ แล้วทำการทดสอบหละหลวมก่อนเรียกมันว่า benchmark
      ทุกวันนี้ความหมายของคำต่าง ๆ พังง่ายเกินไป เลยเห็นอะไรแบบนี้บ่อย
      ฟอรัมที่เมื่อก่อนมีคนทำงานสายเทคนิคจริง ๆ เยอะ เดี๋ยวนี้ก็ดูเหมือนจะเต็มไปด้วยมวลชนสาย vibe researcher และพออะไรดังเกินจุดหนึ่งก็มักลงเอยแบบนี้
      HN ยังดูเหมือนเป็นฐานที่มั่นสุดท้ายที่เหลือการสำรวจค้นคว้าแบบจริงจังอยู่บ้าง แต่ดูจากคอมเมนต์ต้นทางแล้วก็ไม่ได้มีภูมิคุ้มกันเสียทีเดียว
    • ใน benchmark ของคุณ gemma4-e4b ทำได้ดีกว่า gemma4-26b อยู่ 50% อันนี้น่าจะมีอะไรผิดพลาดนะ
    • ใน benchmark ของคุณ Opus 4.7 แย่กว่า Sonnet 4.6 มาก ซึ่งต่อให้มันจริงสำหรับ benchmark นั้น ก็ไม่ได้แปลว่ามันเป็นตัวแทนสมรรถนะโดยรวมของโมเดล
    • เหมือนคุณนั่งไทม์แมชชีนไปหยิบ benchmark นี้มาจากอนาคตเลย
      benchmarking แบบนี้ผมชอบพอสมควร
      ผมสงสัยว่า judge benchmark ประเมินกันยังไง และผมเองก็อยากจัด benchmark คล้าย ๆ กันขึ้นมาบ้าง
    • อันนี้ดูใกล้เคียงกับ benchmark ที่วัดว่าโมเดลเก่ง vibe coding แค่ไหนมากกว่า
      ตัวพรอมป์บางเฉียบ แต่เกณฑ์ให้คะแนนเยอะมาก
  • ราคาตามความยาวคอนเท็กซ์ เป็นแบบนี้
    อินพุตไม่เกิน 272K ราคา $5/M, เกินนั้น $10/M
    เอาต์พุตไม่เกิน 272K ราคา $30/M, เกินนั้น $45/M
    การอ่านแคชไม่เกิน 272K ราคา $0.50/M, เกินนั้น $1/M
    ถ้าเกิน 272K ก็แพงกว่า Opus 4.7 อย่างชัดเจน และอย่างน้อยสำหรับงานของผม มันก็ดูไม่ได้มีประสิทธิภาพต่อโทเค็นดีขึ้นพอจะคุ้ม
    ยังไม่มากพอจะชดเชยส่วนต่างราคา
    จุดแข็งของ GPT-5.4 คือคอนเท็กซ์ 400k และ compaction ที่ไว้ใจได้ แต่ทั้งสองอย่างดูถอยหลังลงเล็กน้อย
    อย่างไรก็ตาม ยังเร็วเกินไปที่จะฟันธงว่า compaction เชื่อถือได้น้อยลงจริงหรือไม่
    เอาต์พุตฝั่งฟรอนต์เอนด์ก็ยังมีแนวโน้มเอนไปทางเทมเพลตโทนสีน้ำเงินที่เต็มไปด้วยการ์ดสะดุดตาแบบเดิม
    เป็นสไตล์ที่ดูน่าสงสัยมาตั้งแต่ช่วง Horizon Alpha/Beta ก่อนเปิดตัว GPT-5 แล้ว แต่ตอนนั้น task adherence ดีมากจนยอมทนจุดอ่อนใหญ่นั้นได้และยังถือว่าใช้งานได้
    แต่พอ GPT-5.5 บอกว่าเป็น foundation ใหม่ทั้งหมดแล้ว ส่วนนี้ยังจำกัดอยู่แบบนี้ก็ค่อนข้างแปลก

  • ผล benchmark การให้เหตุผลด้านโค้ดแบบภาพรวมของ GPT 5.5 ขึ้นแล้วที่ https://gertlabs.com/
    ทั้ง live decision และ agentic eval ที่หนักกว่านี้จะทยอยเพิ่มต่ออีกเรื่อย ๆ ตลอด 24 ชั่วโมง แต่ตอนนี้ก็ดูไม่น่าจะมีอะไรเปลี่ยนอันดับบนลีดเดอร์บอร์ดแล้ว
    GPT 5.5 เป็นโมเดลที่ฉลาดที่สุดในบรรดาโมเดลสาธารณะ และเร็วขึ้นจากรุ่นก่อนอย่างชัดเจน

  • เมื่อวานยังพูดแบบนี้อยู่เลย

    API deployments require different safeguards and we are working closely with partners and customers on the safety and security requirements for serving it at scale.
    แต่วันนี้กลับเป็นแบบนี้ทันที
    วันเดียวก็นับว่าเป็น "very soon" อยู่หรอก แต่ก็สงสัยว่าจริง ๆ แล้ว safeguards กับ security requirements นั้นหมายถึงอะไรแน่

    • เวลามีคนบอกว่าอะไรบางอย่างช้าเพราะ safeguards ปกติแล้วก็มักจะแปลว่า ตอนนี้ยังไม่มีทรัพยากรคอมพิวต์เต็มรูปแบบพอจะปล่อย
    • GPT-5.5 มีอยู่ใน API สำหรับ Codex โดยเฉพาะมาก่อนแล้ว และเขาก็บอกชัดว่าหยิบไปใช้วัตถุประสงค์อื่นได้ด้วย
      https://simonwillison.net/2026/Apr/23/gpt-5-5/#the-openclaw-backdoor
      เลยคิดว่าเรื่องนั้นอาจเป็นปัจจัยที่ทำให้การเปิดตัวครั้งนี้เร็วขึ้นก็ได้
    • คนที่โกหกแบบโจ่งแจ้งเรื่อง ความปลอดภัย มาตลอดขนาดนั้นยังคงเป็นคนบริหารบริษัทอยู่ ผมเลยไม่ค่อยเข้าใจว่าทำไมถึงยังคาดหวังว่าครั้งต่อไปจะต่างออกไป
      มีตัวอย่างเก่าด้วย

      In 2023, the company was preparing to release its GPT-4 Turbo model. As Sutskever details in the memos, Altman apparently told Murati that the model didn’t need safety approval, citing the company’s general counsel, Jason Kwon. But when she asked Kwon, over Slack, he replied, “ugh . . . confused where sam got that impression.”
      Altman ไม่ได้ซื่อสัตย์อย่างเต็มที่หลายครั้งเกี่ยวกับความสำคัญของ safety ใน OpenAI
      https://www.newyorker.com/magazine/2026/04/13/sam-altman-may-control-our-future-can-he-be-trusted (https://archive.is/a2vqW)

  • ไม่แน่ใจว่าผมคิดไปเองไหม แต่ผมเริ่มรู้สึกว่า OpenAI ปล่อย นักคอมเมนต์รับเงิน หรือบอตมาคอยกด Claude แล้วดัน Codex ว่าดีกว่ามากทุกครั้งที่มีข่าวแบบนี้
    มันเยอะเกินไป และหลายข้ออ้างก็ฟังไม่ขึ้นถ้าคุณใช้ Claude ทุกวัน

    • ใช่ แปลกแบบผิดสังเกตจริง ๆ
      มันคล้ายกับบรรยากาศที่เหมือนทุกคนลืมไปแล้วว่า OpenAI ทรยศต่อประชาธิปไตยด้วยการไปช่วยเรื่อง อาวุธอัตโนมัติไร้การกำกับดูแล และการสอดส่องภายในประเทศขนาดใหญ่
    • ผมก็รู้สึกว่ามันโจ่งแจ้งพอสมควรเหมือนกัน
      อย่างน้อยสิ่งที่เริ่มโผล่ให้เห็นชัด ๆ ก็คือช่วงหลัง Opus 4.6 hype นี่เอง
    • แน่นอนว่ามีทำกัน
      ทุกวันนี้บริษัทที่พยายามดันสินค้าตัวเองก็คล้าย ๆ กันหมด
  • ผมเป็นผู้ใช้ Enterprise แต่ก็ยังเห็นแค่ 5.4
    เมื่อวานประกาศว่าต้องใช้เวลาอีกไม่กี่ชั่วโมงกว่าจะ rollout ครบทุกคน ซึ่ง OpenAI ควรทำ GTM ให้ดีกว่านี้หน่อยถ้าจะบริหารความคาดหวัง

    • เมื่อกี้รีเฟรชแล้วเห็น 5.5 โผล่มาแล้ว
      ปล่อยได้เร็วแบบนี้ก็ดี
      คราวหน้าคงต้องรีบบ่นให้เร็วกว่านี้
  • เป็นโมเดลที่สองที่ได้ 25/25 ใน benchmark ของผม
    ตัวแรกคือ Opus 4.7 และผลอยู่ที่นี่: https://sql-benchmark.nicklothian.com/?highlight=openai_gpt-5.5
    ถูกกว่า Opus แต่ช้ากว่า

  • ในหน้า API ระบุ knowledge cutoff เป็น 2025-12-01 แต่ถ้าถามโมเดลตรง ๆ มันกลับตอบว่า ตอบว่าเป็นเดือนมิถุนายน 2024
    Knowledge cutoff: 2024-06
    Current date: 2026-04-24
    You are an AI assistant accessed via an API.

    • ไม่เข้าใจว่าทำไมประเด็นนี้ถึงวนกลับมาบ่อยนัก
      การถามตัวโมเดลเองเพื่อเช็กวันที่ cutoff เป็นวิธีที่เชื่อถือน้อยที่สุดมาตั้งนานแล้ว
      มันอาจเคยเรียนรู้แม้แต่คอมเมนต์แบบนี้ด้วยซ้ำ
      แค่ถามถึงเหตุการณ์สักอย่างที่เกิดขึ้นก่อน 2025-12-01 ไม่นานก็พอ
      ถ้าเป็นไปได้ การแข่งขันกีฬา จะเหมาะที่สุด
    • ผมไม่แน่ใจว่าจะเชื่อที่โมเดลพูดได้จริงหรือเปล่า
      ในหน้า API ของโมเดลรุ่นก่อน ๆ ก็เคยระบุ cutoff เดือนมิถุนายน 2024 ไว้เยอะเหมือนกัน มันอาจแค่หยิบมาเล่าตามนั้น
    • โมเดลไม่รู้ cutoff date ของตัวเองหรอก ถ้าไม่ได้ถูกบอกผ่าน system prompt
      วิธีที่ถูกต้องในการตรวจ cutoff จริงคือถามเรื่องที่ยังไม่มีอยู่หรือยังไม่เกิดขึ้นก่อนวันนั้น
      จากที่ลองทดสอบคร่าว ๆ หลายครั้ง cutoff ของความรู้ทั่วไปของ 5.5 ก็ดูยังอยู่ราวต้นปี 2025
    • งั้นลองทดสอบด้วยว่าใครชนะ การเลือกตั้งประธานาธิบดีสหรัฐปี 2024 ได้ไหม
  • ชุด GPT 5.5 + Codex ดีมากจริง ๆ
    ไม่ว่าจะถาม วางแผน หรือให้เขียนโค้ด ตอนนี้ผมแทบจะมอบให้ทำได้โดยไม่ต้องสงสัยแล้ว
    ส่วน Opus 4.7 ยังทำให้ผมต้องคอยเช็กซ้ำ
    มันไม่ค่อยทำตามคำสั่งใน CLAUDE.md, มี hallucination เยอะ และถ้าหาคำตอบไม่ได้ก็มักแต่งขึ้นมาเองเป็นค่าเริ่มต้น ซึ่งเป็นปัญหาใหญ่พอควร
    ตอนปีที่แล้วคนพูดกันว่า OpenAI ตามหลังแล้ว เป็น code red กันอย่างรวดเร็วมาก แต่พอมาตอนนี้สถานการณ์ก็ดูเปลี่ยนไปหมดแล้ว