• GPT-5 ทำงานเป็น ระบบรวม ที่ใช้ ตัวรับเส้นทางแบบเรียลไทม์ ปรับโมเดลให้เหมาะกับบริบทการสนทนา และใน API มีให้เลือก Regular·Mini·Nano 3 ประเภท พร้อมระดับการให้เหตุผล Minimal·Low·Medium·High 4 ระดับ
  • รองรับขีดจำกัดอินพุต 272,000 โทเค็น และเอาท์พุต 128,000 โทเค็น โดยอินพุตรองรับ ข้อความ·รูปภาพ และเอาท์พุตเป็น ข้อความเท่านั้น
  • ราคาเป็น การตั้งราคาแบบก้าวรุก โดยต้นทุนอินพุตเป็นเพียง ครึ่งหนึ่ง ของ GPT-4o และมีส่วนลด 90% สำหรับการแคชโทเค็น เมื่อมีการส่งอินพุตซ้ำภายในไม่กี่นาทีก่อนหน้า
  • ในระบบการ์ดมีการเน้น การลด Hallucination, การปรับปรุงการทำตามคำสั่ง, การลดการยอมหย่อน (sycophancy) และการฝึก Safe‑Completions ซึ่งมุ่งเน้นให้คำตอบอยู่ในขอบเขตความปลอดภัยแทนการปฏิเสธแบบไบนารี
  • ด้านความปลอดภัย การรับมือ Prompt injection ดีขึ้นแล้ว แต่ยังคงมีพื้นที่ที่ยังไม่แก้ไข โดยมีอัตราความสำเร็จ 56.8% เมื่อทดสอบ 10 ครั้ง (k=10) และใน API สามารถควบคุมการไหลของโทเค็น reasoning ได้ผ่าน การสรุป reasoning และตัวเลือก reasoning_effort=minimal

GPT-5 : คุณลักษณะสำคัญ ราคา และการวิเคราะห์การ์ดระบบ

  • ผู้เขียน Simon Willison ใช้ GPT‑5 อย่างต่อเนื่องเป็นเวลา 2 สัปดาห์ ด้วยสิทธิ์เข้าถึงตัวอย่าง และรู้สึกว่ามันไม่ได้ก้าวกระโดดแบบหักโลก แต่โดยรวมแล้วใช้งานได้ยอดเยี่ยม ความผิดพลาดเกิดขึ้นไม่บ่อย และเป็น โมเดลค่าเริ่มต้นที่ทำงานได้คงเส้นคงวา
  • บทความนี้เป็นตอนแรกของซีรีส์ โดยสรุปสิ่งที่อ่านได้จาก คุณลักษณะหลัก, ราคา, และ การ์ดระบบ

คุณสมบัติหลักของโมเดล

  • ใน ChatGPT, GPT‑5 รวม โมเดลเร็วทั่วไป และ โมเดล reasoning เชิงลึก เข้าด้วยกัน และทำงานแบบ สถาปัตยกรรมไฮบริด โดย ตัวรับเส้นทางแบบเรียลไทม์ จะเลือกโมเดลที่เหมาะสมตาม ประเภทการสนทนา·ระดับความยาก·ความจำเป็นในการใช้เครื่องมือ·สัญญาณเจตนาที่ระบุชัด

    real‑time router จะเลือกโมเดลตามประเภทการสนทนา ความซับซ้อน ความจำเป็นของเครื่องมือ และสัญญาณเจตนาเช่น ‘think hard’; หากใช้สิทธิ์ได้เต็มที่แล้ว รุ่น mini ของแต่ละโมเดลจะมาแทนที่” ตามคำอธิบายในระบบการ์ด

  • ใน API ลดความซับซ้อนเหลือ 3 แบบคือ Regular·Mini·Nano โดยแต่ละแบบรองรับ 4 ระดับ reasoning คือ Minimal·Low·Medium·High
  • ขีดจำกัด context คือ อินพุต 272,000 โทเค็น และ เอาท์พุต 128,000 โทเค็น โดย โทเค็น reasoning ที่ซ่อนอยู่ ก็ถูกนับเป็นโทเค็นเอาท์พุตด้วย
  • In/Out ทำงานเป็น ข้อความ·รูปภาพสำหรับอินพุต และ ข้อความเอาท์พุตเท่านั้น โดยมี knowledge cutoff คือ GPT‑5: 2024‑09‑30, Mini/Nano: 2024‑05‑30
  • ขณะใช้ GPT‑5 เต็มรูปแบบ รู้สึกได้ถึงแนวโน้มการตอบที่ แม่นยำและสงบ และแทบไม่มีแรงจูงใจให้ลองรันด้วยโมเดลอื่นใหม่

ตำแหน่งในตระกูลโมเดลของ OpenAI

  • จากตารางแมปในระบบการ์ด ตำแหน่งตัวเดิมทั้งหมดถูกแทนที่ให้เข้ามาอยู่ในตระกูล GPT‑5
    • GPT‑4o → gpt‑5‑main, GPT‑4o‑mini → gpt‑5‑main‑mini
    • OpenAI o3 → gpt‑5‑thinking, o4‑mini → gpt‑5‑thinking‑mini
    • GPT‑4.1‑nano → gpt‑5‑thinking‑nano, o3 Pro → gpt‑5‑thinking‑pro
  • thinking‑pro ปัจจุบันแสดงเป็น “GPT‑5 Pro” ใน ChatGPT และให้บริการเฉพาะใน ชั้นราคาเดือนละ $200 โดยใช้ parallel test‑time compute
  • ขอบเขตการทำงาน ระหว่าง audio input/output และ การสร้างรูปภาพ ยังคงอยู่ที่ GPT‑4o Audio/Realtime และ GPT Image 1/DALL‑E

ราคาเชิงแข่งขันอย่างก้าวรุก

  • การกำหนดราคาเป็นแบบ ก้าวรุก
    • GPT‑5: อินพุต $1.25 ต่อ 1 ล้าน, เอาท์พุต $10 ต่อ 1 ล้าน
    • GPT‑5 Mini: อินพุต $0.25 ต่อ 1 ล้าน, เอาท์พุต $2.00 ต่อ 1 ล้าน
    • GPT‑5 Nano: อินพุต $0.05 ต่อ 1 ล้าน, เอาท์พุต $0.40 ต่อ 1 ล้าน
  • ต้นทุนอินพุตของ GPT‑5 เป็น ครึ่งหนึ่ง ของ GPT‑4o และต้นทุนเอาท์พุตเท่ากัน
  • โทเค็น reasoning ถูกเรียกเก็บเป็น โทเค็นเอาท์พุต ดังนั้นต้นทุนรวมจึงต่างกันตาม ระดับ reasoning แม้จะใช้พรอมต์เดียวกัน
  • การมี ส่วนลดการแคชโทเค็น 90% ทำให้ประโยชน์ด้านการประหยัดต้นทุนสูงมากใน UI แชต ที่มีการส่ง context ซ้ำบ่อย
  • ในตารางเปรียบเทียบ คู่แข่งเช่น Claude Opus 4.1, Claude Sonnet 4, Grok 4, Gemini 2.5 Pro อยู่ในช่วง อินพุต $2.5~$15 ต่อ 1 ล้าน, เอาท์พุต $10~$75 ต่อ 1 ล้าน แสดงให้เห็น ข้อได้เปรียบด้านราคา ของตระกูล GPT‑5
  • เคยเกิดกรณีที่ให้ GPT‑5 จัดเรียงตารางอัตโนมัติ แล้วเปรียบเทียบราคาเรียงผิดบางส่วน และเมื่อสร้างตารางด้วย Python เพื่อจัดเรียงใหม่แล้วปัญหาหายไป

ข้อมูลเพิ่มเติมจากระบบการ์ด

  • โครงสร้างข้อมูลการฝึกอบรมรวมถึง เว็บสาธารณะ, ข้อมูลพาร์ทเนอร์, และข้อมูลที่สร้างโดย ผู้ใช้/เทรนเนอร์มนุษย์ พร้อมการอธิบายระดับหลักการเรื่องการ กรองการลดข้อมูลส่วนบุคคล
  • แนวทางปรับปรุงหลักเน้น การลด Hallucination, การปรับปรุงการปฏิบัติตามคำสั่ง, และ การลด sycophancy โดยชี้ให้เห็น writing·coding·health ว่าเป็น 3 กรณีการใช้งานที่พบบ่อยใน ChatGPT และยกระดับประสิทธิภาพในพื้นที่ดังกล่าว
  • Safe‑Completions คือการฝึกเน้นความปลอดภัยฝั่งเอาท์พุต (output-centric safety training) ที่โฟกัสที่ความปลอดภัยของผลลัพธ์แทนการปฏิเสธแบบไบนารี และลดความเสี่ยงเชิงละเอียดในคำถามที่เป็นวัตถุประสงค์คู่โดยเฉพาะด้าน ชีววิทยา·ความมั่นคง ที่ตีความเจตนาผู้ใช้ยาก โดยยังคงคุณประโยชน์
  • สำหรับ Sycophancy มีการฝึกต่อเนื่องหลังการฝึกหลัก โดยใช้การประเมินและสัญญาณรางวัลที่สะท้อนการกระจายตัวของการสนทนาผลิตจริงเพื่อลดแนวโน้มการอ้อนวอนรับมือตามผู้ใช้
  • ด้านความเป็นจริงเชิงข้อเท็จจริง โดยมี การเปิดใช้งานการ Browsing เป็นค่าเริ่มต้น และมีเป้าหมายลด Hallucination เมื่อจำเป็นต้องตอบจากความรู้ภายในโมเดลเท่านั้นโดยไม่ใช้เครื่องมือ
  • เพื่อป้องกันการหลอกลวงและสแปมหรือพูดเกินจริง มีการออกแบบรางวัลให้ยอมรับอย่างตรงไปตรงมาว่า ‘ทำไม่ได้’ เมื่อโจทย์ทำไม่ได้ และมีการประเมินจำลองโดย ปิดการใช้งาน Browsing และเครื่องมือโดยเจตนา เพื่อยับยั้งการตอบแบบหลอกหลอน

Prompt injection ในระบบการ์ด

  • มีรายงานว่า 2 ทีม red team ภายนอก ได้ทำการประเมิน prompt injection โดยมุ่งที่จุดอ่อนระดับระบบและเส้นทางคอนเนกเตอร์
  • ในกราฟเปรียบเทียบ attack success rate ของ gpt‑5‑thinking ที่ k=10 อยู่ที่ 56.8% ต่ำกว่าค่าของ Claude 3.7/โมเดลอื่นหลายตัว ที่อยู่ระดับ 60~90% ซึ่งดีขึ้น แต่ยังทะลุผ่านได้เกินครึ่ง จึงยังห่างไกลจากการแก้ปัญหาสำเร็จสมบูรณ์
  • จึงสรุปว่าหากแม้โมเดลดีขึ้นแล้ว การออกแบบผลิตภัณฑ์ควรถือว่าการป้องกันเชิงออกแบบและ guardrails เป็นเงื่อนไขพื้นฐานที่จำเป็น

Thinking traces ใน API

  • ผู้เขียนทราบตั้งแต่แรกว่าไม่สามารถดู ร่องรอย reasoning ที่ซ่อนอยู่ ได้ แต่ใน Responses API มีตัวเลือก reasoning: { "summary": "auto" } เพื่อรับ การสรุป reasoning
  • โดยไม่ใช้ตัวเลือกนี้ ระดับ reasoning เชิงลึกจะใช้โทเค็น reasoning จำนวนมากก่อนหน้าผลลัพธ์ที่มองเห็นได้ ทำให้มีความหน่วงที่รับรู้ได้ และการตั้งค่า reasoning_effort=minimal สามารถกระตุ้นให้เกิดการตอบแบบสตรีมมิ่งเร็วขึ้น

รวมถึง SVG ของปลากับนกอีกนิดหน่อย

  • ใน benchmark SVG ที่ผู้เขียนใช้อยู่ประจำอย่าง “pelican ขี่จักรยาน”, ผลลัพธ์ของ GPT‑5 (reasoning ระดับ Medium ค่าเริ่มต้น) แสดงรายละเอียดและความถูกต้องของรูปทรงสูง ทำให้ได้เวกเตอร์ที่อ่านง่าย
  • GPT‑5 Mini ให้การแสดงสีและการไล่โทนที่อุดมสมบูรณ์ แต่มีความผิดพลาดเชิงโครงสร้าง โดยสร้าง คอนของนกเพลิกาเน่สองอัน
  • GPT‑5 Nano ลดความซับซ้อนของทั้ง จักรยานและรูปทรงนกเพลิกาเน่ เหลือระดับสรุปการทำงาน

สรุปประเด็นการใช้งานจริง

  • การเลือกโมเดล: เริ่มที่ Regular ก่อน หากเพียงพอให้ Downshift ไปเป็น Mini/Nano และสำหรับปัญหาที่ซับซ้อนให้พิจารณาเชน thinking และตั้งระดับ reasoning ให้สูงขึ้น
  • การควบคุมต้นทุน: กลยุทธ์ที่ได้ผลคือ token caching 90%, reasoning_effort=minimal, และ system prompt สั้น + context สรุป เพื่อช่วยลด เอาท์พุตโทเค็น·โทเค็น reasoning
  • การออกแบบความปลอดภัย: Prompt injection ยังเป็นความเสี่ยง จึงควบคู่กับการป้องกันเชิงระบบ เช่น ลดสิทธิ์เชื่อมต่อ (connector), ตรวจสอบผลลัพธ์ และเทมเพลตเอาท์พุตปลอดภัย
  • การใช้งานตามโดเมน: จากรายงานว่ามีการลด Hallucination และ sycophancy ใน writing·coding·health จึงแนะนำให้ตั้งค่า workflow ค่าเริ่มต้นเป็น Browsing + ใส่เหตุผลอ้างอิง สำหรับงานเอกสารธุรกิจ, รีวิวโค้ด, และ QA ด้านสุขภาพซึ่งเป็นงานเขียนที่มีความเสี่ยงสูง

ยังไม่มีความคิดเห็น

ยังไม่มีความคิดเห็น