- OpenAI เปิดตัว Apps SDK ซึ่งเป็นเฟรมเวิร์กที่รองรับการพัฒนาแอปที่ทำงานภายใน ChatGPT
- นักพัฒนาสามารถใช้ SDK นี้เพื่อสร้างแอปใหม่ที่ทำงานภายใน ChatGPT และมีสภาพแวดล้อมสำหรับทดสอบฟีเจอร์ทดลองได้อย่างอิสระ
- ขณะนี้ Apps SDK เปิดให้ใช้งานในรูปแบบ พรีวิว (ตัวอย่างล่วงหน้า) และมีแผนจะเปิดรับการส่งแอปและเผยแพร่อย่างเป็นทางการในช่วงหลังของปีนี้
- เฟรมเวิร์กนี้จะเปิดโอกาสด้าน ความสามารถในการขยายของแพลตฟอร์ม ChatGPT และการพัฒนาแอปแบบปรับแต่งเฉพาะ ทำให้คาดว่าจะสามารถเชื่อมต่อและทำงานอัตโนมัติร่วมกับซอฟต์แวร์และบริการที่หลากหลายได้
- คาดว่าการขยายระบบนิเวศการพัฒนาจะช่วยส่งเสริม การเพิ่มประสิทธิภาพการทำงาน และการสร้างบริการนวัตกรรมใหม่
1 ความคิดเห็น
ความเห็นจาก Hacker News
น่าสนใจที่ ChatGPT กำลังกลายเป็นจุดเริ่มต้นของการท่องเว็บมากขึ้นเรื่อย ๆ ตอนนี้ถึงขั้นไม่จำเป็นต้องค้นหาด้วยซ้ำ เพราะจะมีเวิร์กโฟลว์พื้นฐานอย่างแผนที่ การชำระเงินผ่าน Stripe การจองตั๋วเครื่องบิน ฯลฯ ให้ใช้งาน และครอบคลุมงานประจำวันส่วนใหญ่ที่คนทั่วไปทำกัน
ในช่วง 2 ปีที่ผ่านมา คอขวดที่ใหญ่ที่สุดของความก้าวหน้าแบบนี้ไม่ใช่ตัวโมเดล แต่เป็นวิศวกรรม อินฟรา และความตั้งใจของบริษัทต่าง ๆ ที่จะร่วมมือกับ OpenAI โดยตรง
ตอนนี้เมื่อ OpenAI เติบโตขึ้นและฐานผู้ใช้ขยายใหญ่ขึ้น บริษัทต่าง ๆ ก็อยากลงทุนหรือเข้าร่วมอย่างจริงจังมากขึ้น
การเปลี่ยนแปลงนี้ไม่เพียงกระทบการใช้อินเทอร์เน็ตที่มีผู้ใช้เป็นศูนย์กลางเท่านั้น แต่หากมีเครื่องมือที่อิง SDK มากขึ้น ก็อาจทำให้เวิร์กโฟลว์ของมนุษย์แยกออกเป็นฝั่งทราฟฟิกที่ไหลผ่านแชตบอต กับเว็บรูปแบบใหม่ที่ปรับแต่งเพื่อ SEO และเพื่อแชต/เอเจนต์
น่าจะมีคนจำนวนมากเหมือนผมที่ไม่อยากใช้ AI
โดยเฉพาะเรื่องการซื้อตั๋วเครื่องบิน ไม่ใช่เพราะไม่เชื่อใจว่า AI จะพลาด แต่เพราะผมอยากจัดการเองมากกว่า
เปรียบเหมือนกับการที่ถึงจะรู้ว่าการขับรถอันตรายกว่าการบิน แต่ก็ยังรู้สึกว่าขับรถปลอดภัยกว่า
สุดท้ายแล้วเหตุผลคือผมให้ความสำคัญกับการควบคุมของตัวเอง
ไม่เข้าใจว่าทำไมต้องฝืนเปิดแอปในกล่องแชต แสดงผลในรูปแบบแปลก ๆ แล้วสุดท้ายก็ลิงก์ไปยังแอปจริงอยู่ดี
สู้ใส่กล่องแชตไว้ในแอปเลยยังจะเป็นแนวทางที่เป็นมาตรฐานกว่า
ถ้าวันหนึ่งมีบริษัทเดียวคอยควบคุม กรอง และจัดการการใช้อินเทอร์เน็ตทั้งหมด ผมคิดว่านั่นก็ทำให้ความหมายของอินเทอร์เน็ตหายไปแล้ว
แน่นอน ผมเข้าใจข้อโต้แย้งที่ว่ากูเกิลก็คล้ายกัน แต่ถึงอย่างนั้นอย่างน้อยคุณก็ยังไปยังเว็บไซต์จริงได้ผ่าน Google Search
โครงสร้างแบบส่งไปส่งมาผ่าน ChatGPT ราวกับเกมกระซิบต่อ ๆ กันนั้นน่ากลัวเกินไป
ผมไม่มีทางฝากการซื้อของไว้กับผู้ช่วยเสียง เช่นเดียวกับที่จะไม่ยอมฝากการตัดสินใจสำคัญไว้กับ LLM เด็ดขาด
แค่ให้สิทธิ์ตัดบัตรเครดิตของผมก็ไม่เอาอยู่แล้ว ไม่ต้องพูดถึงการจองเครื่องบิน
OpenAI มีโอกาสแบบนี้มาตั้งแต่ตอนที่จำนวนผู้ใช้เริ่มพุ่ง แต่ในความเป็นจริงผมคิดว่าพวกเขาใช้ประโยชน์จากปลั๊กอินและ GPTs ได้ไม่ดีพอ
ที่ย้อนแย้งคือ MCP ของ Anthropic อาจกลายเป็นตัวเปลี่ยนเกมในด้านนี้ก็ได้
ถ้าเชื่อว่า ChatGPT จะกลายเป็นอินเทอร์เฟซผู้ใช้แบบสารพัดประโยชน์แห่งอนาคต แนวคิดนี้ก็ดูสมเหตุสมผล
แต่ในความเป็นจริง เทรนด์เอเจนต์ช่วงนี้กลับชี้ว่าอาจดีกว่าถ้าซ่อนแชตอินเทอร์เฟซไว้หลังพาราไดม์ UI ที่เข้มงวดกว่านี้
ผมคิดว่ามีหลายพื้นที่มากที่แชตสามารถเป็นอินเทอร์เฟซที่ยอดเยี่ยมได้
ถ้า ChatGPT กลายเป็นผู้กระจายบริการในพื้นที่เหล่านั้น ก็อาจแทนที่กูเกิลได้
ถึงอย่างนั้น ในบางโดเมน อินเทอร์เฟซที่ออกแบบเฉพาะก็ยังเป็นแนวทางที่ถูกต้อง และถ้าโดเมนนั้นมีมูลค่ามากพอ ก็ต้องมีคนสร้างอินเทอร์เฟซเฉพาะขึ้นมาแน่นอน
ทุกวันนี้กรณีใช้งานหลักของเอเจนต์คือการสร้างโค้ด และผู้ใช้เป้าหมายก็เป็นคนที่คุ้นเคยกับ IDE หรือโค้ดเอดิเตอร์
มันกินสัดส่วนโทเคนจำนวนมากก็จริง แต่ไม่ได้เป็นตัวแทนความต้องการหรือความหวังของผู้ใช้ทั่วไป
ผมมั่นใจว่าเหตุผลที่แชตอินเทอร์เฟซแพร่หลายขนาดนี้ เป็นเพราะมันมีข้อดีของมันเอง
แม้ในการใช้งานเอเจนต์ทั่วไป แชตก็ให้ความสะดวกทั้งการพิมพ์และการป้อนด้วยเสียง
การใช้งานแบบ audio-to-audio หรือวิดีโอก็ผสานเข้ามาได้ง่าย
ต่อให้ในอนาคตการสร้างวิดีโอแบบเรียลไทม์เป็นไปได้ คนส่วนใหญ่ก็น่าจะยังสะดวกกับการเสพผลลัพธ์ในรูปแบบข้อความมากกว่า
ผมไม่คิดว่าคนจะอยากสั่งให้ ChatGPT ไปติดต่อ Zillow หรือ Canva แทนตัวเอง
อาจจะขอให้เช็กราคาบ้านใน Zillow หรือทำกราฟิกด้วย Canva ก็ได้ แต่ไม่น่าถึงขั้นรู้สึกว่าต้องเรียกใช้แอปนั้นโดยตรง
สุดท้ายถ้าแอปต่าง ๆ พึ่งพา ChatGPT เพื่อส่งต่อผู้ใช้ แบบนั้น ChatGPT ก็หลีกเลี่ยงไม่ได้ที่จะให้ฟีเจอร์เองและมาแทนที่แอป
พูดอีกอย่างคือ ถ้าคุณเปิดบริการของตัวเองให้แสดงใน ChatGPT ด้วยแนวคิดว่าแชตคืออินเทอร์เฟซ万能 ก็เท่ากับกำลังทำให้การอยู่รอดของตัวเองยากขึ้น
ผมคิดว่าอินเทอร์เฟซเสียงกับแชตเป็นคู่ผสมที่ดีมาก เช่น เวลาพูดกับมันระหว่างเดินเพื่อเรียนภาษาต่างประเทศหรือค้นเว็บด้วยเสียง มันมีประโยชน์มาก
ผมยังใช้รูปแบบแอปจดโน้ตอย่าง NotebookLM สัปดาห์ละหนึ่งสองครั้งด้วย
ยังมีการทดลองได้อีกมาก เช่น เอาโมเดลเปิดขนาดเล็กไปต่อเข้ากับระบบใหญ่กว่าเพื่อใช้ดึงข้อมูลเชิงโครงสร้าง
ผมยังสงสัยในประโยชน์ที่เป็นรูปธรรมของระบบ agentic ปัจจุบันอย่าง MCP เป็นต้น
แต่ก็ยังดีที่วันนี้ไม่มีใครพูดถึง AGI
ถ้าตามกระแส FOMO กับภาพฝัน ASI, AGI ก็อาจเหลือแค่การล้มละลาย
อินเทอร์เฟซแห่งอนาคตคือ local AI ที่มีฟังก์ชันซึ่งเรียนรู้จากชุดข้อมูลและฝังอยู่ในฮาร์ดแวร์
ผมทำงานทั้งด้าน EE และโมเดลพลังงาน แล้วเมื่อนึกถึงคุณลักษณะเชิงเรขาคณิตของออสซิลโลสโคป ก็จะเห็นว่าสมการสามารถฟื้นโครงสร้างนั้นกลับมาได้
ผู้ใช้ก็จะได้ผลลัพธ์ที่ต้องการได้ง่ายผ่าน UI แบบพารามิเตอร์
ระบบปฏิบัติการยุคนี้เป็นเสมือนเครื่องเสมือนสำหรับจัดการสตริง แต่อนาคตจะเป็นเครื่องเสมือนแบบเวกเตอร์ที่จัดการพิกัด
เมื่อทำให้เรียบง่ายด้วยการซิงก์ระหว่างเมทริกซ์หน่วยความจำกับเมทริกซ์การแสดงผล ในอนาคตนักพัฒนาก็จะหลุดพ้นจากการประมวลผลสตริงแบบล้าสมัย
พอเห็นของจริงแล้วกลับไม่ได้นวัตกรรมอย่างที่คิด
"แอป" เหล่านี้จริง ๆ แล้วก็เป็นแค่ MCP server แถมต่างกันเพียงมีตัวเลือกให้คืนค่า HTML ได้
ปัญหารากฐานของ MCP ยังอยู่เหมือนเดิม คือเป็นแบบ single-player ผู้ใช้ต้องคอย "ดึงมาใช้ (pull)" เองตลอด และโครงสร้างการเชื่อมต่อก็ไม่ได้เข้าใจง่ายกว่าการเปิดแอป
ในอุดมคติ แอปแต่ละตัวควรมีจุดเข้าใช้งานเฉพาะของตัวเอง ส่ง push notification ให้ผู้ใช้ได้ และมีความต่อเนื่องใน UI
อินเทอร์เฟซหลักก็ควรเป็น HTML มากกว่าแชต
ผมคาดว่าผลลัพธ์จะจบคล้ายกับ GPTs
ถ้าบริการสามารถเชื่อมผู้ใช้กับ LLM อย่างต่อเนื่องและเชิงรุกได้ MCP server ก็จะมีแรงยึดเกาะที่ทรงพลังมาก
กระบวนการติดตั้ง/ยืนยันตัวตนก็น่าจะค่อย ๆ ง่ายขึ้นตามความต้องการของผู้ใช้ที่ไม่ใช่สายเทคนิค
ตอนทำ Phind 2 ผมเคยฝังวิดเจ็ตแบบไดนามิกลงไปในคำตอบโดยตรง เลยรู้สึกว่าน่าสนใจ
จุดอ่อนของวิธีนี้คือสคีมารับเข้าและส่งออกของแอป/วิดเจ็ตถูก hardcode ไว้
ตราบใดที่ยังอยู่ในขอบเขตของวิดเจ็ตก็ทำงานได้ดีมาก แต่ถ้าอยากใช้ฟิลเตอร์ขั้นสูงเฉพาะใน Zillow หรือเชื่อมกับ StreetEasy ก็จะเริ่มชนข้อจำกัดทันที
แล้วเมื่อมองจากฝั่งผู้ใช้ ถ้าฟีเจอร์ขั้นสูงไม่มี ก็เท่ากับใช้ไม่ได้
สิ่งที่ผมคิดว่านวัตกรรมจริง ๆ คือ 'UI ที่สร้างขึ้นสด ๆ ณ ตอนนั้น'
อีกไม่นาน Phind จะมีอัปเดตเรื่องนี้ (ผมเป็นผู้ก่อตั้ง Phind)
Phind ดีจริง
เมื่อก่อนตอนเบื่อ search engine แบบเดิม ๆ อย่างกูเกิลที่ชอบโยนผลลัพธ์มั่ว ๆ มาให้ ผมมักจะหาเรื่องที่ต้องการได้เร็วด้วย Phind
แต่ช่วงหลัง LLM เองก็ทำการค้นหาได้ดีมากแล้ว ทุกวันนี้เลยใช้แค่ LLM
พอเห็นว่ามีโปรเจกต์ MCP-UI อยู่แล้ว ก็ไม่ได้แปลกใจว่ามันทำได้
แต่ถึงอย่างนั้น ความเร็วก็ยังช้าเกินไปสำหรับการใช้งานจริง และยังต้องปรับปรุงอีกมาก
ผมเองก็กำลังคิดว่าจะสร้างอะไรคล้าย ๆ กันในผลิตภัณฑ์ของเราไหม และกำลังมองวิธีแก้ข้อจำกัดเรื่องสคีมาด้วยการออกแบบวิดเจ็ตให้เป็นบล็อกอเนกประสงค์ที่สุดเพื่อเพิ่มความยืดหยุ่น
ตอนนี้ยังเป็นแค่ไอเดีย แต่ผมกำลังคิดว่าให้โมเดลเลือกและประกอบวิดเจ็ตแบบโมดูลาร์หลายชนิดตามงานที่ได้รับจะดีไหม
ตัวอย่างเช่น แยกผลการค้นหาออกเป็นรายการเดี่ยว การเปรียบเทียบแบบเมทริกซ์ ส่วนของการกรอง ฯลฯ แล้ววิจัยว่าจะเปลี่ยนบริบทของมันและจัดการหลายรูปแบบภายในเซสชันเดียวได้อย่างไร
ถ้ามีบทความจาก Phind ที่เขียนถึงประสบการณ์แบบนี้จริง ๆ ก็อยากเอาไปอ้างอิง
ผมคิดว่าข้อจำกัดพวกนี้จะแก้ได้ด้วยการให้แชตทำงานร่วมกับวิดเจ็ตที่ทำไว้ล่วงหน้าหรือสร้างตามต้องการ
ในเดโมคีย์โน้ต มีการใช้แชตอินเทอร์เฟซกรองบ้านของ Zillow ให้เหลือเฉพาะที่อยู่ใกล้สวนสุนัข โดยอาศัยการสรุปข้อมูลจากหลายแหล่ง ซึ่งทำฟิลเตอร์ขั้นสูงแบบนี้ได้
ปัญหานี้แก้ได้ด้วย MCP
คุณสามารถอัปเดตสคีมาของ MCP server แบบไดนามิกได้โดยไม่ต้องแตะแอป
ตัวแอปก็จะรู้จักสคีมาใหม่โดยอัตโนมัติ
การประกาศของ OpenAI ครั้งนี้น่าจะเป็นโอกาสในการสร้างอะไรใหม่จริง ๆ แต่กลับดูเหมือนแค่ฝังหน้าจอแอปเดิมลงในแชตแบบตายตัว เลยน่าเสียดาย
จุดแข็งที่แท้จริงคือ เมื่อผู้ใช้อธิบายงานที่ต้องการ AI ควรเข้าใจเองว่าต้องใช้เครื่องมืออะไร แล้วประกอบมันขึ้นมาเอง พร้อมแสดงผลเป็นเวิร์กโฟลว์หรือแคนวาสที่ผู้ใช้แก้ไขได้
เฟรมเวิร์กอย่าง LlamaIndex Workflow หรือ LangGraph ก็ช่วยให้สร้างกราฟแบบนี้ (workflow-DAG) ใน Python ด้วยมือได้อยู่แล้ว และถ้า LLM สร้าง DAG แบบนี้แบบเรียลไทม์ได้จริง มันจะทรงพลังมาก
LLM ทุกวันนี้ก็สร้างโค้ด UI ได้ดีและทำตามดีไซน์ซิสเต็มได้เก่งอยู่แล้ว จึงไม่มีเหตุผลจำเป็นที่จะต้อง hardcode หน้าจอ
หวังว่ากูเกิลจะไม่เดินตามทางนี้
ช่วงหลังมีบทความพูดถึงว่าภายในองค์กร OpenAI เองอินเทอร์เฟซแชตฝังลึกแค่ไหน และการประกาศครั้งนี้ยิ่งทำให้ผมรู้สึกถึงความยึดติดนั้น
คำถามจริงคือ "ผู้ใช้ส่วนใหญ่ชอบสื่อสารด้วยบทสนทนาเพียงอย่างเดียวมากกว่าส่วนประกอบเชิงภาพจริงหรือ"
โดยเฉพาะการที่ต้องจำชื่อแอปหลายตัว (อย่าง Zillow ฯลฯ) แล้วพิมพ์ลงในแชต รวมถึงความเป็นไปได้ของกลยุทธ์เก็บเงินแบบโฆษณาหรือ 'การดันให้ค้นพบแอปก่อน' ที่ทำให้รู้สึกไม่สบายใจมาก
ส่วนตัวผมหวังว่าอนาคตแบบนั้นจะไม่มาถึง
มันให้ความรู้สึกเหมือนกำลังกลับมาถกกันอีกครั้งว่า GUI กับเทอร์มินัล (หรือ CLI) อันไหนทรงพลังกว่ากัน
สำหรับงานจำนวนมากที่เข้ากับกระแสโทเคนได้ดี คำสั่งบรรทัดหรือแชตก็อาจเหนือกว่าจริง
อาจจะมีฟีเจอร์อย่าง tab autocomplete สำหรับเรียกบอตหรือ MCP อย่างรวดเร็วเกิดขึ้นก็ได้...
แต่ในทางกลับกัน ถ้าเป็นการสำรวจสิ่งใหม่ ๆ หรือการโต้ตอบเชิงกราฟิก อินเทอร์เฟซภาพและอินเทอร์เฟซเฉพาะทางก็เข้าใจง่ายกว่ามาก
สุดท้ายผมคิดว่าจะลงเอยที่การผสมผสาน UI หลายแบบและระดับนามธรรมที่เหมาะสมตามลักษณะงาน
ผมคิดว่าการยึดแชตอินเทอร์เฟซเป็นศูนย์กลางกลับทำให้การใช้งาน LLM ถูกจำกัดในทางปฏิบัติ
การอธิบายให้คนทั่วไปเข้าใจด้วยซ้ำว่าสมายาคติของ "ความต่อเนื่องของบทสนทนา" เกิดขึ้นได้อย่างไร (การจัดการบริบท โครงสร้างที่พรอมป์ตก่อนหน้าหลุดจากความจำ ฯลฯ) นั้นยากมาก
คำแนะนำที่ผมมักให้เพื่อนที่ไม่ใช่สายเทคนิคก็คือ 'เริ่มบทสนทนาใหม่ทุกครั้งต่อหนึ่งพรอมป์'
แบบนี้ถึงจะมองเห็นชัดว่าอะไรใช้ได้ผล
ผมเคยหวังว่า Apple จะเป็นคนนำการปฏิวัติ UX นี้ แต่ดูเหมือนยังไม่ใช่ตอนนี้
ถ้าจะโต้แย้งกลับ ผมก็รู้จักหลายคนที่เวลาอยากเข้า Zillow ก็แค่พิมพ์ "zillow" ลงในกูเกิล ดังนั้นการพิมพ์ชื่อแอปลงในแชตก็อาจไม่ได้ไร้เหตุผลเสียทีเดียว
แม้จะมีเสียงตอบรับเชิงลบมาก แต่ส่วนตัวผมกลับมองว่าทิศทางของ OpenAI ชัดเจนและเป็นธรรมชาติมาก
ท้ายที่สุดผู้ใช้ก็แค่บอกสิ่งที่ต้องการ แล้ว OAI ก็จะเชื่อมกับแอปต่าง ๆ (อีเมล ปฏิทิน การชำระเงิน ฯลฯ) และจัดการให้เอง
วิธีนี้ OAI ก็แค่แชร์รายได้โดยไม่ต้องพึ่งโฆษณา
ถ้าคุณเชื่อว่าแอปอีเมลหรือปฏิทินจะสร้างรายได้มหาศาลได้ นักลงทุนคงช็อกไม่น้อย
คำพูดที่ว่าไม่มีโฆษณานั้นไม่จริง
โฆษณาจะถูกซ่อนไว้อย่างแนบเนียนมาก ในรูปแบบคล้ายเคล็ดลับที่เป็นประโยชน์
เห็นได้ชัดว่า OpenAI จะเอาทั้งสองอย่างคือทั้งแชร์รายได้และโฆษณา
พวกเขามีทีมโฆษณาอยู่แล้ว และก็มีทุนมากพอที่จะลองทุกโมเดลธุรกิจที่สเกลได้
ไม่ว่าจะ App Store, algorithmic feed หรือโมเดลที่ประสบความสำเร็จในประวัติศาสตร์แบบไหนก็น่าจะลองหมด
การจะเป็นแพลตฟอร์มได้ ต้องมี user lock-in หรือข้อได้เปรียบที่ไม่เป็นธรรมอย่างใดอย่างหนึ่ง
แค่คุณภาพโมเดลที่ดีกว่าอย่างเดียวไม่เพียงพอ
จนถึงตอนนี้ผมยังไม่รู้สึกว่าวิธีแบบนี้ทำให้สิ่งใดดีขึ้นจริง
มีคนพูดถึงการเชื่อมกับ Spotify แต่ผู้ช่วยยุคก่อนหน้าก็ทำได้อยู่แล้ว
มันดูเหมือนแค่เอางานเดิมมาทำในต้นทุนที่แพงกว่ามาก
สุดท้ายทุกคนก็คงลงเอยด้วยการเทแอปฟรีเข้าไปใน ecosystem เครื่องมือของ OpenAI
กระแสแบบนี้จะยิ่งเสริมความแข็งแกร่งในการป้องกันตัวของ OpenAI และทำให้โอกาสอื่น ๆ ต้องถูกเสียสละ
ช่วงแรกของ iPhone มีแค่ 6 แอป และยังไม่มีแม้แต่ App Store
ณ ปี 2024 iOS App Store สร้างรายได้ 1.3 ล้านล้านดอลลาร์ และ 85% ของส่วนนั้นเป็นของนักพัฒนา
ผมสงสัยว่า 'moat' ของ OpenAI คืออะไรกันแน่
แต่กระแสแบบนี้จริง ๆ แล้วไม่สมเหตุสมผล
ไม่มีเหตุผลที่ข้อมูลเรียลไทม์และ MCP action ซึ่งให้ประโยชน์จริงกับผู้ใช้จะหายคุณค่าไป
การเชื่อมแอปอาจต้องมีการยืนยันตัวตน แต่ถ้าไม่มีเรื่องการชำระเงิน นี่ก็เป็นช่องทางกระจายที่มหาศาล
การประกาศครั้งนี้ของ OpenAI เป็นการทดลองที่น่าสนใจในแง่การสร้างแบรนด์
การเรียก MCP ว่าเป็น “แอป” ทำให้มันฟังดูคุ้นเคยและใช้ง่าย แต่ถ้าเรียกว่า tool/server/เครื่องมือ ก็จะฟังดูเทคนิคเกินไป
การเพิ่มเดโมร่วมกับ Expedia และ Spotify ก็ทำให้รู้สึกว่า MCP ที่ใช้งานได้จริงสำหรับผู้ใช้พร้อมแล้ว