13 คะแนน โดย xguru 12 일 전 | 6 ความคิดเห็น | แชร์ทาง WhatsApp
  • เครื่องมือที่ Cloudflare สร้างขึ้น เพื่อแสดงคะแนนว่าเว็บไซต์ของคุณ เหมาะกับเอเจนต์มากแค่ไหน
  • สามารถ ประเมินระดับความพร้อมสำหรับ AI เอเจนต์ และตรวจสอบแนวทางการปรับแต่ง เช่น การยืนยันตัวตน รูปแบบคอนเทนต์ การควบคุมการเข้าถึง และวิธีการชำระเงิน
  • ในแต่ละหัวข้อที่ไม่ผ่าน จะมี พรอมป์ต์ที่ส่งต่อให้ coding agent ได้ทันที เพื่อช่วยปรับปรุงแบบอัตโนมัติ
  • คะแนนคำนวณจากเกณฑ์ 4 ด้าน
    • Discoverability: robots.txt, sitemap.xml, Link Headers (RFC 8288)
    • Content: Markdown for Agents
    • Bot Access Control: Content Signals, กฎสำหรับ AI bot ใน robots.txt, Web Bot Auth
    • Capabilities: Agent Skills, API Catalog, การค้นพบ OAuth server (RFC 8414/9728), MCP Server Card, WebMCP
  • ตรวจสอบด้วยว่ารองรับ มาตรฐาน agent commerce หรือไม่ (ไม่นำมาคิดคะแนน)

6 ความคิดเห็น

 
xguru 12 일 전

ที่น่าขำจริงๆ คือ cloudflare.com ของพวกเขาเองได้ 25 คะแนน ส่วน GeekNews news.hada.io ได้ 42 คะแนนนะครับ
ควรจัดการตรวจตราเว็บไซต์ของตัวเองให้ดีก่อนแล้วค่อยมาประเมินคนอื่นสิ..

แน่นอนว่า isitagentready.com ซึ่งเป็นเว็บไซต์ประเมินของพวกเขาเองได้ 83 คะแนน แต่ก็นั่นแหละ เพราะเพิ่งสร้างขึ้นมาใหม่..

ก็มีเครื่องมือคล้ายๆ กันอย่าง https://orank.ai ด้วยครับ

 
geesecross 11 일 전

คงไม่ใช่ว่า Cloudflare สร้างสิ่งนั้นขึ้นมาเพื่ออบรมสั่งสอนเชิงศีลธรรมว่าบรรดาเว็บไซต์ทำกันมาไม่ดีเสียทีเดียว แล้วมีเหตุผลอะไรให้ต้องหัวเราะเยาะด้วยหรือ?

ในฐานะผู้เล่นที่มีอิทธิพลอย่างมากต่อระบบนิเวศอินเทอร์เน็ต หากยึดครองวาระได้แบบนั้น สิ่งนั้นก็มีแนวโน้มจะถูกมองเป็นมาตรฐานโดยพฤตินัย และยังเอื้อต่อการชี้นำทิศทางการพัฒนาอินเทอร์เน็ตในอนาคตให้เป็นไปในทางที่เป็นประโยชน์ต่อผลประโยชน์ของบริษัทตนเองด้วย

 
xguru 11 일 전

หมายถึงว่าน่าสนุกครับ ไม่ได้หัวเราะเยาะนะครับ สงสัยผมจะใช้คำพูดไม่ค่อยดีไปหน่อย
Cloudflare เองก็ปล่อยอะไรออกมาหลายอย่างในช่วงไม่กี่วันที่ผ่านมาอยู่เหมือนกัน เลยเข้าใจได้ว่าทำไมถึงต้องรีบปรับตัวรับยุคของเอเจนต์

แต่เช็กลิสต์ของเว็บนั้นมันดูแปลก ๆ นะครับ แค่การเอาสิ่งนั้นมาใช้ประเมินเว็บไซต์เป็นคะแนนก็ชวนให้เอะใจแล้ว
ผมกำลังบอกว่ามันแปลกตรงที่พวกเขาเอาสิ่งที่แม้แต่ตัวเองก็คงทำตามได้ไม่ครบทั้งหมดมาไล่รายการไว้ แล้วพูดเหมือนมันเป็นเรื่องสำคัญมาก

 
geesecross 11 일 전

ทำให้นึกถึงช่วงที่เว็บยังเละเทะเพราะ quirk html และมีบริการตรวจมาตรฐานเว็บที่ให้คะแนนเว็บไซต์เลยนะครับ/ค่ะ แม้ว่าการทำตามมาตรฐานเว็บจะไม่ได้รับประกันคุณภาพภายในของเว็บไซต์ แต่ก็อย่างน้อยก็ช่วยให้แต่ละเว็บตระหนักถึงการปฏิบัติตามมาตรฐานมากขึ้น และบริษัทที่ต้องครอว์ลเว็บและทำ machine reading แบบ Google ก็น่าจะได้ประโยชน์ในระดับที่ยกระดับคุณภาพการค้นหาได้ฟรี ๆ แบบนอนมา

ถ้ามีการเสนอแนวทางแบบนั้นขึ้นมา ในช่วงที่ไม่ใช่แค่มนุษย์แต่ AI agent กำลังเปลี่ยนมาเป็นผู้ใช้งานอินเทอร์เน็ตด้วย ก็น่าจะช่วยลดความสะดุดได้บ้างและทำให้โครงสร้างพื้นฐานมีเสถียรภาพได้เร็วขึ้นนะครับ/ค่ะ ถึงเวลาผ่านไปบางข้ออาจถูกมองว่าเกินไปหรือเป็นส่วนเกินที่ไม่จำเป็น แต่ประเด็นก็คือการจัดระเบียบให้เข้าที่ได้อย่างรวดเร็วในตัวมันเองก็น่าจะเป็นข้อได้เปรียบต่ออุตสาหกรรมที่เกี่ยวข้องไม่ใช่หรือครับ/ค่ะ

 
savvykang 12 일 전

อย่างที่คิด ที่นั่นก็เป็นบริษัทยักษ์ใหญ่ที่ช่วยอะไรไม่ได้เหมือนกัน และดูเหมือนว่าที่ไหนๆ ที่คนอยู่กันก็คล้ายกันไปหมด

 
jeeeyul 11 일 전

เหตุผลที่ฮิวแมนนอยด์มีขนาดใกล้เคียงมนุษย์และมีโครงสร้างข้อต่อคล้ายกัน ก็เพื่อจะได้ไม่ต้องสร้างเครื่องมือหรือไลน์การผลิตแยกต่างหากสำหรับพวกมัน

พวกเราเคยลองทำเรื่องไร้สาระอย่างการสร้าง RAG ทั้งองค์กร รวมถึงการดูแลปฏิบัติการและบำรุงรักษามาแล้ว และเมื่อเอเจนต์กับ MCP ปรากฏขึ้น เราก็ไม่ได้ทบทวนกันหรือว่าจริง ๆ แล้วไม่จำเป็นต้องทำแบบนั้น? แล้วทำไมถึงอยากทำผิดพลาดแบบเดิมซ้ำอีกด้วยวิธีที่ต่างออกไปล่ะ?

แนวคิดเชย ๆ ที่ให้เอเจนต์ท่องเว็บแทนมนุษย์นั้น ปัญหาไม่ได้อยู่ที่เทคโนโลยี แต่เป็นปัญหาทางการเมืองที่คุกคามโมเดลรายได้หลักของ Google ซึ่งเป็นส่วนหนึ่งของตัวเว็บเอง และสิ่งนี้จะมีอิทธิพลมากกว่า

อย่างไรเสีย webMCP ก็เป็นเพียงทางเลือกชั่วคราวในช่วงเปลี่ยนผ่าน จนกว่า RPA agent จะสุกงอมเท่านั้น แบบนี้ไป ๆ มา ๆ อาจถึงขั้นมีคนเสนอให้กลับไปใช้ xul กันอีกก็ได้