3 คะแนน โดย GN⁺ 2025-09-01 | 3 ความคิดเห็น | แชร์ทาง WhatsApp
  • Google ได้นำ AI-generated summaries (AI Overviews) มาใช้ในผลการค้นหา ซึ่งมักดึงเนื้อหาจากเว็บไซต์ไปใช้และ แย่งทราฟฟิก ไป
  • ผู้ดูแลเว็บไซต์แทบมีแต่ทางเลือกสุดโต่ง เช่น การบล็อกสไนเป็ต (max-snippet:0, nosnippet) หรือ การบล็อกบางส่วน (data-nosnippet) ทำให้ตกอยู่ในภาวะ กลืนไม่เข้าคายไม่ออกแบบไร้ทางออก
  • ฝั่งผู้ใช้เองก็มีเพียงวิธีหลีกเลี่ยงที่จำกัดและไม่สมบูรณ์ เช่น ปิดการตั้งค่า Search Labs, ใช้ URL parameter, หรือส่วนขยายเบราว์เซอร์
  • ขณะนี้ หน่วยงานกำกับดูแลของ EU และสหราชอาณาจักร กำลังตรวจสอบลักษณะการกีดกันการแข่งขันและความเสียหายต่อผู้เผยแพร่จาก Google AI Overviews และกำลังพิจารณามาตรการอย่าง การแบ่งปันทราฟฟิกและการ opt-out ที่เป็นธรรม
  • ในระยะสั้น มาตรการที่ใช้งานได้จริงเพียงอย่างเดียวสำหรับผู้เผยแพร่คือ max-snippet:0 แต่ก็มีข้อเสียร้ายแรงคือทำให้อัตราการคลิกลดลง จึงถูกวิจารณ์ว่าเป็น การออกแบบแบบ dark pattern ของ Google

ปัญหาของ Google AI Overviews

  • เมื่อไม่นานมานี้ Google ได้นำ AI Summary (SGE: Search Generative Experience) ที่ AI สร้างขึ้นอัตโนมัติมาแสดงในผลการค้นหา
  • ฟีเจอร์นี้มีเป้าหมายเพื่อยกระดับประสบการณ์ผู้ใช้ โดยวิเคราะห์เนื้อหาหลักของเว็บไซต์แล้วสรุปสั้น ๆ มาแสดงโดยตรง
  • แต่ผลที่ตามมาคือเจ้าของเว็บไซต์จำนวนมากต้องเผชิญกับปัญหาที่ผู้ใช้ บริโภคแค่เนื้อหาสรุป โดยไม่เข้าเยี่ยมชมเว็บไซต์ต้นฉบับ
  • สุดท้ายจึงนำไปสู่การลดลงของ organic traffic ของเว็บไซต์

ผลกระทบของ Google AI Summary

  • AI Summary จะ สรุปเนื้อหาโดยอัตโนมัติ และนำไปแสดงด้านบนของผลค้นหาโดยไม่ได้รับความยินยอมจากเจ้าของเว็บไซต์
  • ผู้ใช้มีแนวโน้มมากขึ้นที่จะอ่านแค่สรุปและไม่คลิกเข้าเว็บไซต์ต้นฉบับ
  • ส่งผลให้ประสิทธิภาพของ กลยุทธ์ SEO แบบดั้งเดิม อ่อนลง และสร้างความเสียเปรียบให้ผู้ดูแลเว็บไซต์

วิธีรับมือของเว็บมาสเตอร์

  • 1. max-snippet:0
    • <meta name="robots" content="max-snippet:0">
    • บล็อกสไนเป็ตทั้งหมดและ AI Summary ทำให้ในผลการค้นหาจะแสดงเพียง ชื่อเรื่อง+URL
      • ข้อเสียคืออาจทำให้ CTR ลดลงอย่างมาก
    • แม้ตอนนี้จะเป็นวิธีที่ได้ผลที่สุด แต่ก็ยังไม่ใช่ ทางออกที่สมบูรณ์
  • 2. nosnippet
    • <meta name="robots" content="nosnippet">
    • ให้ผลเหมือนกับ max-snippet:0 คือ ลบคำอธิบายหรือสรุป ออกจากผลการค้นหาโดยสิ้นเชิง
      • ทำให้รายการค้นหาอาจดูเรียบเกินไปและน่าสนใจน้อยลง
    • แม้จะกัน AI Summary ได้ แต่มีโอกาสทำให้ การมองเห็นในการค้นหา ลดลง
  • 3. data-nosnippet
    • <span data-nosnippet>…</span>
    • เป็นวิธี ยกเว้นเนื้อหาบางส่วนแบบเลือกได้
      • แต่ Google ยังอาจนำข้อความส่วนอื่นไปใช้สรุปได้ จึง ควบคุมได้ไม่สมบูรณ์
    • ใช้ได้กับองค์ประกอบ HTML เช่น span, div, section
  • 4. ทางเลือกฝั่งผู้ใช้ (มีผลเฉพาะบัญชีส่วนตัว)
    • Search Labs opt-out: ผู้ใช้ที่ล็อกอินสามารถปิด “AI Overviews and more” ได้
      • แต่มีผลเฉพาะกับบัญชีผู้ใช้นั้น และไม่กระทบต่อวิธีที่เว็บไซต์ถูกแสดงต่อคนอื่น
    • ตัวปรับแต่ง URL: เพิ่ม &udm=14, -AR, -noai ในคำค้นหา
    • ส่วนขยายเบราว์เซอร์: ใช้เครื่องมืออย่าง Bye Bye Google AI ได้
      • แต่อาจใช้ไม่ได้เมื่อ Google อัปเดตระบบ
    • Reddit hack: มีข้อเสนอให้ใส่คำหยาบเพื่อหลบเลี่ยง AI Summary
      • เป็นเพียงวิธีชั่วคราวที่ใช้งานจริงได้ยาก
    • บน iOS สามารถปิดการแสดง Gemini ใน แอป Google, ใช้แท็บ Web หรือใช้เบราว์เซอร์ทางเลือกอย่าง Safari, DuckDuckGo ได้
  • 5. ความหวังด้านกฎระเบียบ: การสอบสวนของ EU และ UK
    • EU
      • ndependent Publishers Alliance, Movement for an Open Web, Foxglove Legal และกลุ่มอื่น ๆ ได้ยื่น คำร้องด้านการผูกขาด ต่อคณะกรรมาธิการยุโรป
      • โดยอ้างว่า AI Overviews ก่อให้เกิดการใช้เนื้อหาในทางที่ไม่เหมาะสม, การไหลออกของทราฟฟิก, และการไม่มีระบบ opt-out ที่เป็นธรรม
    • สหราชอาณาจักร
      • Competition and Markets Authority (CMA) กำลังตรวจสอบว่า AI Summary บิดเบือนการแข่งขัน และสร้างความเสียหายต่อผู้เผยแพร่หรือไม่
      • รวมถึงพิจารณามาตรการอย่างการบังคับแสดงแหล่งที่มา, การแบ่งปันทราฟฟิก, และการจำกัดการให้สิทธิพิเศษกับบริการของ Google เอง

แก่นของปัญหา

  • ภาวะกลืนไม่เข้าคายไม่ออกของผู้เผยแพร่: ถ้าไม่บล็อกสไนเป็ต AI ก็จะดึงเนื้อหาไปใช้จน สูญเสียทราฟฟิก แต่ถ้าบล็อกก็จะทำให้ การมองเห็นในการค้นหา ลดลง
  • ผู้ใช้ควบคุมได้น้อย: ทางเลือกต่าง ๆ ใช้งานลำบาก ไม่สมบูรณ์ และไม่สม่ำเสมอ
  • คำวิจารณ์เรื่อง dark pattern: โครงสร้างการออกแบบของ Google ถูกมองว่าเป็น การออกแบบเชิงชักจูง ที่บังคับให้ผู้เผยแพร่ต้องยอมเสียสิ่งสำคัญบางอย่าง
    • นี่เป็นลักษณะของ dark pattern แบบคลาสสิกที่บังคับให้ผู้เผยแพร่ต้องเลือกในทางที่เสียเปรียบ

บทสรุป

  • จนกว่าหน่วยงานกำกับดูแลจะบังคับให้เกิดการเปลี่ยนแปลง ตอนนี้ทางเลือกเดียวของผู้เผยแพร่คือ max-snippet:0 แต่ต้องแลกมากับการสูญเสียการแสดงผลอย่างหนัก
    • เจ้าของเว็บไซต์จึงต้องเลือกระหว่าง การบล็อก AI Summary กับ การสูญเสียการมองเห็น อย่างไม่เป็นธรรม
  • นโยบายของ Google จึงถูกมองว่าเป็น โครงสร้างการบังคับเลือกที่ไร้ทางออก หรือก็คือ dark pattern แบบหนึ่ง
  • คำตัดสินในอนาคตของหน่วยงานกำกับดูแล EU และสหราชอาณาจักร อาจเป็นความหวังเดียวที่จะเปลี่ยนสถานการณ์ได้ แต่ไม่ใช่วิธีแก้ปัญหาในทันที

3 ความคิดเห็น

 
laeyoung 2025-09-01

ในประเด็นนี้ แนะนำให้อ่านบทความ จุดจบของยุค SEO? จุดเริ่มต้นของการเพิ่มประสิทธิภาพการตลาดสำหรับ AI Agent ควบคู่กันไปด้วย

ถ้าดูใน reddit ที่เกี่ยวกับ SEO ก็จะเห็นว่ามีโพสต์จำนวนมากที่ระบายความกังวลว่า แม้ปริมาณการมองเห็นบน Google จะเท่าเดิม แต่ทราฟฟิกที่ไหลเข้าได้ลดลงมากเพราะ Zero click

 
crawler 2025-09-01

> คุณคิดว่านี่เป็นฟีเจอร์ที่ยุติธรรม หรือเป็นตัวอย่างคลาสสิกของการออกแบบ dark pattern? บอกเราได้ในคอมเมนต์

ทั้งที่ในเนื้อหาก็บอกให้แสดงความคิดเห็น แต่ดูเหมือนว่าในเว็บจะไม่มีฟังก์ชันคอมเมนต์นะ
ถ้าบทความที่พยายามจะบล็อก AI กลับเขียนด้วย AI เอง ก็เป็นบทความที่ชวนย้อนแย้งจริง ๆ ครับ

 
GN⁺ 2025-09-01
ความเห็นจาก Hacker News
  • รู้สึกว่านี่คือปรากฏการณ์แบบ "พอร์ทัล/โบรกเกอร์" ที่แผ่กระจายไปทุกวงการตลอดหลายทศวรรษที่ผ่านมา มีเลเยอร์บุคคลที่สามเข้ามาคั่นกลางระหว่างผู้บริโภคกับผู้ผลิต ทำให้ทั้งสองฝั่งสะดวกขึ้น แต่ตอนนี้ก็กลายเป็นว่าต้องพึ่งพาเลเยอร์นี้ไปแล้ว เวลาสั่งของจาก Amazon เราไม่ได้คุยกับผู้ขายโดยตรงอีกต่อไป เวลาสั่งอาหารก็ไม่ได้จ่ายเงินให้ร้านโดยตรง แม้แต่เวลาหาข้อมูลบนเว็บ เราก็ไม่ต้องไปยุ่งกับสไตล์ การนำทาง หรือโฆษณาของผู้เขียนแต่ละรายอีกแล้ว ในมุมของเจ้าของคอนเทนต์ โครงสร้างแบบนี้ทำให้จำนวนการเข้าชมหน้าเว็บลดลง กระทบรายได้โฆษณา และต่างจาก Amazon หรือแอปส่งอาหาร ตรงที่ความเสียหายจากสรุปของ Google ไม่มีการชดเชยให้ ในเมื่อคอนเทนต์ออนไลน์ส่วนใหญ่ขับเคลื่อนด้วยโฆษณา และ Google เองก็อยู่ได้ด้วยรายได้โฆษณาเหมือนกัน ถึงอย่างนั้นก็ยังต้องฝืนผลักดันวิวัฒนาการนี้ต่อไปเพื่ออนาคต ดูเหมือนว่า Google สนใจแค่การรักษาตำแหน่งของตัวเองไว้ในอนาคต

    • จริง ๆ แล้วถ้อยคำที่ว่าการเปลี่ยนแปลงนี้เป็นประโยชน์ต่อทั้งสองฝ่ายน่าสนใจมาก ในช่วงเปลี่ยนผ่านอาจมีฝ่ายหนึ่งเสียประโยชน์จริง แต่สุดท้ายผมคิดว่าผู้บริโภคกับแพลตฟอร์มได้ประโยชน์มากกว่า
  • ผมหงุดหงิดที่เนื้อหามีลิขสิทธิ์บนเว็บไซต์ผลิตภัณฑ์ซอฟต์แวร์ของผมถูก Google หรือ AI เจ้าอื่น ๆ ดูดไปและนำไปแปรรูปใหม่โดยไม่ขออนุญาต แต่ถ้าผมบล็อกไว้ โอกาสที่คอนเทนต์ของผมจะถูกอ้างถึงใน AI summary ของพวกเขาก็แทบจะหายไปเลย

    • ถ้าบล็อกแบบนี้ ในผลลัพธ์เกี่ยวกับผลิตภัณฑ์หรือบริษัทของคุณ AI summary อาจไปอ้างอิงข้อมูลที่ไม่ใช่อันดับ 2 แทน ซึ่งอาจแย่กว่าเดิมจริง ๆ ตัวอย่างเช่น ถ้าค้นหา "วิธีถอนเงินจาก PayPal" แล้วเว็บไซต์อันดับรองเป็นโดเมนเชิงลบประมาณว่า "PayPal sucks" ถ้าเว็บทางการถูกตัดออกจากสรุปก็ยิ่งปวดหัว สรุปคือฝั่ง publisher น่าจะปล่อยให้ใช้ไปจะดีกว่า ถ้ากังวลเรื่องทราฟฟิก ลิงก์ "source" ที่อยู่ในสรุปจะถูกมองเห็นก่อนผลลัพธ์อื่น ๆ ถ้ากังวลเรื่องข้อมูลผิด ก็แก้ได้ด้วยการรายงานความไม่ถูกต้องหรือแก้คอนเทนต์ อีกอย่าง Google ควรเปิดให้ opt-out AI summary กับ snippet แยกจากกันได้ และถ้าคุณกังวลเรื่อง AI summary ก็จริง ๆ ควรกังวลเรื่อง snippet เหมือนกัน
    • มีความกังวลว่าในอนาคตอาจมีคนติดต่อมาบอกว่า ถ้าอยากให้ Google บรรยายคุณในแง่บวกกว่าคู่แข่งก็ต้องจ่ายเงิน หรือถ้าอยากลบข้อมูลเท็จที่ระบบสร้างขึ้นอย่างไม่เป็นธรรมก็ต้องจ่ายเงิน
    • ถ้าเป็นเว็บไซต์ที่ขายของโดยตรง ผมกลับคิดว่าการถูกแสดงใน AI summary เป็นเรื่องที่น่าพึงประสงค์
  • ผมไม่เข้าใจว่าฟีเจอร์ AI summary แบบนี้จะไม่กัดกินรายได้ในอนาคตของ Google ได้อย่างไร Google หาเงินจากการส่งทราฟฟิกไปยังเว็บไซต์ผ่านโฆษณา แต่บริการสรุปแบบนี้กลับทำให้เว็บไซต์เองดูไม่จำเป็น แล้วใครจะอยากทำเว็บที่ไม่มีคนเข้า

    • Google มีเทคโนโลยีสำหรับแทรกโฆษณาสินค้าและบริการเข้าไปใน AI summary อยู่แล้ว ตัวอย่างจริงคือเวลาเสิร์ชคำว่า "วันหยุดพักผ่อน" ระบบสามารถพูดถึงทั้งโรงแรมและสายการบินแยกกันได้ งานวิจัยอธิบายตัวอย่างนี้ไว้ ลิงก์บทความอยู่ที่นี่
    • รายได้ 99% กระจุกอยู่กับคำค้นที่มีเจตนาจะซื้อชัดเจนอย่าง "buy macbook" หรือ "book trip to dc" ส่วนคำค้นเชิงข้อมูลแทบไม่สร้างรายได้โฆษณาเลย
    • จริง ๆ แล้วคิวรีที่ทำเงินมีอยู่เพียงส่วนน้อยมาก สังเกตได้จากข้อเท็จจริงที่ว่าคำค้นส่วนใหญ่แทบไม่มีการประมูลโฆษณาเลย
    • ที่จริงแล้ว Google กลัวมากกว่าว่าเทคโนโลยีอย่าง ChatGPT จะมาแทนที่ตำแหน่งของตัวเอง ดังนั้นการให้ข้อมูลที่ผู้ใช้ต้องการได้ทันทีจึงเป็นทางที่ดีที่สุดในการรักษาที่ทางเอาไว้ ในความเห็นผม LLM ยังไม่สมบูรณ์ แต่เหนือกว่าเสิร์ชเอนจินมากในเรื่องคำถามกำกวม การรวมข้อมูล หรือการแปล เมื่อเป้าหมายคือการได้ข้อมูล ไม่ใช่การหาหน้าเว็บเฉพาะ LLM ก็ใกล้เคียงอุดมคติมากกว่า ผมจะไม่แปลกใจเลยถ้าในอีก 10 ปีข้างหน้าเสิร์ชเอนจินหายไป
    • บางที Google เองก็คงถูกบีบให้ต้องนำการเปลี่ยนแปลงนี้มาใช้ เพราะความจริงคือกำลังถูกบริการ LLM ค่อย ๆ แย่งพื้นที่ไปอยู่เรื่อย ๆ พอเห็นว่า Google วาง AI summary ไว้เหนือโฆษณา ก็ยิ่งรู้สึกได้ว่าพวกเขาสิ้นหวังแค่ไหน
  • ผมตั้งค่า Apache ของเว็บไซต์ส่วนตัวให้บล็อกทั้งการทำดัชนี สไนเป็ต การแปล และการทำดัชนีรูปภาพทั้งหมดแล้ว แต่ถึงอย่างนั้น Internet Archive ก็ยังเมินและเข้ามาเก็บข้อมูลอยู่ดี ขอให้ลบหลายครั้งก็ไม่เคยยอม ตอนนี้เลยใช้ Anubis เพื่อกันการสแครปเพิ่มเติมด้วย (เว็บไซต์นี้เป็นไดอารีสาธารณะที่เริ่มตั้งแต่ปี 2000 เลยไม่อยากให้ถูกค้นหาเจอ)

    • ผมไม่เข้าใจว่าจะเอาอะไรกับการเปิดให้สาธารณะบนอินเทอร์เน็ต แต่กลับไม่อยากให้มีการสำรองข้อมูล ถ้าโดเมนหายไป แล้ววันหนึ่งคุณอยากกลับมาดูอีก การที่ยังมีอยู่ใน Internet Archive กลับเป็นเรื่องดีด้วยซ้ำ เมื่อเอาขึ้นอินเทอร์เน็ตแล้ว โดยเนื้อแท้มันก็คือสาธารณะ
    • สิ่งที่ทำให้ผมเจ็บใจที่สุดคือ Internet Archive ไม่ตอบคำขอของผมเลย โดยหลักทั่วไปแล้วอาจลบได้เฉพาะคอนเทนต์ผิดกฎหมาย เช่น การหมิ่นประมาท ความลับของรัฐ หรือสื่อลามกบางประเภท แต่ถ้าเป็นสิ่งที่เจ้าตัวเผยแพร่เอง ก็ไม่ควรอนุญาตให้ลบออกจากบันทึกประวัติศาสตร์ ถ้าผมอยากซ่อนข้อมูลส่วนตัวจริง ๆ ผมก็คงเอาไว้หลังระบบล็อกอินไปแล้ว เว็บไซต์ก็ยังมีอยู่ และก็ยังมีคนคอย crawl อยู่เรื่อย ๆ
    • ใน snapshot มีฟิลด์ชื่อว่า 'why?' อยู่ จริง ๆ แล้วนอกจาก Internet Archive ก็อาจมี Common Crawl, Archive Team หรือที่อื่น ๆ เป็นคน push เว็บไซต์ของคุณเข้าไปด้วย ต้องเช็กเหตุผลให้แน่ชัดเพื่อระบุตัวให้ถูก
    • ลองใช้ robots.txt เพื่อขอให้ Internet Archive ลบหรือยกเว้นดู นโยบายนี้เปลี่ยนมาหลายรอบ แต่ในช่วงไม่กี่ปีที่ผ่านมาเขากลับมาเคารพ robots.txt อีกครั้งแล้ว ดู FAQ
  • ในแง่หนึ่ง การเผยแพร่ก็คือการเปิดบางสิ่งสู่สาธารณะเพื่อให้ผู้คนมีเสรีภาพระดับหนึ่งในการนำไปใช้ ซึ่งเสรีภาพนั้นอาจเป็นประโยชน์ต่อเว็บไซต์หรือไม่ก็ได้ ทุกครั้งที่แพลตฟอร์มใหญ่ ๆ อย่าง Google เปลี่ยนแปลง ผู้เผยแพร่คอนเทนต์ก็ต้องปรับตัวมาตลอด และ AI summary ก็เป็นส่วนหนึ่งของกระแสการเปลี่ยนแปลงนั้น

    • ผมคิดว่านี่เป็นมุมมองที่ค่อนข้างมีอภิสิทธิ์ไปหน่อย ผมเคยเผยแพร่ซอฟต์แวร์ภายใต้เงื่อนไขไลเซนส์ การเปิดเผยต่อสาธารณะไม่ได้หมายความว่าใครจะเอาไปใช้เพื่อจุดประสงค์อะไรก็ได้
    • สำหรับผม การเผยแพร่คือการยังคงถือครองลิขสิทธิ์ของคอนเทนต์ไว้ ไม่ได้แปลว่ายอมให้ใครนำไปตีพิมพ์ใหม่เชิงพาณิชย์ได้ทั้งหมด บางทีอนาคตอาจกลายเป็นว่าต้องซ่อนคอนเทนต์ไว้หลังล็อกอิน ซึ่งเป็นอนาคตที่ขมขื่นของเว็บ
    • นับตั้งแต่กฎหมาย Anne ปี 1710 (กฎหมายลิขสิทธิ์ฉบับแรก) ข้อมูลที่เผยแพร่สู่สาธารณะก็ยังอยู่ภายใต้กฎเกณฑ์
    • ผมเผยแพร่บทความเพราะอยากให้คนมาอ่านโดยตรง ไม่ใช่เพื่อให้ Google เอาไปทำ AI summary แบบลวก ๆ การตัดสินใจของ Google สุดท้ายก็เป็นไปในทิศทางที่เป็นประโยชน์ต่อ Google เอง
    • การเผยแพร่ไม่ควรหมายถึงการสละสิทธิ์ทั้งหมด หลายคนเขียนบทความเพื่อรวบรวมผู้อ่านที่มีความสนใจใกล้เคียงกัน แต่เมื่อมีคนกลางเข้ามาคั่น ความเชื่อมโยงระหว่างผู้อ่านกับผู้เขียนกลับเสียหายได้ ถ้าจะสรุป ผมก็สรุปเองในแบบที่ต้องการได้ แต่ผู้เขียนส่วนใหญ่ไม่ได้ต้องการให้ LLM มาสรุป อีกทั้ง LLM ก็มีอคติมาก และยังอาจลบย่อหน้าสำคัญออกด้วยฟิลเตอร์ของตัวเองจนสรุปออกมาเพี้ยน ๆ ไม่มีอะไรทำร้ายแนวคิดได้เท่ากับการถูกถ่ายทอดออกไปในรูปแบบที่อ่อนแรงและบิดเบือนจากความเห็นจริงของผม
  • บล็อกโพสต์นี้ ในประโยคสุดท้ายเขียนว่าให้ "ฝากความคิดเห็นไว้" แต่กลับไม่เห็นช่องคอมเมนต์จริง ๆ เลย เลยสงสัยว่าอาจถูกสร้างด้วย AI หรือเปล่า

  • อยากรู้ว่าฟีเจอร์นี้ใช้ได้กับ Perplexity, OpenAI, Claude และเจ้าอื่น ๆ ด้วยไหม

  • ผมคิดว่าถ้า Google อ้างอิงแหล่งที่มาให้ชัดเจนแบบ Perplexity มันจะเป็นผลดีต่อทุกฝ่าย ทั้งได้ลิงก์ไปยังต้นฉบับ มีเครดิตให้ และ UX ก็ดีขึ้นด้วย น่าเสียดาย

    • Google ก็มีการอ้างอิงอยู่ แต่แทบมองไม่เห็น เพราะแสดงเป็นสัญลักษณ์ยูนิโค้ดตัวเดียวหน้าตาเหมือน "ลิงก์" พอกดแล้วก็ไม่ได้ไปที่หน้าต้นทางโดยตรง แต่จะเปิดแผงด้านข้าง และในนั้นก็มักมีหลายแหล่งที่มา ในเชิงเทคนิค นี่คือลิงก์แรกบนหน้าผลลัพธ์ แต่ถ้าอยากเข้าไปยังหน้าของผมจริง ๆ ต้องคลิก 2 ครั้ง อยากให้การอ้างอิงเด่นกว่านี้ ใช้ชื่อหน้าเป็น anchor text และทำเป็นลิงก์ตรงไปเลย ถ้ามีหลายแหล่ง ก็ควรเปิดแผงด้านข้างไว้ตั้งแต่แรก หรือแสดงทั้งหมดบนหน้าหลักไปเลย
  • ต่อไปความเชี่ยวชาญของผมคือการทำให้ LLM สรุปเว็บไซต์บริษัทได้ดี ต้องมีคอนเทนต์แนวคู่มือที่ละเอียดและครบถ้วนแบบนี้

  • ผมลองเอาชื่อบทความกับโดเมนไปวางแล้วได้ผลลัพธ์ต่างออกไป ภาพอ้างอิง