- Google ได้นำ AI-generated summaries (AI Overviews) มาใช้ในผลการค้นหา ซึ่งมักดึงเนื้อหาจากเว็บไซต์ไปใช้และ แย่งทราฟฟิก ไป
- ผู้ดูแลเว็บไซต์แทบมีแต่ทางเลือกสุดโต่ง เช่น การบล็อกสไนเป็ต (max-snippet:0, nosnippet) หรือ การบล็อกบางส่วน (data-nosnippet) ทำให้ตกอยู่ในภาวะ กลืนไม่เข้าคายไม่ออกแบบไร้ทางออก
- ฝั่งผู้ใช้เองก็มีเพียงวิธีหลีกเลี่ยงที่จำกัดและไม่สมบูรณ์ เช่น ปิดการตั้งค่า Search Labs, ใช้ URL parameter, หรือส่วนขยายเบราว์เซอร์
- ขณะนี้ หน่วยงานกำกับดูแลของ EU และสหราชอาณาจักร กำลังตรวจสอบลักษณะการกีดกันการแข่งขันและความเสียหายต่อผู้เผยแพร่จาก Google AI Overviews และกำลังพิจารณามาตรการอย่าง การแบ่งปันทราฟฟิกและการ opt-out ที่เป็นธรรม
- ในระยะสั้น มาตรการที่ใช้งานได้จริงเพียงอย่างเดียวสำหรับผู้เผยแพร่คือ max-snippet:0 แต่ก็มีข้อเสียร้ายแรงคือทำให้อัตราการคลิกลดลง จึงถูกวิจารณ์ว่าเป็น การออกแบบแบบ dark pattern ของ Google
ปัญหาของ Google AI Overviews
- เมื่อไม่นานมานี้ Google ได้นำ AI Summary (SGE: Search Generative Experience) ที่ AI สร้างขึ้นอัตโนมัติมาแสดงในผลการค้นหา
- ฟีเจอร์นี้มีเป้าหมายเพื่อยกระดับประสบการณ์ผู้ใช้ โดยวิเคราะห์เนื้อหาหลักของเว็บไซต์แล้วสรุปสั้น ๆ มาแสดงโดยตรง
- แต่ผลที่ตามมาคือเจ้าของเว็บไซต์จำนวนมากต้องเผชิญกับปัญหาที่ผู้ใช้ บริโภคแค่เนื้อหาสรุป โดยไม่เข้าเยี่ยมชมเว็บไซต์ต้นฉบับ
- สุดท้ายจึงนำไปสู่การลดลงของ organic traffic ของเว็บไซต์
ผลกระทบของ Google AI Summary
- AI Summary จะ สรุปเนื้อหาโดยอัตโนมัติ และนำไปแสดงด้านบนของผลค้นหาโดยไม่ได้รับความยินยอมจากเจ้าของเว็บไซต์
- ผู้ใช้มีแนวโน้มมากขึ้นที่จะอ่านแค่สรุปและไม่คลิกเข้าเว็บไซต์ต้นฉบับ
- ส่งผลให้ประสิทธิภาพของ กลยุทธ์ SEO แบบดั้งเดิม อ่อนลง และสร้างความเสียเปรียบให้ผู้ดูแลเว็บไซต์
วิธีรับมือของเว็บมาสเตอร์
- 1. max-snippet:0
<meta name="robots" content="max-snippet:0">
- บล็อกสไนเป็ตทั้งหมดและ AI Summary ทำให้ในผลการค้นหาจะแสดงเพียง ชื่อเรื่อง+URL
- ข้อเสียคืออาจทำให้ CTR ลดลงอย่างมาก
- แม้ตอนนี้จะเป็นวิธีที่ได้ผลที่สุด แต่ก็ยังไม่ใช่ ทางออกที่สมบูรณ์
- 2. nosnippet
<meta name="robots" content="nosnippet">
- ให้ผลเหมือนกับ max-snippet:0 คือ ลบคำอธิบายหรือสรุป ออกจากผลการค้นหาโดยสิ้นเชิง
- ทำให้รายการค้นหาอาจดูเรียบเกินไปและน่าสนใจน้อยลง
- แม้จะกัน AI Summary ได้ แต่มีโอกาสทำให้ การมองเห็นในการค้นหา ลดลง
- 3. data-nosnippet
<span data-nosnippet>…</span>
- เป็นวิธี ยกเว้นเนื้อหาบางส่วนแบบเลือกได้
- แต่ Google ยังอาจนำข้อความส่วนอื่นไปใช้สรุปได้ จึง ควบคุมได้ไม่สมบูรณ์
- ใช้ได้กับองค์ประกอบ HTML เช่น span, div, section
- 4. ทางเลือกฝั่งผู้ใช้ (มีผลเฉพาะบัญชีส่วนตัว)
- Search Labs opt-out: ผู้ใช้ที่ล็อกอินสามารถปิด “AI Overviews and more” ได้
- แต่มีผลเฉพาะกับบัญชีผู้ใช้นั้น และไม่กระทบต่อวิธีที่เว็บไซต์ถูกแสดงต่อคนอื่น
- ตัวปรับแต่ง URL: เพิ่ม &udm=14, -AR, -noai ในคำค้นหา
- ส่วนขยายเบราว์เซอร์: ใช้เครื่องมืออย่าง Bye Bye Google AI ได้
- แต่อาจใช้ไม่ได้เมื่อ Google อัปเดตระบบ
- Reddit hack: มีข้อเสนอให้ใส่คำหยาบเพื่อหลบเลี่ยง AI Summary
- เป็นเพียงวิธีชั่วคราวที่ใช้งานจริงได้ยาก
- บน iOS สามารถปิดการแสดง Gemini ใน แอป Google, ใช้แท็บ Web หรือใช้เบราว์เซอร์ทางเลือกอย่าง Safari, DuckDuckGo ได้
- 5. ความหวังด้านกฎระเบียบ: การสอบสวนของ EU และ UK
- EU
- ndependent Publishers Alliance, Movement for an Open Web, Foxglove Legal และกลุ่มอื่น ๆ ได้ยื่น คำร้องด้านการผูกขาด ต่อคณะกรรมาธิการยุโรป
- โดยอ้างว่า AI Overviews ก่อให้เกิดการใช้เนื้อหาในทางที่ไม่เหมาะสม, การไหลออกของทราฟฟิก, และการไม่มีระบบ opt-out ที่เป็นธรรม
- สหราชอาณาจักร
- Competition and Markets Authority (CMA) กำลังตรวจสอบว่า AI Summary บิดเบือนการแข่งขัน และสร้างความเสียหายต่อผู้เผยแพร่หรือไม่
- รวมถึงพิจารณามาตรการอย่างการบังคับแสดงแหล่งที่มา, การแบ่งปันทราฟฟิก, และการจำกัดการให้สิทธิพิเศษกับบริการของ Google เอง
แก่นของปัญหา
- ภาวะกลืนไม่เข้าคายไม่ออกของผู้เผยแพร่: ถ้าไม่บล็อกสไนเป็ต AI ก็จะดึงเนื้อหาไปใช้จน สูญเสียทราฟฟิก แต่ถ้าบล็อกก็จะทำให้ การมองเห็นในการค้นหา ลดลง
- ผู้ใช้ควบคุมได้น้อย: ทางเลือกต่าง ๆ ใช้งานลำบาก ไม่สมบูรณ์ และไม่สม่ำเสมอ
- คำวิจารณ์เรื่อง dark pattern: โครงสร้างการออกแบบของ Google ถูกมองว่าเป็น การออกแบบเชิงชักจูง ที่บังคับให้ผู้เผยแพร่ต้องยอมเสียสิ่งสำคัญบางอย่าง
- นี่เป็นลักษณะของ dark pattern แบบคลาสสิกที่บังคับให้ผู้เผยแพร่ต้องเลือกในทางที่เสียเปรียบ
บทสรุป
- จนกว่าหน่วยงานกำกับดูแลจะบังคับให้เกิดการเปลี่ยนแปลง ตอนนี้ทางเลือกเดียวของผู้เผยแพร่คือ max-snippet:0 แต่ต้องแลกมากับการสูญเสียการแสดงผลอย่างหนัก
- เจ้าของเว็บไซต์จึงต้องเลือกระหว่าง การบล็อก AI Summary กับ การสูญเสียการมองเห็น อย่างไม่เป็นธรรม
- นโยบายของ Google จึงถูกมองว่าเป็น โครงสร้างการบังคับเลือกที่ไร้ทางออก หรือก็คือ dark pattern แบบหนึ่ง
- คำตัดสินในอนาคตของหน่วยงานกำกับดูแล EU และสหราชอาณาจักร อาจเป็นความหวังเดียวที่จะเปลี่ยนสถานการณ์ได้ แต่ไม่ใช่วิธีแก้ปัญหาในทันที
3 ความคิดเห็น
ในประเด็นนี้ แนะนำให้อ่านบทความ จุดจบของยุค SEO? จุดเริ่มต้นของการเพิ่มประสิทธิภาพการตลาดสำหรับ AI Agent ควบคู่กันไปด้วย
ถ้าดูใน reddit ที่เกี่ยวกับ SEO ก็จะเห็นว่ามีโพสต์จำนวนมากที่ระบายความกังวลว่า แม้ปริมาณการมองเห็นบน Google จะเท่าเดิม แต่ทราฟฟิกที่ไหลเข้าได้ลดลงมากเพราะ Zero click
> คุณคิดว่านี่เป็นฟีเจอร์ที่ยุติธรรม หรือเป็นตัวอย่างคลาสสิกของการออกแบบ dark pattern? บอกเราได้ในคอมเมนต์
ทั้งที่ในเนื้อหาก็บอกให้แสดงความคิดเห็น แต่ดูเหมือนว่าในเว็บจะไม่มีฟังก์ชันคอมเมนต์นะ
ถ้าบทความที่พยายามจะบล็อก AI กลับเขียนด้วย AI เอง ก็เป็นบทความที่ชวนย้อนแย้งจริง ๆ ครับ
ความเห็นจาก Hacker News
รู้สึกว่านี่คือปรากฏการณ์แบบ "พอร์ทัล/โบรกเกอร์" ที่แผ่กระจายไปทุกวงการตลอดหลายทศวรรษที่ผ่านมา มีเลเยอร์บุคคลที่สามเข้ามาคั่นกลางระหว่างผู้บริโภคกับผู้ผลิต ทำให้ทั้งสองฝั่งสะดวกขึ้น แต่ตอนนี้ก็กลายเป็นว่าต้องพึ่งพาเลเยอร์นี้ไปแล้ว เวลาสั่งของจาก Amazon เราไม่ได้คุยกับผู้ขายโดยตรงอีกต่อไป เวลาสั่งอาหารก็ไม่ได้จ่ายเงินให้ร้านโดยตรง แม้แต่เวลาหาข้อมูลบนเว็บ เราก็ไม่ต้องไปยุ่งกับสไตล์ การนำทาง หรือโฆษณาของผู้เขียนแต่ละรายอีกแล้ว ในมุมของเจ้าของคอนเทนต์ โครงสร้างแบบนี้ทำให้จำนวนการเข้าชมหน้าเว็บลดลง กระทบรายได้โฆษณา และต่างจาก Amazon หรือแอปส่งอาหาร ตรงที่ความเสียหายจากสรุปของ Google ไม่มีการชดเชยให้ ในเมื่อคอนเทนต์ออนไลน์ส่วนใหญ่ขับเคลื่อนด้วยโฆษณา และ Google เองก็อยู่ได้ด้วยรายได้โฆษณาเหมือนกัน ถึงอย่างนั้นก็ยังต้องฝืนผลักดันวิวัฒนาการนี้ต่อไปเพื่ออนาคต ดูเหมือนว่า Google สนใจแค่การรักษาตำแหน่งของตัวเองไว้ในอนาคต
ผมหงุดหงิดที่เนื้อหามีลิขสิทธิ์บนเว็บไซต์ผลิตภัณฑ์ซอฟต์แวร์ของผมถูก Google หรือ AI เจ้าอื่น ๆ ดูดไปและนำไปแปรรูปใหม่โดยไม่ขออนุญาต แต่ถ้าผมบล็อกไว้ โอกาสที่คอนเทนต์ของผมจะถูกอ้างถึงใน AI summary ของพวกเขาก็แทบจะหายไปเลย
ผมไม่เข้าใจว่าฟีเจอร์ AI summary แบบนี้จะไม่กัดกินรายได้ในอนาคตของ Google ได้อย่างไร Google หาเงินจากการส่งทราฟฟิกไปยังเว็บไซต์ผ่านโฆษณา แต่บริการสรุปแบบนี้กลับทำให้เว็บไซต์เองดูไม่จำเป็น แล้วใครจะอยากทำเว็บที่ไม่มีคนเข้า
ผมตั้งค่า Apache ของเว็บไซต์ส่วนตัวให้บล็อกทั้งการทำดัชนี สไนเป็ต การแปล และการทำดัชนีรูปภาพทั้งหมดแล้ว แต่ถึงอย่างนั้น Internet Archive ก็ยังเมินและเข้ามาเก็บข้อมูลอยู่ดี ขอให้ลบหลายครั้งก็ไม่เคยยอม ตอนนี้เลยใช้ Anubis เพื่อกันการสแครปเพิ่มเติมด้วย (เว็บไซต์นี้เป็นไดอารีสาธารณะที่เริ่มตั้งแต่ปี 2000 เลยไม่อยากให้ถูกค้นหาเจอ)
ในแง่หนึ่ง การเผยแพร่ก็คือการเปิดบางสิ่งสู่สาธารณะเพื่อให้ผู้คนมีเสรีภาพระดับหนึ่งในการนำไปใช้ ซึ่งเสรีภาพนั้นอาจเป็นประโยชน์ต่อเว็บไซต์หรือไม่ก็ได้ ทุกครั้งที่แพลตฟอร์มใหญ่ ๆ อย่าง Google เปลี่ยนแปลง ผู้เผยแพร่คอนเทนต์ก็ต้องปรับตัวมาตลอด และ AI summary ก็เป็นส่วนหนึ่งของกระแสการเปลี่ยนแปลงนั้น
บล็อกโพสต์นี้ ในประโยคสุดท้ายเขียนว่าให้ "ฝากความคิดเห็นไว้" แต่กลับไม่เห็นช่องคอมเมนต์จริง ๆ เลย เลยสงสัยว่าอาจถูกสร้างด้วย AI หรือเปล่า
อยากรู้ว่าฟีเจอร์นี้ใช้ได้กับ Perplexity, OpenAI, Claude และเจ้าอื่น ๆ ด้วยไหม
ผมคิดว่าถ้า Google อ้างอิงแหล่งที่มาให้ชัดเจนแบบ Perplexity มันจะเป็นผลดีต่อทุกฝ่าย ทั้งได้ลิงก์ไปยังต้นฉบับ มีเครดิตให้ และ UX ก็ดีขึ้นด้วย น่าเสียดาย
ต่อไปความเชี่ยวชาญของผมคือการทำให้ LLM สรุปเว็บไซต์บริษัทได้ดี ต้องมีคอนเทนต์แนวคู่มือที่ละเอียดและครบถ้วนแบบนี้
ผมลองเอาชื่อบทความกับโดเมนไปวางแล้วได้ผลลัพธ์ต่างออกไป ภาพอ้างอิง