ความจริงเบื้องหลังช็อกที่เกิดจากการจำกัดผลการค้นหาเหลือ 10 รายการของ Google: การมองเห็นของ Reddit ใน AI ร่วง 97%
(aisparkup.com)เมื่อวันที่ 12 กันยายน 2025 การเปลี่ยนพารามิเตอร์เพียงอย่างเดียวของ Google ได้สั่นสะเทือนทั้งระบบนิเวศ AI การมองเห็นของ Reddit บน ChatGPT ร่วงลง 97% ชั่วข้ามคืน และในขณะที่วงการ SEO กำลังโกลาหลเรื่องอันดับ วิกฤตที่แท้จริงคือการพังทลายของทราฟฟิกจาก AI
ประเด็นสำคัญ:
- หายไป 97% ในชั่วข้ามคืน: หลังจากที่ Google จำกัดผลการค้นหาจาก 100 รายการเหลือ 10 รายการ การมองเห็นของ Reddit บนเอนจิน AI ร่วงจาก 7% เหลือ 0.3% อย่างรวดเร็ว AI อย่าง ChatGPT, Perplexity และ Claude ไม่สามารถเข้าถึงคอนเทนต์ของ Reddit ได้อีกต่อไป
- โลกที่ไม่มีอันดับ 11 ลงไป: คอนเทนต์ชุมชนที่เอนจิน AI ชื่นชอบมากที่สุด ส่วนใหญ่อยู่ในอันดับ 15–40 เมื่อ Google ควบคุมข้อมูลทำให้ AI มองเห็นได้เพียง 10 อันดับแรก คอนเทนต์แบบลองเทลทั้งหมดจึงแทบมองไม่เห็นสำหรับ AI
- กติกาใหม่ในยุค AEO: “Top 10 or Die” – ในยุคของ AI Search หากไม่ติด 10 อันดับแรกบน Google ก็จะหายไปจาก ChatGPT และเอนจิน AI อื่น ๆ อย่างสิ้นเชิง นี่คือจุดเปลี่ยนทางประวัติศาสตร์ที่กติกาของ SEO และ AEO ถูกเขียนใหม่พร้อมกัน
5 ความคิดเห็น
หมายความว่า AI อย่าง ChatGPT เวลาไปค้นหาผลลัพธ์บนเว็บจะค้นผ่าน Google ก่อน แล้วใช้แค่ผลลัพธ์นั้นเท่านั้นเหรอ..? แบบนี้ถ้า Google ไม่แสดงให้รู้ ก็จะถูกตัดออกจากผลลัพธ์...?
ขอเสริมจากความรู้ที่ผมมีนะครับ เวลาค้นหา Google ด้วย URL แต่ก่อนสามารถใส่ query param เป็น
num=100เพื่อดึงผลการค้นหาสูงสุด 100 อันดับมาได้ในครั้งเดียว แต่ช่วงหลัง Google เอาสิ่งนี้ออกไปแล้ว ตอนนี้เลยดึงได้แค่ 10 อันดับแรกเท่านั้นปัญหาที่ตามมาก็คือ ใน SaaS ที่เกี่ยวกับ SEO เดิมทีอาศัยฟีเจอร์นี้เพื่อแสดงว่าเมื่อใส่คีย์เวิร์ดนั้นใน Google แล้วเว็บไซต์จะขึ้นมาอยู่อันดับที่เท่าไร แต่ตอนนี้เห็นได้แค่ถึงอันดับ 10 ทำให้การแสดงอันดับเพี้ยนไป แล้วปัญหาที่สองก็คืออย่างที่บทความพูดไว้ ฝั่ง AI เวลาไปค้นเว็บแล้วดึงเนื้อหากลับมา พอเห็นได้แค่ 10 อันดับแรก ก็จะเจอแต่ Wikipedia หรือถ้าเทียบในบ้านเราก็คล้ายบทความจาก Namuwiki และทำให้โพสต์สำคัญอย่าง Reddit ไม่ถูกดึงขึ้นมา
ผมอยากลองหาที่มาเพิ่มเติม แต่บทความ Google Change Explains Reddit’s Sudden Drop in ChatGPT Mentions
ที่ลิงก์ไว้เป็นอ้างอิงในต้นฉบับเหมือนจะถูกถอดออกไปหรือไม่ก็ไม่สามารถตรวจสอบเนื้อหาได้แล้วครับ
สิ่งที่ทำให้ผมสงสัยเล็กน้อยในเนื้อหาหลักคือมีการเขียนไว้ว่า “ลองนึกถึงโพสต์บน Reddit, การสนทนาในคอมมูนิตี้ หรือเธรดจากผู้เชี่ยวชาญดูสิ คอนเทนต์เหล่านี้จะเข้าไปติด Top 10 ของ Google สำหรับคีย์เวิร์ดเชิงพาณิชย์ได้ไหม? แทบไม่มีเลย แต่ช่วงอันดับ 15~40 นั้น Reddit ครองอยู่” แต่กราฟ Top 10 Websites ของ Perplexity ที่อยู่ถัดลงมาทันที กลับแสดงให้เห็นว่า Reddit อยู่อันดับ 1 ด้วยสัดส่วน 46.7% พอดี จึงรู้สึกว่าค่อนข้างขัดแย้งกันอยู่บ้าง แม้จะอาจมีผลจากการแนะนำแบบปรับตามผู้ใช้ด้วยก็ตาม แต่จากประสบการณ์ส่วนตัว เวลาค้นหาใน Google ก็มักเจอผลลัพธ์จาก Reddit ขึ้นมาอยู่อันดับบน ๆ บ่อยเหมือนกัน
เพิ่มเติมคือ ตั้งแต่วันที่ 12 กันยายน การทำงานของพารามิเตอร์ query
num=100ในผลการค้นหาของ Google ที่ถูกเปลี่ยนให้คืนผลลัพธ์เพียง 10 รายการนั้นเป็นเรื่องจริง[^1] แต่ก็มีความเห็นว่านี่อาจทำให้เกิดความสับสนชั่วคราวกับเครื่องมือ SEO เท่านั้น และยังเป็นปัญหาที่รับมือได้ด้วยการยอมจ่ายต้นทุนจากเดิม 1 query เป็น 10 query หรือใช้ query ที่ละเอียดมากขึ้นแทน[^2] ขณะเดียวกันก็ยังมีความเห็นอีกด้านว่าการลดลงของทราฟฟิกการอ้างอิง Reddit ใน ChatGPT อาจเกิดจากการเปลี่ยนสเปกโมเดลภายในของ OpenAI เมื่อวันที่ 12 กันยายนมากกว่า[^3]ผมเห็นด้วยกับความเห็นที่ว่า AEO มีความสำคัญ แต่รู้สึกว่าข้ออ้างที่ว่า “ถ้าไม่ติด Top 10 ของผลค้นหา Google ก็จะหายไปจาก AI engine อย่าง ChatGPT โดยสิ้นเชิง” นั้นยังมีหลักฐานรองรับค่อนข้างอ่อนครับ
[^1]: https://searchengineland.com/google-search-rank-and-position-tracking-…
[^2]: https://locomotive.agency/blog/…
[^3]: https://sherwood.news/markets/…
ตอนนี้อาจจะยังแค่รู้สึกว่าไม่ค่อยสะดวกนัก แต่ถ้าเป็นแบบนั้น เนื้อหาที่ AI นำไปขยายและผลิตซ้ำก็จะมีแต่สิ่งที่อยู่ใน 10 อันดับบนสุด สุดท้ายข้อมูลที่อยู่นอกอันดับก็จะถูกผลักให้ถอยหลังอย่างรวดเร็วในแง่การเข้าถึง ทำให้ความหลากหลายเสียหาย และถ้าจะพูดแบบ夸張สักหน่อย มันอาจกลายเป็น “การผสมกันเองในเครือญาติ” ของคอนเทนต์ AI จนเกิดโรคทางพันธุกรรมของข้อมูลรูปแบบหนึ่งก็ได้ใช่ไหมครับ
อาจเป็นจินตนาการที่เหลวไหลเกินไปก็ได้ แต่พอคิดว่าผู้คนจำนวนมากจะเข้าถึงได้เพียงข้อมูลในขอบเขตที่จำกัดผ่านปัญญาประดิษฐ์ และข้อมูลที่ปัญญาประดิษฐ์ผลิตขึ้นจากข้อมูลนั้นก็จะย้อนกลับไปเป็นส่วนหนึ่งของการเรียนรู้ของปัญญาประดิษฐ์อีกที ถ้ามองตามสัญชาตญาณก็รู้สึกว่าไม่น่าใช่ทิศทางที่ดีกว่าเท่าไรครับ
แน่นอนว่าปัญหาทราฟฟิกที่มากเกินไปซึ่งเกิดจาก AI เองก็ไม่ใช่สิ่งที่จะมองข้ามได้เสียทีเดียวเหมือนกันครับ
เหมือนใน not by AI ที่เคยดูมาก่อนหน้านี้ก็พูดถึงเรื่องคล้าย ๆ กันเหมือนกันนะ คำว่าโรคทางพันธุกรรมของข้อมูลนี่สดใหม่ดีจริง ๆ 555