1 คะแนน โดย GN⁺ 2025-12-13 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • บล็อกส่วนตัว blog.james-zhan.com ถูก ลบออกจากดัชนีค้นหาของ Google ทั้งหมด หลังเปิดได้เพียงหนึ่งเดือน
  • ทันทีหลังจากตรวจสอบ URL ของ RSS feed ผิดพลาดใน Google Search Console (GSC) ทุกโพสต์ก็แสดงสถานะเป็น “Crawled – currently not indexed”
  • มีการตรวจสอบ สาเหตุที่เป็นไปได้หลายอย่าง เช่น การตั้งค่าโดเมน คุณภาพคอนเทนต์ และโครงสร้างลิงก์ภายใน แต่ยืนยันว่าไม่มีปัญหา
  • ด้วยความช่วยเหลือจาก Herman ผู้ก่อตั้ง Bear Blog จึง ตัดประเด็นเรื่อง DNS, HTML/CSS และปัญหาของแพลตฟอร์มออกไปได้ และในเสิร์ชเอนจินอื่นก็ยังถูกจัดทำดัชนีตามปกติ
  • สุดท้ายจึงตัดสินใจย้ายบล็อกไปยังซับโดเมนใหม่และ ปล่อยให้ Google จัดทำดัชนีแบบธรรมชาติเอง โดยสาเหตุยังคงไม่ชัดเจน

สถานการณ์เริ่มต้น

  • บล็อกถูกเปิดเมื่อวันที่ 4 ตุลาคม และเผยแพร่ บทความแนวคอลัมน์วิเคราะห์เหตุการณ์ปัจจุบัน ชิ้นแรก
    • เมื่อส่ง sitemap ไปยัง Google Search Console (GSC) และขอจัดทำดัชนี วันถัดมาก็ปรากฏในผลการค้นหาทันที
    • หลังจากนั้นทุกครั้งที่ลงบทความใหม่ก็ส่งคำขอจัดทำดัชนีซ้ำ และถูกสะท้อนในผลค้นหาตามปกติ

ปัญหาเกิดขึ้น

  • วันที่ 14 ตุลาคม หลังเห็นข้อความใน GSC ว่ามี URL หนึ่งไม่ได้ถูกจัดทำดัชนี จึง กดปุ่ม “Validate”
    • URL ดังกล่าวคือ RSS feed (feed/?type=rss) ไม่ใช่หน้าจริง
  • วันที่ 20 ตุลาคม หลังได้รับอีเมลจาก GSC ว่า “การแก้ไขบางส่วนล้มเหลว” ทุกโพสต์ก็ถูกยกเลิกการจัดทำดัชนี
    • ข้อความสถานะคือ “Page is not indexed: Crawled – currently not indexed”
    • การส่ง sitemap ซ้ำและขอจัดทำดัชนี URL รายตัวก็ไม่ได้ผล

การตามหาสาเหตุ

  • วันที่เริ่มการตรวจสอบการจัดทำดัชนี กับ วันที่โพสต์ทั้งหมดกลายเป็นไม่ถูกจัดทำดัชนี เป็นวันเดียวกัน
    • จึงยังไม่ชัดเจนว่าความพยายามตรวจสอบ RSS feed เป็นต้นเหตุหรือไม่
  • หลังจากนั้นบทความที่เผยแพร่ใหม่ทั้งหมดก็ยังคงอยู่ในสถานะข้อผิดพลาดเดียวกัน
    • วันที่ 3 พฤศจิกายน แม้แต่โพสต์สุดท้ายที่ยังเหลืออยู่ก็ถูกยกเลิกการจัดทำดัชนี

ตรวจสอบสาเหตุที่เป็นไปได้

  • ปัญหาโดเมน: james-zhan.com ที่ใช้งานผ่าน GoDaddy ถูกจัดทำดัชนีได้ตามปกติบนซับโดเมนอื่น → ไม่ใช่สาเหตุ
  • คุณภาพคอนเทนต์: เมื่อเทียบกับกรณีอื่นของ Bear Blog ก็ไม่พบปัญหาเรื่องปริมาณหรือคุณภาพคอนเทนต์ → ไม่ใช่สาเหตุ
  • ลิงก์ภายในไม่เพียงพอ: โครงสร้างพื้นฐานของ Bear Blog เหมือนกันทั้งหมด และบล็อกอื่นยังถูกจัดทำดัชนีตามปกติ → ไม่ใช่สาเหตุ
  • ปัจจัยอื่น: จากการตรวจสอบของ Herman ผู้ก่อตั้ง Bear Blog
    • DNS, HTML/CSS และการตั้งค่าแพลตฟอร์มทั้งหมดเป็นปกติ
    • โค้ด CSS แบบกำหนดเองของผู้ใช้ก็ไม่ส่งผลต่อการจัดทำดัชนี

เสิร์ชเอนจินอื่นและมาตรการที่ทำ

  • ใน DuckDuckGo, Bing, Brave เป็นต้น บล็อกยังถูกจัดทำดัชนีตามปกติ
    • จึงคาดว่าเป็นปัญหาฝั่ง Google มากกว่าความผิดพลาดทางเทคนิค
  • มีการย้ายบล็อกไปยัง ซับโดเมนใหม่ (journal.james-zhan.com) และ
    • ย้ายโดเมนจาก GoDaddy ไปยัง Porkbun
    • ตั้งค่า URL forwarding เพื่อให้ลิงก์เดิมเชื่อมต่อไปยังบล็อกใหม่โดยอัตโนมัติ
  • สำหรับบล็อกใหม่ ไม่ได้ส่ง sitemap เข้า GSC แต่ ปล่อยให้ถูกจัดทำดัชนีแบบธรรมชาติเอง
  • จนถึงตอนนี้ก็ยังไม่ทราบสาเหตุ และผู้เขียนตั้งคำถามต่อ ความไม่โปร่งใสของระบบจัดทำดัชนีของ Google

1 ความคิดเห็น

 
GN⁺ 2025-12-13
ความคิดเห็นจาก Hacker News
  • ทราฟฟิกบล็อกของฉันดิ่งลงหนักในปีนี้ พอไล่หาสาเหตุก็พบว่ามีอยู่สองอย่าง
    1. เป็นเพราะ AI Overview จำนวนการแสดงผลและอันดับยังเท่าเดิม แต่ CTR ร่วงฮวบ ผู้ใช้อ่านแค่สรุปแล้วไม่คลิก
    2. เป็นปัญหา การแสดงผลสแปม ในหน้าผลการค้นหา query ของผู้ใช้ถูกแสดงเป็น h1 ทำให้ Google มองว่านั่นคือคอนเทนต์สแปม
      ฉันควบคุม AI Overview ไม่ได้ แต่พอเพิ่ม noindex ให้หน้าค้นหา ทราฟฟิกก็ฟื้นกลับมาภายในหนึ่งสัปดาห์
      รายละเอียดอยู่ในโพสต์บล็อกของฉัน
    • ปัญหาข้อที่สองดูเหมือนจะเป็น การโจมตี Negative SEO หน้า /search น่าจะถูกแคชแล้วเปิดให้ crawler เห็น
      ไม่ควรแคชหน้าค้นหา และควรใช้ X-Robots-Tag สำหรับ noindex
    • ราวเดือนกันยายนมี การเปลี่ยนวิธีนับคลิก·การแสดงผลของ Google ว่ากันว่าจนเทียบกับข้อมูลเดิมไม่ได้แล้ว
      ต่อไปคงต้องติดตามทราฟฟิกด้วย เครื่องมือวิเคราะห์ ของตัวเอง
    • รู้สึกว่า Google วางแผนสถานการณ์นี้มานานแล้ว
      1. เพิ่มเว็บไซต์ SEO เพื่อดันคอนเทนต์ที่มีประโยชน์ลงไปข้างล่าง
      2. วางโฆษณาไว้ด้านบนเพื่อดันลงไปอีก
      3. นำ สรุปโดย AI มาใช้เพื่อไม่ให้ผู้ใช้มีเหตุผลต้องคลิก
        ตอนนี้คนเห็นแค่สรุปกับโฆษณาแล้วก็จากไป
    • มีเรื่องที่สงสัยอยู่ เวลาใครสักคนค้นหา “crypto” ในบล็อกของฉัน หน้าผลลัพธ์นั้นถูก Google ทำดัชนีได้อย่างไร?
      เป็นไปได้ไหมว่ามีเว็บไซต์อื่นลิงก์มาที่ URL ค้นหานั้น เลยถูก crawl?
    • AI Overview คงไม่หายไป ผู้ใช้ทั่วไปอ่านแค่สรุป
      ถ้า Google ใส่ ลิงก์แหล่งที่มา ไว้ในประโยคสรุป อัตราการคลิกก็น่าจะฟื้นขึ้นมาได้บ้าง
  • ไม่ว่ากรณีนี้จะจริงแค่ไหน ปัญหาคือ โครงสร้างการลงโทษที่ไม่โปร่งใสของ Google
    เวลาสถานะโดนลงโทษ เราไม่รู้เหตุผล และก็อุทธรณ์ไม่ได้
    Google ทำหน้าที่เป็น gatekeeper โดยพฤตินัย
    ในเมื่อมันทำงานเหมือนสาธารณูปโภค ก็ควรมี ระบบสนับสนุนและความรับผิดชอบ ที่สมน้ำสมเนื้อ
    กฎระเบียบอาจไม่ใช่คำตอบของทุกอย่าง แต่บริษัทระดับสาธารณูปโภคแบบนี้ควรมีอย่างน้อย หน้าที่รับประกันการเข้าถึง
    • นี่ไม่ใช่ปัญหา gatekeeper เท่าไร แต่ใกล้เคียงกับ ปัญหาการผูกขาด มากกว่า Google เป็นเจ้าของทั้งตัวจัดทำดัชนีและเครื่องมือค้นหา
    • ถ้า Google มีความรับผิดชอบทางจริยธรรมจริง ก็ควรผ่อนแรงแข่งขันในการประมูลโฆษณาเพื่อให้ เว็บไซต์ปกติได้แสดงในหน้าแรก
      ตอนนี้มันเป็นโครงสร้างที่ต้องจ่ายค่าโฆษณาถึงจะมองเห็นในผลค้นหา
  • เมื่อ 6 เดือนก่อน ตามคำแนะนำของ Ahrefs ฉันลบ อักขระยูนิโค้ด ออกจาก path ของ URL และตั้ง redirect
    ผลคือหน้าที่ถูกทำดัชนีลดจากหลักพันเหลือ 100 หน้า
    ดูภาพหน้าจอ
    ผ่านไป 6 เดือนก็ยังไม่ฟื้น โชคดีที่เป็นโปรเจกต์ส่วนตัว แต่ถ้าเป็นธุรกิจฉันคงเดือดมาก
    ภาพหน้าจออัปเดต
    • อาจเป็นไปได้ว่า Google ทุ่มทรัพยากรไปที่ AI แล้วหลัง invalidate cache อันดับของหน้าที่ถูก crawl ใหม่ก็เปลี่ยนไป
    • Google เก็บคอนเทนต์ที่ต้องการครบแล้ว ตอนนี้เว็บไซต์ต่าง ๆ กลายเป็น คู่แข่งสำหรับการฝึก AI ไปแล้ว
    • บทเรียนง่ายมาก — ถ้ามันทำงานดีอยู่แล้ว อย่าไปแตะมัน
    • ฉันก็เจอเหมือนกัน หลายพันหน้าถูกถอดออกจากดัชนี สุดท้ายต้องเลิกทำ ธุรกิจคอนเทนต์ที่พึ่งโฆษณา
  • ใน Google Maps มี โฆษณาผิดกฎหมาย เยอะมาก มีทั้งที่พักไม่มีใบอนุญาตหรือร้านขายแอลกอฮอล์ที่ถูกลงทะเบียนไว้อย่างเปิดเผย
    พอดำเนินการไปได้สักระยะ บางทีก็ถูกยอมรับเป็น ‘สิทธิการใช้งานเดิม’
    ฉันเคยเห็นถึงขั้นมีการยื่น ภาพหน้าจอ Google Maps เป็นหลักฐานในศาล
    • ฉันก็เคยโดนแบบนี้ ตอนหาช่างกุญแจแถวบ้านใน Google Maps
      สุดท้ายกลับเป็น มิจฉาชีพ เขาทำกุญแจพังแล้วเรียกเงิน 600 ดอลลาร์
      พอฉันรายงาน Google ก็ลบออกอย่างรวดเร็ว แต่ฉันคิดว่าสิ่งแบบนี้ควรมี การยืนยันตัวตนจริง ตั้งแต่ตอนลงทะเบียน
    • มันทำให้นึกถึงเรื่อง Trap Street ที่คนทำแผนที่สมัยก่อนชอบใส่ไว้
      แต่ปัญหาคือโลกความจริงบางทีก็เปลี่ยนไปตามแผนที่
    • ฉันสงสัยว่าโฆษณาแบบนี้ถูกปฏิบัติต่างจากโฆษณาประเภทอื่นหรือเปล่า
      ในกระบวนการทางปกครอง มักมีกรณีที่ปล่อยผ่านด้วยทำนองว่า “ถ้าไม่มีใครร้องก็ถือว่าไม่เป็นไร”
    • นี่เหมือน legal citogenesis แบบหนึ่ง — ปรากฏการณ์ที่ข้อมูลผิดพลาดถูกทำให้แข็งตัวเป็นเอกสารทางการ
  • ช่วงนี้ คุณภาพการค้นหาของ Google ตกฮวบ
    เว็บไซต์ของฉันถูกมองผิดว่าเป็นคอนเทนต์ซ้ำจน ถูกถอดออกจากดัชนี
    ใน Bing ไม่มีปัญหา แต่ Google กลับพลาดแบบนี้
    • ฉันก็รู้สึกคล้ายกัน โมเดลยอดนิยมของ Hugging Face ไม่โผล่ในผลค้นหา
      ส่วนหน้า Reddit กลับแสดงแต่เวอร์ชันที่ถูกแปลเป็นภาษาแปลก ๆ
      น่าจะเป็นเพราะ ตรรกะการลบข้อมูลซ้ำ ทำงานผิดพลาด
    • ลองเช็กดูว่ามีการ route คำขอ SNI ผิดหรือไม่
      ถ้ามี reverse proxy จากโดเมนอื่น Google จะทำดัชนีซ้ำ
      ควรใช้ canonical tag และลิงก์แบบ absolute path
    • ทั้ง Amazon และ Google เต็มไปด้วย สินค้าปลอมและผลลัพธ์สแปม
    • Bing ทำงานได้ดีกับทุกเว็บไซต์ของฉัน แต่ Google พังหมด
    • ตอนนี้ Google Search แทบ ไร้ประโยชน์ แล้ว น่าแปลกใจที่ปล่อยให้ความสามารถหลักของตัวเองเสื่อมขนาดนี้
  • ฉันก็เจอปัญหาเดียวกัน ใช้ ธีม Hugo Bear แล้วช่วงหลังถูก Bing ถอดจากดัชนีทั้งหมด
    เป็นบล็อกที่ไม่มีปัญหามา 17 ปีแล้ว
  • อาจเป็นไปได้ว่า การตรวจสอบ RSS ไม่ผ่าน เป็นตัวกระตุ้นให้ติดธงสแปม
    พอสแปมเยอะขึ้น false positive ก็น่าจะเพิ่มตาม
    • ถ้าแค่ RSS มีข้อผิดพลาดจุดเดียวแล้วทั้งเว็บไซต์ถูกถอดจากดัชนี นั่นก็เป็นปัญหาร้ายแรง
      วิธีแบบนี้กลับยิ่งทำให้ สัดส่วนคอนเทนต์ปกติลดลง เสียอีก
  • พูดตรง ๆ พอเห็นหัวข้อ “Google de-indexed my Bear Blog” ฉันนึกว่าเป็นเรื่อง บล็อกหมี เลยคลิกเข้ามา
    • ถ้าไปหาบล็อกเกี่ยวกับหมีจริง ๆ คุณอาจเจอ ผลลัพธ์ที่คาดไม่ถึง ก็ได้
    • ฉันเองก็ยังไม่รู้ว่าทำไมในชื่อถึงมีคำว่า “Bear”
    • ในฐานะ quietfox สิ่งสำคัญคือต้องปกป้องตัวเอง ^^
  • นี่คล้ายกับกระทู้ HN ก่อนหน้า
    เหมือนกันตรงที่ Google มี โครงสร้างที่เป็นคนตัดสินว่าใครจะอยู่รอด
    • มีบทความนี้เป็นกรณีที่เกี่ยวข้องด้วย
      ความผิดพลาดของ RSS อาจเป็นแค่ ตัวจุดชนวนของความไม่ใส่ใจ
    • เมื่อก่อน TripAdvisor ครองส่วนแบ่ง 60% ของตลาดรีวิวท้องถิ่นในสหราชอาณาจักร
      Google Maps ตามขึ้นมาได้เร็วขนาดนั้นเลยหรือ?
      อิทธิพลของ Instagram หรือ TikTok ก็ไม่ควรถูกมองข้าม
      การตีความแบบโยนอำนาจให้ Google มากเกินไปก็ดูจะ ให้อำนาจกับมันเกินจริง
  • Google Search เอื้อเว็บใหญ่ และทำให้เว็บใหม่เสียเปรียบ
    สุดท้ายก็กลายเป็นปัญหาแบบ ไก่กับไข่อะไรเกิดก่อนกัน
    เว็บไซต์เล็กไม่ถูกมองเห็นจึงเติบโตไม่ได้
    ส่วนเว็บไซต์ใหญ่ก็ยังอยู่บนอันดับสูงต่อไปโดยไม่มีปัญหา