ฟีด RSS ส่งทราฟฟิกมาให้มากกว่า Google
(shkspr.mobi)- จากบล็อกของ Terence Eden ในช่วง 28 วันที่ผ่านมา ผู้ติดตาม RSS และจดหมายข่าว สร้างทราฟฟิกเข้ามามากกว่าเสิร์ชเอนจินหลักอย่าง Google
- บล็อกนี้มีเพียง เลย์เอาต์เชิงความหมาย และ เมทาดาทารีวิว เท่านั้น แต่ไม่ได้ใช้ SEO แบบดุดัน อย่างการยัดคีย์เวิร์ดหรือ AMP
- ใช้ การเก็บสถิติแบบเบาเฉพาะในเครื่อง เพื่อตรวจสอบแหล่งที่มาของทราฟฟิก โดยในบรรดาเสิร์ชเอนจิน Google อยู่ในอันดับต้น ๆ และ DuckDuckGo ก็สูงเช่นกัน แต่ Bing แทบจะติด 20 อันดับแรกได้ยากในแต่ละวัน
- การติดตาม RSS และอีเมลจะบันทึก hit เมื่อมีการโหลดรูปภาพแบบ lazy load ท้ายบทความหรือรูปติดตาม แต่เนื่องจาก Gmail ทำให้รูปภาพคลุมเครือขึ้นและมีการบล็อก crawler กับ bot ทำให้ต้องมองว่าเป็น ข้อมูลที่สูญหายไปมาก
- คนที่เข้ามาโดยบังเอิญจากการค้นหา กับคนที่เลือกกดติดตามโดยตรง เป็นทราฟฟิกคนละแบบกัน และราว 25% ของทราฟฟิกทั้งหมดมาจากคนที่เลือกติดตาม
บล็อกส่วนตัวที่ RSS สร้างทราฟฟิกได้มากกว่า Google
- ตาม บทความของ Susam ทราฟฟิกส่วนใหญ่ของเว็บไซต์ส่วนตัวยังคงมาจากเว็บฟีด และ Terence Eden ก็ตรวจสอบว่าบล็อกของตนมีปรากฏการณ์เดียวกันหรือไม่
- บล็อกนี้เปิดมานานแล้ว แต่ไม่ได้ใส่ใจกับ SEO แบบดุดัน มากนัก
- มี เลย์เอาต์เชิงความหมาย และใส่ เมทาดาทาให้รีวิว ในระดับหนึ่ง
- ไม่ใช้วิธีเพิ่มอันดับบน Google แบบยัดคีย์เวิร์ดหรือใช้ AMP
- ถึงอย่างนั้นก็ยังมองว่าทราฟฟิกจากการค้นหาอยู่ในระดับใช้ได้
วิธีวัดทราฟฟิกและข้อจำกัด
- เมื่อปีที่แล้วได้เพิ่ม การเก็บสถิติแบบเบาเฉพาะในเครื่อง ให้กับบล็อก ทำให้เห็นได้ว่าผู้คนเข้ามาผ่านเว็บไซต์ใด
- ในทราฟฟิกจากเสิร์ชเอนจิน Google อยู่ในอันดับต้น ๆ, DuckDuckGo สูงกว่าที่คาด และ Bing แทบจะติด 20 อันดับแรกได้ยากในแต่ละวัน
- ยังสามารถตรวจสอบ ทราฟฟิกจาก Fediverse และ BlueSky ได้ด้วย ส่วนทราฟฟิกจาก Twitter แทบหายไปแล้ว
- เมื่อไม่กี่สัปดาห์ก่อน ยังได้เพิ่ม การติดตาม RSS และจดหมายข่าว
- เมื่อผู้ติดตาม RSS เปิดบทความ และไคลเอนต์ดาวน์โหลดรูปภาพแบบ lazy load ที่ท้ายบทความ ก็จะมีการบันทึก hit
- อีเมลก็คล้ายกันโดยทั่วไป เมื่อเปิดเมลและโหลดรูปติดตาม ก็จะมีการบันทึก hit
- เนื่องจาก Gmail ทำให้รูปภาพคลุมเครือขึ้นในระดับหนึ่ง การวัดผลอีเมลจึงไม่แม่นยำเช่นกัน
- ข้อมูลชุดนี้เป็นข้อมูลที่สูญหายไปมาก และไม่ได้มุ่งหมายตัวเลขที่แม่นยำระดับสูงมาก
- มีการบล็อก AI crawler และ bot ให้ได้มากที่สุดเท่าที่ทำได้
- จุดประสงค์ไม่ใช่การติดตามผู้คนไปทั่วเว็บหรือเพื่อนำไปขายอะไร แต่เป็นการอยากรู้คร่าว ๆ ว่าผู้คนค้นพบบล็อกนี้จากที่ไหน
สิ่งที่เห็นจากทราฟฟิกในช่วง 28 วันที่ผ่านมา
- จากข้อมูลการเข้าชมบล็อกในช่วง 28 วันที่ผ่านมา ผู้ที่เลือกติดตาม สร้างทราฟฟิกได้มากกว่าเสิร์ชเอนจินหลัก
- ในบางเดือนอาจมีทราฟฟิกพุ่งขึ้นอย่างมากจากเว็บไซต์รวมลิงก์อย่าง HN หรือ Reddit
- บางครั้งก็มีการถูกลิงก์จากเว็บไซต์ดัง หรือ ถูกอ้างอิงในงานวิชาการ
- โดยปกติแล้วจะเป็นลักษณะที่มีทราฟฟิกไหลเข้ามาทีละนิดจากหลายแหล่ง
- ถึงอย่างนั้น การที่มีคนเลือกติดตามฟรีจำนวนมาก และคนกลุ่มนี้สร้างทราฟฟิกได้มากกว่าเสิร์ชเอนจินหลัก ก็เป็นสิ่งที่น่าประหลาดใจ
ความหมายของทราฟฟิกจาก RSS และข้อควรระวัง
- คนที่เข้ามายังบล็อกจากการค้นหาสิ่งใดสิ่งหนึ่ง กับคนที่ชอบบล็อกนี้และเลือกติดตามเอง เป็น ทราฟฟิกคนละประเภทอย่างมาก
- ถึงอย่างนั้น ราว 25% ของทราฟฟิกทั้งหมดก็มาจากคนที่เลือกติดตาม
- ด้วยเหตุผลทางประวัติศาสตร์ จึงยังมีทั้งฟีด Atom และฟีด RSS แยกกัน แม้อาจพิจารณารวมทั้งสองเข้าด้วยกันได้ แต่การเผยแพร่ในสองฟอร์แมตที่ต่างกันเล็กน้อยนี้ก็ไม่ได้ต้องใช้ความพยายามมาก
1 ความคิดเห็น
ความคิดเห็นจาก Lobste.rs
ผมไม่ได้ใช้ แต่พอเห็นแบบนี้แล้วก็รู้สึกว่าคนที่ไม่ใช้ในหมู่นักเทคอาจเป็นส่วนน้อยก็ได้
หรือว่าผมควรใช้ RSS reader แทนที่จะปล่อยเรื่องผัดวันประกันพรุ่งไว้กับเว็บรวมลิงก์?
ตอนที่ Twitter ยังพอใช้งานได้อยู่ มันก็ยังแย่มากสำหรับการตามหาโพสต์แบบนี้ และโพสต์เหล่านั้นก็ไหลผ่านฟีดไปอย่างรวดเร็ว
ถึงอย่างนั้นฉันก็ยังมองว่า RSS ยังใกล้เคียงกับการเป็น เทคโนโลยีเฉพาะกลุ่ม อยู่มากในหมู่คนทำงานสายเทคทั้งหมด เพียงแต่ในหมู่คนที่โพสต์บน lobste.rs ดูเหมือนจะใช้กันมากกว่า เพราะมันเหมาะกับการติดตามหลายบล็อก
คิดว่าเป็นแหล่งป้อนงานผัดวันประกันพรุ่งที่ยอดเยี่ยม
ที่ย้อนแย้งคือเริ่มใช้เพราะเว็บรวมลิงก์กับโซเชียลมีเดียสายเทคที่ฉันเคยตามอยู่ ส่วนใหญ่กลายเป็นกองขยะหรือถูกบีบให้กลายเป็นแบบนั้น
ฉันไปคุ้ยโดเมนที่ไม่ซ้ำกันจากบุ๊กมาร์กเก่าและประวัติการเข้าชม แล้วรวบรวม niche blog มาหลายสิบแห่ง และยังมีวิธีหาเพิ่มอีกเยอะ: ค้นหาด้วย marginalia, ใช้ discover ของ bearblog, ค้นหาอินสแตนซ์ gitea/forgejo ส่วนตัวเพื่อดูซับโดเมนบล็อก, เจอโดยบังเอิญระหว่างค้นหาอะไรสักอย่าง, หรือเจอลิสต์เว็บไซต์ที่มีคนรวบรวมไว้ใน GitHub repository เป็นต้น
บล็อกหนึ่งลิงก์ไปอีกบล็อก อีกบล็อกก็ต่อไปอีกบล็อก วนกันไปเรื่อย ๆ ซึ่งเป็นเหมือนขุมทอง
ตอนนี้น่าจะมีฟีดอยู่หลายร้อยแล้ว และเริ่มจำไม่ได้ด้วยซ้ำว่าไปเจอมายังไง
นอกจากบล็อกเฉพาะกลุ่มแล้ว vendor และ CERT จำนวนไม่น้อยก็มีฟีดของตัวเอง ทำให้สะดวกมากในการตาม ข่าวความปลอดภัยไซเบอร์
รู้ไหมว่า ถ้าเพิ่ม seclists.org เข้าไปใน feed reader ก็รับเมลลิงลิสต์ oss-sec ในรูปแบบ RSS feed ได้
บางครั้งในประกาศเตือนด้านความปลอดภัยจะให้เครดิตกับองค์กรหรือบุคคลบางรายที่เป็นคนรายงาน ถ้าโชคดีก็จะพบว่าพวกเขาทำบล็อกคุณภาพสูง และถ้าโชคดียิ่งกว่านั้นก็มีฟีดด้วย
ก็แค่เพิ่มเข้ารีดเดอร์แล้วตามต่อไป
อย่างไรก็ดี ฉันชอบตรงที่เว็บไซต์พวกนี้ช่วยให้หลุดออกจากฟองสบู่สหรัฐฯ/ยุโรปตะวันตกที่มักถูกขังอยู่ได้บ้าง
ไม่จำเป็นต้องเลิกใช้เว็บรวมลิงก์ไปเลย ถ้าจะเพิ่มประสิทธิภาพการทำงานจะเลิกก็ได้ แต่กับ feed reader มันเป็นของที่เสริมกัน
เพราะพยายามหลีกเลี่ยง Google และเสิร์ชเอนจินให้มากที่สุด เลยไม่ได้คาดหวังทราฟฟิกจากตรงนั้นเท่าไร
พอดูล็อกของวันที่ 4 พฤษภาคมวันเดียว ผลออกมาแบบนี้ โดยตัด crawler หลายตัวที่ฉันไล่ไปติดกับดักขยะออกแล้ว:
/atom.xmlไม่ได้น่าแปลกใจที่ Google แทบไม่ได้ส่งทราฟฟิกมาเลย
ฉันตั้งค่าไม่ให้ทำดัชนีไว้ นี่จึงเป็นผลลัพธ์ที่ต้องการ
แต่สำหรับเว็บไซต์นี้โดยเฉพาะ อย่างน้อยในบล็อกของฉันในวันนั้น ทราฟฟิกจาก RSS สูงกว่าการเข้าชมตรงพอสมควร
ถ้าดูล็อกรวมทั้งก้อนราว 7 วัน จะมีคำขอทั่วไป 19,000 รายการ และ RSS/Atom 27,000 รายการ ดังนั้นฟีดก็ยังชนะ!