16 คะแนน โดย GN⁺ 2025-12-02 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • เป็นส่วนขยายเบราว์เซอร์ที่สร้างขึ้นเพื่อหลีกเลี่ยง การปนเปื้อนจากเนื้อหาที่สร้างโดย AI และออกแบบมาให้ค้นหาเฉพาะคอนเทนต์ที่มนุษย์เขียน
  • ใช้ Google Search API เพื่อคืนผลลัพธ์เฉพาะที่เผยแพร่ก่อนวันที่ 30 พฤศจิกายน 2022
  • ดาวน์โหลดและใช้งานได้บน Chrome และ Firefox
  • ตั้งอยู่บนสมมติฐานว่าหลังการมาถึงของ ChatGPT และโมเดลภาษาขนาดใหญ่อื่น ๆ ปริมาณ ข้อความ·ภาพ·วิดีโอที่สร้างโดย AI บนอินเทอร์เน็ตได้เพิ่มขึ้นอย่างรวดเร็ว
  • มอบ สภาพแวดล้อมการค้นหาที่เชื่อถือได้ ให้กับผู้ใช้ที่ต้องการเข้าถึงเฉพาะข้อมูลที่มนุษย์สร้างขึ้น

ภาพรวมของ Slop Evader

  • Slop Evader เป็นส่วนขยายเบราว์เซอร์สำหรับหลีกเลี่ยงเนื้อหาที่สร้างโดย AI ใช้งานได้บน Chrome และ Firefox
    • ผู้ใช้สามารถติดตั้งส่วนขยายเพื่อกรองคอนเทนต์ที่ AI สร้างขึ้นได้
  • เครื่องมือนี้จะแสดงในผลการค้นหาเฉพาะคอนเทนต์ที่สร้างขึ้น ก่อนการเปิดตัว ChatGPT (30 พฤศจิกายน 2022) เท่านั้น
    • ใช้ Google Search API เพื่อจำกัดผลลัพธ์ตามวันที่

ที่มาของการพัฒนา

  • หลังการเปิดตัว ChatGPT และ โมเดลภาษาขนาดใหญ่ (LLM) อื่น ๆ ปริมาณข้อความ·ภาพ·วิดีโอที่ AI สร้างบนอินเทอร์เน็ตเพิ่มขึ้นอย่างรวดเร็ว
  • Slop Evader ถูกสร้างขึ้นเพื่อหลีกเลี่ยง มลภาวะของข้อมูลออนไลน์จากเนื้อหาที่สร้างโดย AI
  • ผู้ใช้สามารถสำรวจได้เฉพาะ คอนเทนต์ที่มนุษย์เขียนหรือผลิตขึ้นโดยตรง ผ่านส่วนขยายนี้

ฟังก์ชันและความสำคัญ

  • การจำกัดผลการค้นหาไว้ที่ โพสต์ที่เผยแพร่ก่อนวันที่ 30 พฤศจิกายน 2022 ช่วยลดอิทธิพลของเนื้อหาที่สร้างโดย AI ให้เหลือน้อยที่สุด
  • ทำงานบนพื้นฐานของ Google Search API จึงคงประสบการณ์ใช้งานที่ใกล้เคียงกับการค้นหาแบบเดิม
  • ทำหน้าที่เป็นเครื่องมือที่รับประกัน การเข้าถึงข้อมูลที่ยึดมนุษย์เป็นศูนย์กลาง ท่ามกลางการแพร่กระจายของคอนเทนต์ AI

1 ความคิดเห็น

 
GN⁺ 2025-12-02
ความคิดเห็นบน Hacker News
  • เป็นเครื่องมือสำหรับค้นหาเฉพาะคอนเทนต์ที่มีอยู่ก่อนการเปิดตัว ChatGPT (30 พฤศจิกายน 2022)
    แต่ดูเหมือนว่า คุณภาพการค้นหาเสื่อมลง มาตั้งแต่ก่อนหน้านั้นนานแล้ว
    ไม่ใช่แค่ Google แต่เสิร์ชเอนจินทั้งหมดก็แย่ลงอยู่ก่อนแล้ว และหลังจากนั้น AI ก็ยิ่งเร่งแนวโน้มขาลงนั้น
    โดยเฉพาะการยัดเยียด UI ค้นหาของ YouTube มาใส่ใน Google Search นี่แหละที่เป็นปัญหา
    สิ่งที่ผู้ใช้ต้องการคือผลลัพธ์ที่แม่นยำ ไม่ใช่ “xyz ที่คนอื่นค้นหา” แต่กลับมีแต่โฆษณาและองค์ประกอบล่อให้คลิกจน UI ยิ่งสับสน

    • อยากถามว่ารู้จักเสิร์ชเอนจินชื่อ Kagi ไหม
      ที่นี่สามารถ ปิดฟังก์ชัน AI ได้ทั้งหมด
      ตอนนี้มีสมาชิกประมาณ 61,000 คน และเพิ่มขึ้นเดือนละ 2,000 คน (ลิงก์สถิติ)
    • จริง ๆ แล้วคอนเทนต์ที่สร้างอัตโนมัติมีมาก่อน ChatGPT แล้ว
      ราวปี 2020 ก็มีหน้า SEO จำนวนมากที่เต็มไปด้วย คอนเทนต์คัดลอกหรือคีย์เวิร์ดสแปม
      และยังมีบทความจำนวนมากที่สร้างด้วย language model แบบง่าย ๆ หรือ Markov chain
    • มีการล้อประโยค “Google made the search results worse”
      ด้วยมุก autocomplete อย่าง “worse results near me”, “best worse results”
    • มีการชี้ว่าจุดประสงค์ของ Google ไม่ใช่ช่วยให้ผู้ใช้หาข้อมูล แต่คือ เพิ่มเวลาที่ผู้ใช้อยู่กับระบบ
      และเหน็บแนมว่าภาษาแบบองค์กรถูกใช้เพื่อกลบความจริงที่ว่ามันทำให้ชีวิตคนลำบากขึ้น
    • ฉันใช้ DuckDuckGo มานานกว่า 10 ปีแล้ว
      ใช้หลัก ๆ เพื่อค้นหาเอกสารด้านการเขียนโปรแกรม และผลลัพธ์ก็ยังค่อนข้างแม่นยำ
      อาจเป็นเพราะรูปแบบการค้นหาของฉันเรียบง่าย แต่ DDG ก็ยังใช้งานได้ดีอยู่
  • มีคนพูดว่า “เรากำลังขุดหา ‘โทเคนพื้นหลังต่ำ’ เหมือนกับ low-background steel หลังสงครามโลกครั้งที่สอง” แล้วอุปมานั้นก็ติดอยู่ในหัวไม่หาย
    มีการสรุปประเด็นนี้ไว้ใน Latent Space
    แต่ก็ยังไม่แน่ใจว่าโทเคนที่มนุษย์สร้างขึ้นมี ‘สัญญาณสูง’ กว่าที่ AI สร้างจริงหรือไม่

    • ในความเป็นจริง low-background steel ไม่ได้จำเป็นอีกต่อไปแล้ว
      ตาม คำอธิบายใน Wikipedia ระดับกัมมันตภาพรังสีลดลงพอแล้วหลังสนธิสัญญาห้ามทดสอบนิวเคลียร์บางส่วนปี 1963
    • ทุกวันนี้ synthetic data มีอยู่ทั่วไปจนแนวคิดนี้ไม่ใช่เรื่องใหม่ด้วยซ้ำ
    • มีคนออกมาบอกว่า “คนที่พูดประโยคนั้นคือฉันเอง swyx”
    • คนแต่ละรุ่นของมนุษย์ต่างก็สร้างต่อจาก มรดกที่ไม่สมบูรณ์ ของรุ่นก่อนเสมอ
      เราเคยเรียกสิ่งนั้นว่า “ยืนอยู่บนไหล่ของยักษ์”
  • พอเห็นโปรเจกต์แบบนี้ก็นึกถึงโลกของ Cyberpunk 2077
    เป็นเรื่องที่อินเทอร์เน็ตยุคแรกปนเปื้อนด้วย AI อันตราย จนต้องสร้างไฟร์วอลล์ขนาดมหึมาและทำอินเทอร์เน็ตใหม่ที่ยึดมนุษย์เป็นศูนย์กลาง
    เลยทำให้นึกว่า วันหนึ่งเราอาจต้องมี อินเทอร์เน็ตสำหรับมนุษย์เท่านั้น
    แน่นอนว่าในความเป็นจริงทำได้ยาก และชวนให้นึกถึงแนวคิดแบบ meatspace-first network ที่ต้องยืนยันความเป็นมนุษย์อย่างต่อเนื่อง

    • ปัญหาคือเรา ไม่อาจตรวจสอบได้ ว่าคอนเทนต์นั้นออกมาจากความคิดของมนุษย์จริงหรือไม่
      คอนเทนต์ส่วนใหญ่ได้รับอิทธิพลจาก AI ไปแล้ว และการอ้างอิงเฉย ๆ ก็ไม่เหมือนกับการ คัดลอกวางแบบหลอกลวง
    • อย่างที่ Nick Bostrom พูด เทคโนโลยีที่ รบกวนอารยธรรม เมื่อถูกปล่อยสู่โลกแล้วก็ย้อนกลับไม่ได้
      สุดท้ายเราต้องปรับตัว
      และมองว่าเครือข่ายแบบ อิสระ อย่าง Mastodon, Discord, Matrix เป็นตัวอย่างของทิศทางนั้น
    • ตอนนี้ผู้คนก็ย้ายไปใช้ กลุ่มปิด อย่าง Signal, WhatsApp, Telegram กันมากขึ้นแล้ว
    • ในไตรภาค Starfish ของ Peter Watts และ Anathem ของ Neal Stephenson ก็มีฉากทำนองนี้เหมือนกัน
    • ต่อให้เป็น “อินเทอร์เน็ตสำหรับมนุษย์เท่านั้น” ถ้ามนุษย์ยังได้รับอิทธิพลจาก AI มันก็อาจไม่มีความหมายอยู่ดี
  • มี HN leaderboard ที่แสดงอันดับการใช้ em dash (—) ก่อนยุค ChatGPT
    ลิงก์

    • มีข้อเสนอว่าควรรวมคนที่ใช้ double hyphen (--) ด้วย
    • พอไปดูคอมเมนต์ของผู้ใช้อันดับ 1 ก็พบว่ายังมีนิสัยใช้ backtick (`) แทน apostrophe ด้วย
    • มีการแซวว่าควรดูแลผู้ใช้ en dash (–) ด้วยเหมือนกัน
  • ฟังก์ชันแบบนี้ทำได้แม้ไม่ต้องใช้ส่วนขยาย
    แค่เพิ่มตัวกรอง before: ใน Google Search ก็พอ
    ตัวอย่าง: Happiness before:2022

  • ไม่แน่ใจว่าเนื้อหาที่ AI สร้างขึ้นเป็นปัญหาใหญ่ขนาดนั้นหรือเปล่า
    ส่วนใหญ่ก็แค่เข้ามาแทนที่ SEO spam จาก content farm เดิม
    เมื่อก่อนก็ไม่ได้อ่านบทความแบบนั้นอยู่แล้ว ตอนนี้แค่ประโยคลื่นไหลขึ้นนิดหน่อยเท่านั้น
    คิดว่าถ้ารักษาสุขอนามัยในการค้นหาให้ดีก็ไม่น่ามีปัญหา
    แต่ใน Reddit ห้อง r/chess มักมีคนเอาคำตอบจาก ChatGPT ไป โพสต์เหมือนเป็นสิ่งที่ตัวเองเขียน

    • มีเพื่อนร่วมงานส่ง bug report ที่เขียนด้วย ChatGPT มาให้ แต่ชี้ประเด็นบั๊กผิดหมด
      หลังจากนั้นยังคุยต่อด้วย ChatGPT และยืนยันว่าฉันเป็นฝ่ายผิด
      อนาคตแบบนี้น่ากังวล
    • เมื่อก่อนคำตอบผิดมีแค่หนึ่งหรือสองอัน เลยกรองออกได้ง่าย
      แต่ตอนนี้กลับมี คำตอบผิดแบบเดียวกันที่แค่เปลี่ยนรูปประโยค อยู่เป็นสิบ ๆ อัน
    • แม้แต่ซับเรดดิตสายวิทยาศาสตร์และเทคโนโลยีก็เต็มไปด้วยโพสต์รีไซเคิลจาก ChatGPT
      ผู้คนเข้าใจผิดว่าตัวเองค้นพบ ความก้าวหน้าทางปรัชญา แล้วก็เอามาโพสต์
      ที่อย่าง /r/localllama ก็มี AI spam เยอะ และ “Show HN” บางอันใน HN ก็เป็น พอร์ตปลอมที่ LLM สร้างขึ้น
      ฉันเองก็เคยเสียเวลากับโพสต์แบบนั้นเหมือนกัน
    • SEO spam ในอดีตอย่างน้อยก็ยัง อิงข้อเท็จจริง
      เหมือนเว็บสูตรอาหารที่เรายังข้ามส่วนไม่จำเป็นไปได้
      แต่ตอนนี้แทบทุกคำค้นถูกปกคลุมด้วยข้อความที่ AI สร้าง
      เมื่อก่อนยังใช้คำค้นเฉพาะทางเพื่อหาผลลัพธ์ที่ตรงได้ แต่ตอนนี้ต้องฝ่าผ่าน หน้าที่ไร้ความหมาย ไปก่อน
    • มีข้อโต้แย้งกลับว่า แต่ก่อนถ้าเขียนบทความดี ๆ เสิร์ชเอนจินก็จะหาเจอเอง
      แต่ตอนนี้ งานเขียนของมนุษย์นั้นถูกดูดซึมเป็นข้อมูลฝึกของ LLM แล้วนำกลับมาใช้เป็นคอนเทนต์ AI รุ่นถัดไป
      ถึงไม่ต้องการก็ยังเกิดขึ้นอยู่ดี
  • คำว่า “low-background steel ของอินเทอร์เน็ต” น่าสนใจมาก
    ลิงก์วิกิที่เกี่ยวข้อง

    • เมื่อครึ่งปีก่อนก็มีการพูดถึงประเด็นเดียวกันนี้ใน HN
  • เป็นสิ่งที่เจอระหว่างใช้ ChatGPT ทำรีเสิร์ช

    • มัน หลอนข้อมูล (hallucination) คำตอบผิดอย่างมั่นใจ
    • แล้วยังเก็บเนื้อหานั้นไว้ใน memory ทำให้คงอยู่ต่อไป
    • พอถามหาแหล่งที่มา ก็ อ้างตัวเอง ด้วยบทความปลอม 2 ชิ้นที่ AI แต่งขึ้น
      สุดท้ายต้องไปหาเอกสารที่มนุษย์เขียนจากหน่วยงานต้นทางเองถึงจะแก้ปัญหาได้
      เรื่องแบบนี้เกิดขึ้นบ่อยใน พื้นที่ชายขอบขององค์ความรู้
    • AI ให้ความรู้สึกเหมือนกำลังไล่อ่านคำตอบใน Stack Overflow
      คำตอบแรกอาจถูกหรือผิดก็ได้
      แต่แชตบอตหลุดออกจากทิศทางที่ผิดได้ยากกว่า
    • วิธีแก้ง่าย ๆ คือโยนคำถามเดียวกันให้ LLM ต่างกัน 3 ตัว ตอบ
      ถ้าผลลัพธ์ตรงกันก็ถือว่าโอกาส hallucination ต่ำลง
  • สำหรับการค้นหารูป same.energy ใช้ได้ดีทีเดียว
    แม้จะถูกปล่อยทิ้งมาหลายปีแต่ก็ยังทำงานได้ และแทบไม่มี ภาพ AI เลย
    ตัวผลิตภัณฑ์เองก็ดีมากด้วย

  • ผลการค้นหาของ Google นั้น 90% เป็นขยะ SEO มาตั้งแต่ก่อน ChatGPT แล้ว
    แค่ใช้ Kagi แล้วบล็อกเว็บ SEO ก็พอ

    • แต่ก็สงสัยว่า Kagi แยกแยะ เว็บ SEO อย่างไร
      อยากรู้ว่ามีรายการตัวกรองหรือเกณฑ์ตัดสินอะไรหรือไม่