- เป็นส่วนขยายเบราว์เซอร์ที่สร้างขึ้นเพื่อหลีกเลี่ยง การปนเปื้อนจากเนื้อหาที่สร้างโดย AI และออกแบบมาให้ค้นหาเฉพาะคอนเทนต์ที่มนุษย์เขียน
- ใช้ Google Search API เพื่อคืนผลลัพธ์เฉพาะที่เผยแพร่ก่อนวันที่ 30 พฤศจิกายน 2022
- ดาวน์โหลดและใช้งานได้บน Chrome และ Firefox
- ตั้งอยู่บนสมมติฐานว่าหลังการมาถึงของ ChatGPT และโมเดลภาษาขนาดใหญ่อื่น ๆ ปริมาณ ข้อความ·ภาพ·วิดีโอที่สร้างโดย AI บนอินเทอร์เน็ตได้เพิ่มขึ้นอย่างรวดเร็ว
- มอบ สภาพแวดล้อมการค้นหาที่เชื่อถือได้ ให้กับผู้ใช้ที่ต้องการเข้าถึงเฉพาะข้อมูลที่มนุษย์สร้างขึ้น
ภาพรวมของ Slop Evader
- Slop Evader เป็นส่วนขยายเบราว์เซอร์สำหรับหลีกเลี่ยงเนื้อหาที่สร้างโดย AI ใช้งานได้บน Chrome และ Firefox
- ผู้ใช้สามารถติดตั้งส่วนขยายเพื่อกรองคอนเทนต์ที่ AI สร้างขึ้นได้
- เครื่องมือนี้จะแสดงในผลการค้นหาเฉพาะคอนเทนต์ที่สร้างขึ้น ก่อนการเปิดตัว ChatGPT (30 พฤศจิกายน 2022) เท่านั้น
- ใช้ Google Search API เพื่อจำกัดผลลัพธ์ตามวันที่
ที่มาของการพัฒนา
- หลังการเปิดตัว ChatGPT และ โมเดลภาษาขนาดใหญ่ (LLM) อื่น ๆ ปริมาณข้อความ·ภาพ·วิดีโอที่ AI สร้างบนอินเทอร์เน็ตเพิ่มขึ้นอย่างรวดเร็ว
- Slop Evader ถูกสร้างขึ้นเพื่อหลีกเลี่ยง มลภาวะของข้อมูลออนไลน์จากเนื้อหาที่สร้างโดย AI
- ผู้ใช้สามารถสำรวจได้เฉพาะ คอนเทนต์ที่มนุษย์เขียนหรือผลิตขึ้นโดยตรง ผ่านส่วนขยายนี้
ฟังก์ชันและความสำคัญ
- การจำกัดผลการค้นหาไว้ที่ โพสต์ที่เผยแพร่ก่อนวันที่ 30 พฤศจิกายน 2022 ช่วยลดอิทธิพลของเนื้อหาที่สร้างโดย AI ให้เหลือน้อยที่สุด
- ทำงานบนพื้นฐานของ Google Search API จึงคงประสบการณ์ใช้งานที่ใกล้เคียงกับการค้นหาแบบเดิม
- ทำหน้าที่เป็นเครื่องมือที่รับประกัน การเข้าถึงข้อมูลที่ยึดมนุษย์เป็นศูนย์กลาง ท่ามกลางการแพร่กระจายของคอนเทนต์ AI
1 ความคิดเห็น
ความคิดเห็นบน Hacker News
เป็นเครื่องมือสำหรับค้นหาเฉพาะคอนเทนต์ที่มีอยู่ก่อนการเปิดตัว ChatGPT (30 พฤศจิกายน 2022)
แต่ดูเหมือนว่า คุณภาพการค้นหาเสื่อมลง มาตั้งแต่ก่อนหน้านั้นนานแล้ว
ไม่ใช่แค่ Google แต่เสิร์ชเอนจินทั้งหมดก็แย่ลงอยู่ก่อนแล้ว และหลังจากนั้น AI ก็ยิ่งเร่งแนวโน้มขาลงนั้น
โดยเฉพาะการยัดเยียด UI ค้นหาของ YouTube มาใส่ใน Google Search นี่แหละที่เป็นปัญหา
สิ่งที่ผู้ใช้ต้องการคือผลลัพธ์ที่แม่นยำ ไม่ใช่ “xyz ที่คนอื่นค้นหา” แต่กลับมีแต่โฆษณาและองค์ประกอบล่อให้คลิกจน UI ยิ่งสับสน
ที่นี่สามารถ ปิดฟังก์ชัน AI ได้ทั้งหมด
ตอนนี้มีสมาชิกประมาณ 61,000 คน และเพิ่มขึ้นเดือนละ 2,000 คน (ลิงก์สถิติ)
ราวปี 2020 ก็มีหน้า SEO จำนวนมากที่เต็มไปด้วย คอนเทนต์คัดลอกหรือคีย์เวิร์ดสแปม
และยังมีบทความจำนวนมากที่สร้างด้วย language model แบบง่าย ๆ หรือ Markov chain
ด้วยมุก autocomplete อย่าง “worse results near me”, “best worse results”
และเหน็บแนมว่าภาษาแบบองค์กรถูกใช้เพื่อกลบความจริงที่ว่ามันทำให้ชีวิตคนลำบากขึ้น
ใช้หลัก ๆ เพื่อค้นหาเอกสารด้านการเขียนโปรแกรม และผลลัพธ์ก็ยังค่อนข้างแม่นยำ
อาจเป็นเพราะรูปแบบการค้นหาของฉันเรียบง่าย แต่ DDG ก็ยังใช้งานได้ดีอยู่
มีคนพูดว่า “เรากำลังขุดหา ‘โทเคนพื้นหลังต่ำ’ เหมือนกับ low-background steel หลังสงครามโลกครั้งที่สอง” แล้วอุปมานั้นก็ติดอยู่ในหัวไม่หาย
มีการสรุปประเด็นนี้ไว้ใน Latent Space
แต่ก็ยังไม่แน่ใจว่าโทเคนที่มนุษย์สร้างขึ้นมี ‘สัญญาณสูง’ กว่าที่ AI สร้างจริงหรือไม่
ตาม คำอธิบายใน Wikipedia ระดับกัมมันตภาพรังสีลดลงพอแล้วหลังสนธิสัญญาห้ามทดสอบนิวเคลียร์บางส่วนปี 1963
เราเคยเรียกสิ่งนั้นว่า “ยืนอยู่บนไหล่ของยักษ์”
พอเห็นโปรเจกต์แบบนี้ก็นึกถึงโลกของ Cyberpunk 2077
เป็นเรื่องที่อินเทอร์เน็ตยุคแรกปนเปื้อนด้วย AI อันตราย จนต้องสร้างไฟร์วอลล์ขนาดมหึมาและทำอินเทอร์เน็ตใหม่ที่ยึดมนุษย์เป็นศูนย์กลาง
เลยทำให้นึกว่า วันหนึ่งเราอาจต้องมี อินเทอร์เน็ตสำหรับมนุษย์เท่านั้น
แน่นอนว่าในความเป็นจริงทำได้ยาก และชวนให้นึกถึงแนวคิดแบบ meatspace-first network ที่ต้องยืนยันความเป็นมนุษย์อย่างต่อเนื่อง
คอนเทนต์ส่วนใหญ่ได้รับอิทธิพลจาก AI ไปแล้ว และการอ้างอิงเฉย ๆ ก็ไม่เหมือนกับการ คัดลอกวางแบบหลอกลวง
สุดท้ายเราต้องปรับตัว
และมองว่าเครือข่ายแบบ อิสระ อย่าง Mastodon, Discord, Matrix เป็นตัวอย่างของทิศทางนั้น
มี HN leaderboard ที่แสดงอันดับการใช้ em dash (—) ก่อนยุค ChatGPT
ลิงก์
ฟังก์ชันแบบนี้ทำได้แม้ไม่ต้องใช้ส่วนขยาย
แค่เพิ่มตัวกรอง
before:ใน Google Search ก็พอตัวอย่าง: Happiness before:2022
ไม่แน่ใจว่าเนื้อหาที่ AI สร้างขึ้นเป็นปัญหาใหญ่ขนาดนั้นหรือเปล่า
ส่วนใหญ่ก็แค่เข้ามาแทนที่ SEO spam จาก content farm เดิม
เมื่อก่อนก็ไม่ได้อ่านบทความแบบนั้นอยู่แล้ว ตอนนี้แค่ประโยคลื่นไหลขึ้นนิดหน่อยเท่านั้น
คิดว่าถ้ารักษาสุขอนามัยในการค้นหาให้ดีก็ไม่น่ามีปัญหา
แต่ใน Reddit ห้อง r/chess มักมีคนเอาคำตอบจาก ChatGPT ไป โพสต์เหมือนเป็นสิ่งที่ตัวเองเขียน
หลังจากนั้นยังคุยต่อด้วย ChatGPT และยืนยันว่าฉันเป็นฝ่ายผิด
อนาคตแบบนี้น่ากังวล
แต่ตอนนี้กลับมี คำตอบผิดแบบเดียวกันที่แค่เปลี่ยนรูปประโยค อยู่เป็นสิบ ๆ อัน
ผู้คนเข้าใจผิดว่าตัวเองค้นพบ ความก้าวหน้าทางปรัชญา แล้วก็เอามาโพสต์
ที่อย่าง /r/localllama ก็มี AI spam เยอะ และ “Show HN” บางอันใน HN ก็เป็น พอร์ตปลอมที่ LLM สร้างขึ้น
ฉันเองก็เคยเสียเวลากับโพสต์แบบนั้นเหมือนกัน
เหมือนเว็บสูตรอาหารที่เรายังข้ามส่วนไม่จำเป็นไปได้
แต่ตอนนี้แทบทุกคำค้นถูกปกคลุมด้วยข้อความที่ AI สร้าง
เมื่อก่อนยังใช้คำค้นเฉพาะทางเพื่อหาผลลัพธ์ที่ตรงได้ แต่ตอนนี้ต้องฝ่าผ่าน หน้าที่ไร้ความหมาย ไปก่อน
แต่ตอนนี้ งานเขียนของมนุษย์นั้นถูกดูดซึมเป็นข้อมูลฝึกของ LLM แล้วนำกลับมาใช้เป็นคอนเทนต์ AI รุ่นถัดไป
ถึงไม่ต้องการก็ยังเกิดขึ้นอยู่ดี
คำว่า “low-background steel ของอินเทอร์เน็ต” น่าสนใจมาก
ลิงก์วิกิที่เกี่ยวข้อง
เป็นสิ่งที่เจอระหว่างใช้ ChatGPT ทำรีเสิร์ช
สุดท้ายต้องไปหาเอกสารที่มนุษย์เขียนจากหน่วยงานต้นทางเองถึงจะแก้ปัญหาได้
เรื่องแบบนี้เกิดขึ้นบ่อยใน พื้นที่ชายขอบขององค์ความรู้
คำตอบแรกอาจถูกหรือผิดก็ได้
แต่แชตบอตหลุดออกจากทิศทางที่ผิดได้ยากกว่า
ถ้าผลลัพธ์ตรงกันก็ถือว่าโอกาส hallucination ต่ำลง
สำหรับการค้นหารูป same.energy ใช้ได้ดีทีเดียว
แม้จะถูกปล่อยทิ้งมาหลายปีแต่ก็ยังทำงานได้ และแทบไม่มี ภาพ AI เลย
ตัวผลิตภัณฑ์เองก็ดีมากด้วย
ผลการค้นหาของ Google นั้น 90% เป็นขยะ SEO มาตั้งแต่ก่อน ChatGPT แล้ว
แค่ใช้ Kagi แล้วบล็อกเว็บ SEO ก็พอ
อยากรู้ว่ามีรายการตัวกรองหรือเกณฑ์ตัดสินอะไรหรือไม่