15 คะแนน โดย GN⁺ 2026-03-04 | 4 ความคิดเห็น | แชร์ทาง WhatsApp
  • ผู้พัฒนา NanoClaw ที่มี 18,000 GitHub stars เปิดเผยว่าเมื่อค้นหาชื่อโปรเจกต์บน Google เว็บไซต์ปลอมกลับแสดงอยู่สูงกว่าเว็บไซต์ทางการ
  • เว็บไซต์ปลอม (nanoclaw[.]net) ที่มีคนสแครป README ของโปรเจกต์ไปสร้างอัตโนมัติ ขึ้นมาอยู่ในอันดับ 2 ของผลการค้นหา Google ขณะที่เว็บไซต์ทางการจริงไม่ปรากฏแม้แต่หลังหน้า 5
  • แม้จะ ดำเนินการอย่างถูกต้องทุกอย่างแล้ว ไม่ว่าจะเป็นการทำ SEO การส่งข้อมูลผ่าน Google Search Console และการได้ลิงก์จากสื่อไอทีหลัก ผลการค้นหาของ Google ก็ไม่เปลี่ยน
  • เว็บไซต์ปลอมอาจถูกแทรกมัลแวร์หรือลิงก์ฟิชชิงได้ ทำให้ ช่องโหว่ด้านความปลอดภัยที่ใหญ่ที่สุดของโปรเจกต์ที่ออกแบบมาโดยเน้นความปลอดภัย กลายเป็นตัว Google Search เอง
  • หากแม้แต่ในกรณีที่ทุกสัญญาณชี้ไปยังคำตอบเดียวอย่างชัดเจน Google ยังแสดงผลลัพธ์ที่ถูกต้องไม่ได้ ก็ย่อมทำให้เกิดคำถามต่อ ความน่าเชื่อถือของ Google ในฐานะประตูสู่ข้อมูลบนอินเทอร์เน็ต

ที่มาของปัญหาโปรเจกต์ NanoClaw และเว็บไซต์ปลอม

  • NanoClaw เป็นโปรเจกต์โอเพนซอร์สที่ออกแบบแบบ security-first โดยให้เอเจนต์ทุกตัวทำงานในคอนเทนเนอร์ที่แยกจากกัน และมี secure sandbox runtime เป็นแกนหลัก
  • หลังเปิดตัวเมื่อวันที่ 2 กุมภาพันธ์ โปรเจกต์ก็เติบโตอย่างรวดเร็ว และถูกนำเสนอโดยสื่อหลักอย่าง CNBC, VentureBeat และ The Register
  • ในช่วงแรกหลังเปิดตัว โปรเจกต์ยังไม่มีเว็บไซต์แยกต่างหาก โดย GitHub repository คือตัวโปรเจกต์เอง และทีมมุ่งเน้นไปที่การพัฒนาฟีเจอร์กับการสร้างชุมชน
  • ราววันที่ 8 กุมภาพันธ์ มีคนไปจดโดเมน nanoclaw[.]net และสร้าง เว็บไซต์อัตโนมัติ จากข้อมูลที่สแครปมาจาก README
  • ในตอนแรก เว็บไซต์นั้นยังใส่ลิงก์ GitHub ที่ถูกต้องอยู่ จึงยังไม่ถูกมองว่าเป็นปัญหาใหญ่

ความเสียหายจากเว็บไซต์ปลอมที่ขยายวง

  • เมื่อโปรเจกต์เติบโตขึ้น ผู้ใช้จำนวนมากขึ้นเรื่อย ๆ เริ่ม ส่งคำถามเข้ามา เช่น “เว็บไซต์คุณมีข้อผิดพลาด”, “ในเว็บมีโฆษณาหรือ”, “ทำไมบนมือถือถึงแสดงแบบนี้”
  • เว็บไซต์ดังกล่าวเผยแพร่ ข้อมูลที่ไม่ตรงกับความเป็นจริง เกี่ยวกับโปรเจกต์ และยังปลอมแปลงวันที่เผยแพร่ด้วย
  • ผู้ใช้นับพันเข้าใจผิดว่าเว็บไซต์นี้คือเว็บทางการ และ ภาพแรกที่มีต่อ NanoClaw จึงกลายเป็นหน้าเว็บหยาบ ๆ ที่เต็มไปด้วยโฆษณา
  • ความเสียหายสะสมเพิ่มขึ้นทุกวัน และอาจมีผู้คนนับแสนที่ได้เห็นข้อมูลผิดไปแล้ว

การสร้างเว็บไซต์ทางการและความพยายามรับมือด้าน SEO

  • เมื่อ 2 สัปดาห์ก่อน ทีมได้สร้างเว็บไซต์ทางการ nanoclaw.dev และดำเนินการทุกอย่างที่ทำได้
    • เชื่อมลิงก์เว็บไซต์ทางการจาก GitHub repository
    • ใช้ structured data และทำ SEO อย่างเหมาะสม
    • ส่งข้อมูลผ่าน Google Search Console ราว 15 ครั้ง
    • ได้ลิงก์มายังเว็บไซต์จริงจากบทความของสื่ออย่าง The Register, VentureBeat และ The New Stack
    • เผยแพร่บล็อกโพสต์ที่ขึ้นอันดับ 1 บน Hacker News
    • แปลเว็บไซต์เป็น 15 ภาษา
    • เชื่อมทุกโปรไฟล์โซเชียลไปยัง nanoclaw.dev
    • ยื่น คำขอให้ลบออก (takedown notice) ไปยัง Google, Cloudflare และผู้รับจดทะเบียนโดเมน spaceship.com
  • แม้ทุกสัญญาณบนอินเทอร์เน็ตจะชี้ว่า nanoclaw.dev คือเว็บไซต์ทางการ แต่ผลการค้นหาของ Google ก็ยังไม่เปลี่ยน

ปัญหาเชิงโครงสร้างของการค้นหา Google

  • ใน GitHub repository ของ NanoClaw ซึ่งอยู่อันดับ 1 บน Google มีการระบุ nanoclaw.dev ไว้อย่าง ชัดเจนในช่องเว็บไซต์
  • ถึงอย่างนั้น Google ก็ยังแสดงเว็บไซต์ปลอมไว้เหนือกว่าเว็บไซต์ทางการ
  • ผู้เชี่ยวชาญด้าน SEO แนะนำว่า “ก็แค่ชนะใน SEO ให้ได้” หรือ “ซื้อ Google Ads สิ” แต่การที่นักพัฒนาโอเพนซอร์สต้องมาทำ สงคราม SEO กับชื่อโปรเจกต์ของตัวเอง นั่นเองคือปัญหา
  • นี่ไม่ใช่ปัญหา SEO แต่เป็น ปัญหาของ Google

ความเสี่ยงด้านความปลอดภัย

  • NanoClaw เป็นโปรเจกต์ที่เน้นความปลอดภัย โดยให้ความสำคัญกับ ความปลอดภัยและการ sandboxing ของ agent runtime
  • ตอนนี้ช่องโหว่ด้านความปลอดภัยที่ใหญ่ที่สุดของโปรเจกต์กลับเป็นตัว Google Search เอง
  • ผู้ดูแลเว็บไซต์ปลอมสามารถแทรก คริปโตสแกม หน้าฟิชชิง หรือลิงก์ดาวน์โหลดมัลแวร์ ลงในหน้านั้นได้ทุกเมื่อ
  • ยังอาจ fork GitHub repository เพื่อใส่โค้ดอันตราย แล้วลิงก์มาจากเว็บไซต์ปลอมที่ Google แสดงราวกับเป็นเว็บไซต์ที่ถูกต้องได้ด้วย
  • Google กำลังทำให้สถานการณ์นี้เป็น ความเสี่ยงด้านความปลอดภัยที่เกิดขึ้นได้จริงแบบ active

คำถามพื้นฐานต่อความน่าเชื่อถือของ Google

  • แม้แต่ในคำถามที่ตัวโปรเจกต์ประกาศคำตอบที่ถูกต้องไว้อย่างชัดเจน ทุกสัญญาณสอดคล้องกัน และไม่มีความคลุมเครือ Google ก็ยังให้ผลลัพธ์ที่ถูกต้องไม่ได้
  • จึงเกิดคำถามพื้นฐานว่า เราจะยังเชื่อถือ Google ได้หรือไม่ สำหรับข้อมูลสำคัญอย่างการเลือกตั้ง วัคซีน การแพทย์ และการเงิน
  • เราควรเลิกโทษตัวเองเรื่องเมตาแท็กหรือรูปแบบ favicon ว่าทำได้สมบูรณ์พอหรือยัง เพราะการที่ Google มี สัญญาณที่ชัดเจนและมากพอแล้วแต่ยังแสดงผลผิด เป็นความรับผิดชอบของ Google
  • หาก Google ต้องการรักษาสถานะในฐานะประตูสู่ข้อมูลบนอินเทอร์เน็ต ก็จำเป็นต้องแก้ปัญหาพื้นฐานแบบนี้ให้ได้

4 ความคิดเห็น

 
xguru 2026-03-04

พวกสแปมเมอร์ SEO ขยันกันจริงๆ
ตอนนี้ลองค้นหาดูแล้วไม่ขึ้นก็จริง แต่ก็จำเป็นต้องคอยค้นหาและตรวจสอบผลิตภัณฑ์ที่ตัวเองทำไว้อย่างต่อเนื่อง
ผมเองก็คอยดูอันดับการเข้าชมจากคีย์เวิร์ดค้นหาของ GeekNews ทุกครั้งเหมือนกัน ถ้ากำลังดูแลเว็บไซต์อยู่ การดู Search Console ถือเป็นสิ่งจำเป็น

 
beepp 2026-03-06

พอค้นหา nanoclaw ก็ยังเห็น nanoclaw.net แสดงอยู่ใต้ git เหมือนเดิมนะ

 
roxie 2026-03-04

ดูเหมือนว่า Structured data จะสำคัญนะ

 
GN⁺ 2026-03-04
ความคิดเห็นจาก Hacker News
  • เมื่อหลายปีก่อนตอนที่ John Reilly โพสต์บทความ “How I ruined my SEO” บน HN ผมเคยช่วยเขาฟรี
    เขาสรุปกระบวนการนั้นไว้ในบล็อก
    ถ้าต้องการ ครั้งนี้ผมก็ยินดีช่วยอีก
    วิธีแก้ที่เร็วที่สุดคือทำ mapping ของ backlink สำหรับเว็บ .net แล้วส่งอีเมลไปหาสื่อที่ลิงก์ผิด
    บอกว่า “ลิงก์นี้พาไปเว็บปลอม ของจริงอยู่ที่นี่” แล้วน่าประหลาดใจที่หลายแห่งยอมแก้ให้
    แค่นั้นอย่างเดียวก็อาจเปลี่ยนสถานการณ์ได้แล้ว
    เพิ่มเติมคือถ้าใส่ structured data และ schema ให้กับ nanoclaw.dev ก็จะช่วยให้เสิร์ชเอนจินและ LLM เข้าใจได้ดีขึ้น
    สรุปคำแนะนำที่ใช้ได้จริงคือ

    1. ลงทะเบียน nanoclaw.dev ใน Google Search Console และส่ง sitemap
    2. backlink ของเว็บปลอมมีไม่มาก จึงยังมีโอกาสกู้คืนได้สบาย
    3. backlink ของ GitHub repo มีคุณภาพสูง ดังนั้นลองติดต่อไปขอให้เพิ่มลิงก์ไปยังเว็บจริง
      ดู สเปรดชีตรายการ backlink
    4. สร้าง โซเชียลโปรไฟล์ทางการ อย่าง Twitter/X, LinkedIn เพื่อเสริม knowledge graph ของ Google
    5. สุดท้าย ถ้าในเธรด HN นี้มีการใส่ลิงก์ตรงไปที่ nanoclaw.dev มันคงช่วย SEO ได้มาก
    • ผมว่ามันเป็น ข้อเสนอที่มีน้ำใจมาก
      แต่ในมุมของผู้เขียนเอง ก็คงรู้สึกคับข้องใจที่ต้องมานั่งแก้ปัญหาที่ Google เป็นคนสร้าง
      บริษัทมูลค่าหลายหมื่นล้านดอลลาร์กลับแยกไม่ออกแม้แต่ลิงก์ทางการที่มีระบุชัดบน GitHub จนสุดท้ายเจ้าตัวต้องเสียเวลาจัดการเอง แบบนี้มันดูไม่ยุติธรรม

    • การที่ต้องมาทำ งาน SEO ที่ไม่จำเป็น แบบนี้มันชวนหมดแรงจริง ๆ

    • ปัญหาแบบนี้ไม่ได้เกิดกับแค่เว็บเดียว
      โปรเจกต์โอเพนซอร์สจำนวนมากกำลังเจอปัญหาเดียวกัน
      โดยพื้นฐานแล้วนี่เป็นปัญหาที่ Google ควรแก้เอง

    • คำแนะนำยอดเยี่ยมมาก

    • ฟีดแบ็กที่ดี

  • มองจากมุมของบุคคลที่สาม เวอร์ชัน .net น่าจะถูกดันขึ้นมาเพราะได้ลิงก์จากสื่อความน่าเชื่อถือสูงอย่าง The Register และ The New Stack
    มันเพิ่งผ่านมาแค่สัปดาห์เดียว จึงควรให้เวลา Google ทำความเข้าใจให้ถูกต้อง
    Google มีแนวโน้มจะเอนเอียงไปทางเว็บที่พูดถึงหัวข้อนั้นก่อน
    เพราะฉะนั้นเมื่อเวลาผ่านไป อันดับก็น่าจะถูกปรับใหม่
    ระหว่างนี้ก็ควรลิงก์ไปที่เว็บไซต์ทางการแทน GitHub

    • ผมลองเช็กเองแล้วพบว่า The Register เท่านั้นที่อ้างถึงหน้าผิด ส่วนบทความอื่นอ้างถึง GitHub อยู่
      คลังเก็บ The Register
      คลังเก็บ VentureBeat
      คลังเก็บ The New Stack

    • นี่แสดงให้เห็นว่าบนอินเทอร์เน็ตมีคอนเทนต์ที่ถูกคัดลอกซ้ำมากเกินไป จนเกณฑ์ว่า ‘ที่โพสต์ก่อนคือของต้นฉบับ’ ใช้ไม่ได้เสมอไป

    • นั่นแหละคือเหตุผลว่าทำไมเวลาค้นหายังเห็น เอกสาร Java 8 โผล่อันดับบน ๆ อยู่ มันน่าหงุดหงิดมาก

    • แก่นของปัญหาคือ ‘มันเพิ่งผ่านไปแค่สัปดาห์เดียว’
      อัลกอริทึมของ Google พัวพันกับ ค่าน้ำหนักด้าน authority และ quality มากมาย เลยเปลี่ยนอะไรได้ยากในระยะสั้น

    • ถ้าเป็นนักพัฒนา ก็ควรทำ หน้าเว็บไซต์ของตัวเอง ให้แต่ละโปรเจกต์
      ถ้าเป็นไปได้ การ self-hosting repo เองก็ปลอดภัยกว่า

  • ผมเป็นผู้ใช้ Kagi แบบจ่ายเงิน แต่ช่วงหลัง ๆ ก็ผิดหวัง เพราะ Kagi เองก็เริ่มมี ผลลัพธ์คุณภาพต่ำที่สร้างโดย AI เยอะขึ้น
    ผลค้นหา nanoclaw ก็แทบจะเหมือน Google เลย

    • ผมก็รู้สึกคล้ายกัน
      ความสามารถในการปรับแต่งของ Kagi นั้นดี แต่ตัวเว็บทั้งผืนทุกวันนี้เต็มไปด้วย ข้อมูลคุณภาพต่ำ มากเกินไป สุดท้ายไม่ว่าเสิร์ชเอนจินไหนก็มีขีดจำกัด

    • ช่วงนี้ไม่มีเสิร์ชเอนจินไหนที่ผมชอบเลย :(

    • ผมลองค้นหา nanoclaw บน Kagi แล้วได้ว่า
      อันดับ 1 คือ nanoclaw[dot]net,
      อันดับ 2 คือ GitHub repo ของ qwibitai (ดูเหมือนปลอม),
      อันดับ 3 คือวิดีโอแนวโฆษณา,
      อันดับ 4 คือ GitHub ของ gavrielc ที่ดูเหมือนของจริง,
      อันดับ 5 คือ nanoclaw.dev แต่หัวข้อแสดงเป็น “Don’t trust AI agents”
      อันดับ 6 เป็นอีก fork หนึ่ง

  • ผมสรุปผลจากการทดสอบหลายเสิร์ชเอนจินและ AI
    Google กับ Brave ให้ลำดับเป็น GitHub ทางการ → โดเมนปลอม,
    DuckDuckGo กับ Bing เป็นโดเมนปลอม → GitHub ทางการ,
    Mojeek เน้นบทความจากบุคคลที่สาม และ Qwant แย่ที่สุด
    ในทางกลับกัน โหมดค้นหาด้วย AI อย่าง ChatGPT, Gemini, Grok ส่วนใหญ่กลับระบุเว็บทางการได้ถูกต้อง และบางตัวถึงขั้นเตือนเรื่องเว็บปลอมด้วย
    สรุปแล้ว AI แม่นยำกว่าการค้นหาแบบดั้งเดิมมาก

    • แต่ผลลัพธ์ของแต่ละคนก็ไม่เหมือนกัน
      ใน Google ของผม .net ขึ้นอันดับ 1 และ GitHub อันดับ 2
      โหมด ChatGPT 5.2 Auto ยังเข้าใจผิดว่า .net คือเว็บทางการ แต่ โหมด Thinking กับ Claude กลับให้ .dev มาก่อนอย่างถูกต้อง

    • AltPower Search ก็มีปัญหาเดียวกัน
      nanoclaw.dev น่าจะยังเป็นโดเมนใหม่ เลยถูกทำดัชนีไม่ครบ
      ดู AltPower, Archive, Cloudflare Radar

    • อยากรู้ว่าใช้พรอมป์ต์แบบไหนในการทดสอบ AI

  • คำแนะนำเรื่อง structured data ในคอมเมนต์ด้านบนคือประเด็นสำคัญ
    ผมเองก็เคยเพิ่ม schema แบบ Organization และ SoftwareApplication แล้ว Google ก็เริ่มมองเว็บไซต์ไปคนละแบบเลย
    ปัญหาคือแม้ Google จะมีสัญญาณทุกอย่างอยู่แล้ว แต่มันก็ยังให้น้ำหนักกับ อายุโดเมนและจำนวน backlink มากกว่าอยู่ดี
    ท้ายที่สุดระบบนี้กลับให้รางวัลกับคนที่ไปยึดโดเมนไว้ก่อน มากกว่าผู้สร้างตัวจริง

    • คอมเมนต์นี้เขียนได้ลื่นมากจนผมเกือบจะเอาไปอ้างอิงทำ SEO ให้เว็บตัวเอง แต่พออ่านไปอ่านมากลับรู้สึกเหมือน LLM เป็นคนเขียน เลยเริ่มสับสน
      สงสัยว่าพอจะตรวจสอบได้ไหมว่าใครเป็นคนจริง
  • วันนี้ตอนค้นหา nanoclaw ผมไปเจอ เว็บปลอม nanoclawS.io อีกเว็บ
    มันกำลังเก็บอีเมลอยู่ด้วย เลยค่อนข้างอันตราย
    ในกรณีแบบนี้ ผมมองว่าการ บล็อกในระดับผู้ให้บริการโฮสต์ น่าจะดีกว่ามัวไปสนใจอันดับ Google
    ถ้ามีองค์ประกอบด้านลิขสิทธิ์ที่ใช้ยื่น DMCA ได้ ก็น่าลองทำ

    • ตามในบทความบอกว่าได้ส่ง คำขอ takedown ไปยัง Google, Cloudflare และ registrar spaceship.com แล้ว
  • ถ้าจะให้คำแนะนำกับนักพัฒนาโอเพนซอร์สทุกคน ก็คือเมื่อปล่อยโปรเจกต์ออกสู่สาธารณะแล้ว ต้องเผื่อใจไว้เสมอว่ามันอาจถูก นำไปใช้ในทางที่ผิด
    โลกก็เป็นแบบนี้
    โอเพนซอร์สนั้นน่าขอบคุณ แต่การปกป้องตัวเองก่อนก็สำคัญ

    • โดยเฉพาะถ้าเป็นไลเซนส์ MIT บริษัทใหญ่อย่าง Amazon อาจ fork ไปทำเงินได้ และคุณก็อาจ ไม่ได้สักบาทเดียว
      มันเป็นปัญหาอีกระดับที่ต่างจากการเขียนโค้ดเพื่อการกุศล

    • มีกฎที่เกี่ยวข้องคือ Hyrum’s Law
      ใจความคือ “ถ้ามีผู้ใช้ API มากพอ พฤติกรรมทุกอย่างของระบบย่อมจะกลายเป็นสิ่งที่มีใครบางคนพึ่งพา”

  • การแพ้ใน SEO ก็คล้ายกับการเสียเงินในตลาดหุ้น
    ระบบนี้ มีประสิทธิภาพและเย็นชา มากเกินกว่าจะสนใจความไม่พอใจของปัจเจก
    สุดท้ายต้องกลับมาปรับกลยุทธ์ใหม่และทำความเข้าใจตลาดแทน

  • ถ้าจะเสนอให้ @Gavriel ทำอะไร ผมคิดว่าควรพิจารณา จดทะเบียนเครื่องหมายการค้า NanoClaw
    แค่จดทะเบียนหรือยื่นคำขอไว้ ก็ช่วยเพิ่ม อำนาจในการดำเนินการทางกฎหมาย กับผู้จดโดเมน, Cloudflare และ Google ได้มาก
    และยังช่วยให้พิสูจน์ได้ง่ายขึ้นในข้อพิพาท UDRP ว่าอีกฝ่ายจดทะเบียนโดยไม่สุจริต

  • ตอนแรกเทรนด์คือการเกาะกระแส Claw แต่ตอนนี้กลายเป็นว่ามีคนอื่นมา เกาะชื่อของคุณ แทนแล้ว

    • พอคิดว่าเดิมทีโปรเจกต์ Claw เองก็เคยอาศัยความนิยมของสินค้าอื่นก่อนจะเปลี่ยนชื่อ มันก็ชวน ironic ดี

    • ผมก็คิดเหมือนกัน
      นี่ดูไม่ใช่ “เว็บซื่อสัตย์ที่ถูกมิจฉาชีพทำร้าย” เท่าไรนัก แต่เหมือนกรณีที่หลงทางอยู่ใน เกมแย่งความสนใจแบบไร้จุดจบ มากกว่า