ผมเองก็เคยรู้สึกว่าความช่วยเหลือจาก AI มีประโยชน์มาก (Claude Code, Gemini Deep Research ฯลฯ) แต่ต้องมีมนุษย์คั่นกลางเสมอ และปัญหานี้เกิดขึ้นได้แม้ในสภาพแวดล้อมของบริษัทที่ทุกคนรับผิดชอบได้ ถ้าจะใช้ AI คนต้องรับผิดชอบเต็มๆ ตอนส่ง PR หรือรายงาน HackerOne ในท้ายที่สุด จากที่ผมเห็น โดยเฉพาะนักพัฒนารุ่นจูเนียร์มักคัดลอกคำตอบของ AI ไปวางส่งตรงๆ และในฐานะซีเนียร์ผมคิดว่าต้องห้ามพฤติกรรมนี้อย่างจริงจัง ใช้ AI ช่วยได้ แต่การตรวจสอบขั้นสุดท้ายและความรับผิดชอบต้องเป็นของคน
ถ้ายิ่งเอาคำตอบที่คนอื่นเขียนด้วย AI ไปป้อนให้เครื่องมือ AI ของผมตอบกลับอีกที ก็ยิ่งเป็นโมเดลหมุนเวียนอัตโนมัติแบบ 'แปลงพลังงานเป็นเงิน' ที่สมบูรณ์แบบ ไม่มีใครใช้เวลาจริง มีแต่เผาพลังงานทิ้ง เป็นโมเดลธุรกิจที่สมบูรณ์แบบจริงๆ
1 ความคิดเห็น
ความคิดเห็นบน Hacker News
เขาแค่คัดลอกคำตอบของ badger ไปวางในแชต แล้วส่งกลับเข้าไปใน issue อีกครั้งด้วยคำตอบที่เห็นได้ชัดมากว่า AI เป็นคนเขียน ประมาณว่า "ขอบคุณสำหรับการตรวจสอบอย่างรวดเร็ว คุณพูดถูกที่ PoC ของผมไม่ได้ใช้ libcurl จึงพิสูจน์บั๊กของ cURL ไม่ได้ ผมขอถอนคำกล่าวอ้างเรื่อง cookie overflow และขออภัยที่ทำให้สับสน กรุณาปิดรายงานนี้ว่าใช้ไม่ได้ หากเป็นประโยชน์ ผมจะแยกส่งโค้ด C สำหรับ reproduce ขั้นต่ำที่ทำให้ตัวแยกวิเคราะห์คุกกี้ของ libcurl ทำงานจริง และจะอ้างอิงฟังก์ชัน/บรรทัดที่แน่ชัดใน lib/cookie.c ถ้าพบปัญหา" แล้วก็ส่งข้อความทำนองนี้ไปตรงๆ
น่าเสียดายที่พฤติกรรมแบบคัดลอก-วางง่ายๆ ลักษณะนี้กลายเป็นเรื่องธรรมดาไปแล้วทุกวันนี้
ดูเหมือนจะมีคนในวงการเทคบางส่วนที่ตั้งใจทำแบบนี้เพื่ออวดว่า "AI ตัวนี้ได้สร้าง PR ไปช่วยโปรเจกต์โอเพนซอร์สชื่อดังแล้ว" กล่าวคือ ตอนนี้งานที่ AI ทำถูกโยนภาระไปให้เหล่าอาสาสมัคร OSS และยังเผาเวลาของผู้ดูแลโอเพนซอร์สทั้งที่ไม่ได้ตรวจด้วยซ้ำว่ามันใช้งานได้จริงหรือไม่
สงสัยว่าตั้งแต่ต้นมันทำกันด้วย AI ล้วนๆ โดยไม่มีคนแตะเลยหรือเปล่า ต่อไป CVS จะเต็มไปด้วยเอเจนต์สมัครบัญชีแล้วให้ AI ส่ง 'บั๊ก' แบบนี้กันหมดหรือไม่ก็น่ากังวล
ประโยคพวกนี้อย่าง "ขอบคุณ" "ถูกต้อง" รวมถึงไวยากรณ์ที่เป๊ะและการอ้างอิงเชิงเทคนิคที่ล้นๆ ทำให้คำตอบนี้เองก็ดูเหมือน AI เขียนเหมือนกัน
ตอนนี้ที่พวกเราจับได้แทบจะทันทีว่าเป็นคำตอบจาก AI มันก็ชวนให้คิดว่า AI กำลังตกการทดสอบทัวริงโดยพฤตินัยหรือเปล่า
"ได้ยินมาว่าคุณคำนวณเลขได้เร็วมาก" ผม: "ใช่ จริง" ผู้สัมภาษณ์: "14 x 27 ได้เท่าไร" ผม: "49" ผู้สัมภาษณ์: "ผิดหมดเลย" ผม: "แต่ผมเร็วนะ"
อยากได้ภาษาคอมไพเลอร์แบบ "almost-just-in-time (AIJIT)" ถ้าเวลาไม่พอก็แค่คืนคำตอบมั่วๆ กลับมา
โค้ดแบบนี้แหละ ตัวอย่างของการคืนค่าเลขสุ่มที่สุ่มจริงๆ
ตอนผมทำ load test คำตอบที่ latency ต่ำที่สุดคือเวลามี request ผิดพลาดอะไรสักอย่าง
มันให้อารมณ์เหมือน วิดีโอ "Is this your card?" แบบ "ใช่ไพ่ใบนี้ของคุณไหม" "ไม่ใช่ แต่ก็ใกล้มากนะ! นี่แหละคนที่คุณกำลังหาอยู่"
ผมสงสัยว่าดุลยภาพระหว่าง "ผมประหยัดเวลาให้ตัวเองไปเท่าไร" กับ "ผมทำให้คนอื่นเสียเวลาไปเท่าไร" ใน 'การปฏิวัติ' ทางเทคโนโลยีครั้งนี้มันอยู่ตรงไหนกันแน่
ผมเองก็เคยรู้สึกว่าความช่วยเหลือจาก AI มีประโยชน์มาก (Claude Code, Gemini Deep Research ฯลฯ) แต่ต้องมีมนุษย์คั่นกลางเสมอ และปัญหานี้เกิดขึ้นได้แม้ในสภาพแวดล้อมของบริษัทที่ทุกคนรับผิดชอบได้ ถ้าจะใช้ AI คนต้องรับผิดชอบเต็มๆ ตอนส่ง PR หรือรายงาน HackerOne ในท้ายที่สุด จากที่ผมเห็น โดยเฉพาะนักพัฒนารุ่นจูเนียร์มักคัดลอกคำตอบของ AI ไปวางส่งตรงๆ และในฐานะซีเนียร์ผมคิดว่าต้องห้ามพฤติกรรมนี้อย่างจริงจัง ใช้ AI ช่วยได้ แต่การตรวจสอบขั้นสุดท้ายและความรับผิดชอบต้องเป็นของคน
ถ้ายิ่งเอาคำตอบที่คนอื่นเขียนด้วย AI ไปป้อนให้เครื่องมือ AI ของผมตอบกลับอีกที ก็ยิ่งเป็นโมเดลหมุนเวียนอัตโนมัติแบบ 'แปลงพลังงานเป็นเงิน' ที่สมบูรณ์แบบ ไม่มีใครใช้เวลาจริง มีแต่เผาพลังงานทิ้ง เป็นโมเดลธุรกิจที่สมบูรณ์แบบจริงๆ
ที่จริงเรื่องแบบนี้ไม่ได้เกิดกับเครื่องมือ AI อย่างเดียว แต่ยังเกิดกับเครื่องมือทำค่าใช้จ่ายตัวใหม่ๆ (ดีต่อฝ่ายบัญชีแต่ประสบการณ์ใช้งานแย่), กระบวนการตรวจสัญญา (ดีต่อฝ่ายกฎหมายหรือ infosec แต่ยุ่งยากสำหรับ SaaS ที่ทุกคนต้องใช้) ฯลฯ ด้วย มีคนพยายามประหยัดเวลาตัวเองด้วยการโยนงานให้คนอื่นอยู่เสมอ
ถ้าทำให้คนอื่นเสียเวลา สุดท้ายก็ต้องมีใครสักคนมานั่งทำความเข้าใจเรื่องไร้สาระที่ AI สร้างขึ้น ดังนั้นก็ยังมีผลช่วยรักษางานเอาไว้ได้เหมือนกัน
ถ้าหาช่องโหว่จริงๆ ก็หาไม่เจอ แถมยังทำให้คนอื่นเสียเวลา เวลาที่พวกเขาอ้างว่าประหยัดได้นั้นก็แทบไม่มีอยู่จริง
มีตัวอย่างที่หนักกว่านี้มาก
https://hackerone.com/reports/2298307
ประโยคอย่าง "ขอบคุณสำหรับการมีส่วนร่วมของคุณ และผมอยากชี้แจงสถานการณ์ให้ชัดเจน" มันชวนอึ้งจริงๆ เพราะปฏิบัติต่อการมีมนุษย์เข้ามาเกี่ยวข้องเหมือนเป็น 'เงื่อนไขการทดลอง'
ท่าทีแบบนี้เสียมารยาทจริงๆ
ชวนให้คิดว่าควรมีเว็บแบบ base.org ที่ไว้รวบรวมเฉพาะคำพูดอ้างอิงจาก AI
พอมองสถานการณ์แบบนี้แล้ว การที่นักพัฒนาหรือผู้ดูแลตอบสนองอย่างสุจริตใจและใส่ใจก็ดูสูญเปล่าไปหมด
ในปี 2023 เหมือนจะแยกเรื่องไร้สาระที่ AI เขียนออกได้ยากกว่านี้ ผมจำไม่ได้ด้วยซ้ำว่ามันเริ่มล้นขนาดนี้ตั้งแต่เมื่อไร
เมื่อเวลาผ่านไป ผมเริ่มแยกคอนเทนต์ที่ AI สร้างได้อย่างรวดเร็ว (โดยเฉพาะภาพ ข้อความ และโค้ด) บทความนี้เองก็มีกลิ่น 'สไตล์ AI' ตั้งแต่ต้นจนจบ ผมว่า badger รับมือได้อย่างเป็นมืออาชีพมาก และก็สงสัยว่า Linus Torvalds จะตอบสนองยังไง
เคสนี้ชัดเจนมากจนจับได้ทันที แต่พอคิดว่าอนาคตมันจะยิ่งแนบเนียนขึ้นเรื่อยๆ ก็ขนลุก
มองอีกมุม บางครั้งก็มีคนที่ถึงแม้จะไม่ได้เป็น AI ชัดๆ แต่ก็รีบตัดสินว่าเป็น AI อยู่ดี มันให้ความรู้สึกเหมือนกลไกป้องกันตัวของอีโก้ชนิดหนึ่ง ที่ไม่อยากเผชิญข้อมูลใหม่หรือความจริงที่ไม่สอดคล้องกับการรับรู้หรือวิธีคิดของตัวเอง เช่น ไม่นานมานี้มีวิดีโอที่เห็นถุงสีดำสองใบถูกโยนออกมาจากหน้าต่างทำเนียบขาว แล้วทรัมป์ก็รีบบอกทันทีว่า "AI ปลอมขึ้นมา" ไม่ว่ามันจะจริงหรือปลอม การโทษ AI แบบส่งเดชและใช้เป็นเครื่องมือโกหกก็ดูเป็นรูปแบบใหม่อย่างหนึ่ง ผมคิดว่าการตอบสนองทันทีว่า "นี่คือ AI" สู้พูดว่า "จะลองตรวจดูก่อน" แล้วค่อยไปต่อยังจะสร้างสรรค์กว่า สุดท้ายวัฒนธรรมที่โทษ AI แม้ในเรื่องที่ไม่เกี่ยวจะค่อยๆ ล้างสมองสาธารณะ ทำให้คนเมินประเด็นสำคัญจริงๆ ด้วยการยืนยันว่าเป็นของปลอมจาก AI เหมือนในนิยาย 1984 ที่สงครามไม่เคยจบ แต่บางครั้งก็หายไปและถูกทำให้ดูเหมือนไม่มีอยู่จริง สื่อจริง/ปลอมที่ AI สร้างและการปลุกปั่นสาธารณะที่ตามมาน่าจะยิ่งรุนแรงขึ้นในอนาคต
ทัศนคติแบบคิดว่าตัวเองฉลาดกว่านักพัฒนาสมัย trilobite เพียงเพราะ "รู้จัก AI" นี่แหละที่น่าจะสร้างปัญหาเพิ่มขึ้นเรื่อยๆ ดังนั้นผมคิดว่าการที่โรงเรียนประถมไม่ให้ใช้เครื่องคิดเลขในช่วงแรกก็มีเหตุผลของมัน
ผมคิดว่าน่าจะเก็บเงินจากผู้ใช้สำหรับการส่งรายงานช่องโหว่ ไม่ว่าจะเป็น AI หรือมนุษย์ก็ตาม พวกสแปมเมอร์สามารถผลิตงานของตัวเองจำนวนมหาศาลได้ในต้นทุนที่ต่ำมาก แล้วโยนให้คนอื่นเป็นฝ่ายตรวจสอบ บางครั้งก็อาจมีผลลัพธ์ที่มีความหมายโผล่มาได้บ้าง จนดูเหมือนโดยรวมแล้วมีประโยชน์ต่อสังคม แต่ภาพรวมจริงๆ เป็นลบต่อสังคม โมเดลนี้จะอยู่ไม่ได้หากการส่งรายงานมีต้นทุน
แบบนั้นดูจะเป็นวิธีมาตรฐานที่ทำให้คนส่งอะไรไม่ได้มากกว่า
ผมคิดว่าถ้าเก็บเงินมัดจำเล็กน้อยตอนแจ้งรายงานมันน่าจะใช้ได้ดี ถ้ามีคนเจอบั๊ก cURL ร้ายแรงจริง เขาก็น่าจะยอมวางมัดจำ $2~5 เพื่อรายงานอยู่แล้ว (ยิ่งมีโอกาสสูงที่จะได้รางวัลคืนในตอนท้ายด้วย)
ครูทุกวันนี้ต้องเจอสถานการณ์ที่นักเรียนใช้ AI แทบทุกวิชาอยู่แล้วแทบทุกวัน มันเหมือนกันทุกอย่างกับเรื่องนี้
ได้ยินมาว่า "ผู้รายงานโดนแบนแล้วและเหมือนจะลบบัญชีไปด้วย" เรื่องนี้เลยชวนกังวลว่าอาจเป็นการโจมตีแบบฟิชชิง (ทดสอบการป้องกัน) คล้ายการแฮ็ก XZ utils ที่ใช้ทดสอบช่องโหว่ในระบบป้องกัน เพราะ cURL ก็เป็นยูทิลิตีสำคัญ วิธีนี้ยังเหมือนสแปม 419 ที่เอาไว้ทดสอบความระแวง ความเร็วในการตอบสนอง และปริมาณงานของทีม สุดท้ายมันเป็นส่วนหนึ่งของปัญหา DDoS ที่ AI สร้างขึ้น และผมคิดว่าอาจต้องมีวิธีตรวจสอบ PR แบบใหม่ เช่น การยืนยันผ่านเครือข่ายชื่อเสียงบน Nostr
เมื่อไม่นานมานี้ผมเสียเวลา 15 นาทีไปกับการทดสอบแพตช์ที่อ้างว่าแก้บั๊ก UI บนลินุกซ์ แต่จริงๆ แล้วมันเป็นแค่คำตอบมั่วๆ ที่ยัดคุณสมบัติปลอมซึ่งไม่เกี่ยวข้องมาให้ เขาแค่เอา GitHub issue ไปใส่ใน ChatGPT แล้วส่งผลลัพธ์เข้ามาทันทีโดยไม่ตรวจอะไรเลย ผมไม่เข้าใจจริงๆ ว่าทำไปทำไม
สุดท้ายงานแบบนี้ก็มีไว้สร้างประวัติว่า "ผมเคยมีส่วนร่วมกับโปรเจกต์ X, Y, Z" แม้ก่อนมี LLM ก็ยังมี 'การมีส่วนร่วม' ไร้ความหมายอย่าง PR แก้คำสะกดที่แทบไม่ช่วยอะไรอยู่เยอะแล้ว
ด้วยเหตุนี้ผมจึงตัดผู้ใช้ AI ออกจากการปฏิสัมพันธ์ตั้งแต่แรก เพราะผมต้องใช้เวลามากขึ้นเป็นสิบเท่าเพื่อทบทวนผลลัพธ์หลอนๆ (ผิดพลาด) ที่พวกเขาสร้างขึ้น จึงไม่มีเหตุผลอะไรให้ต้องไปคุยกับคอมพิวเตอร์
ท้ายที่สุดมันก็เป็นแค่การกระทำของใครบางคนที่ไหนสักแห่งเพื่อให้ได้เรือลำที่ใหญ่กว่าเดิมเสมอ