- AI ไม่ได้ทำให้การรีวิวโค้ดหายไป แต่กลับทำให้ ภาระในการพิสูจน์ชัดเจนขึ้น
- ต้องแนบ หลักฐานประกอบ เช่น การตรวจสอบด้วยตนเองหรือการทดสอบอัตโนมัติเมื่อนำการเปลี่ยนแปลงขึ้นใช้งาน และหลังจากนั้นต้อง ใช้การรีวิวเพื่อทำความเข้าใจความเสี่ยง เจตนา และความรับผิดชอบ
- ขณะที่นักพัฒนารายบุคคลพึ่งพาระบบอัตโนมัติเพื่อให้ทันความเร็วของ AI แต่ ทีมใช้การรีวิวเพื่อสร้างบริบทร่วมและความรับผิดชอบร่วมกัน
- หาก PR ไม่มีหลักฐานว่าใช้งานได้จริง นั่นไม่ใช่การ deploy ให้เร็วขึ้น แต่เป็นเพียง การย้ายงานไปกองไว้ปลายน้ำ และมีเพียงนักพัฒนาที่มี ระบบตรวจสอบยืนยัน เท่านั้นที่ประสบความสำเร็จกับ การพัฒนาแบบความเร็วสูงด้วย AI
- คอขวดของการรีวิวโค้ดย้ายจากการ เขียนโค้ด ไปสู่ กระบวนการพิสูจน์ว่าโค้ดทำงานได้จริง โดย AI เร่งงานเชิงกลไกได้ แต่ ความรับผิดชอบยังคงเป็นของมนุษย์
การเปลี่ยนแปลงของการรีวิวโค้ดในยุค AI
- ณ ต้นปี 2026 มี นักพัฒนาระดับซีเนียร์มากกว่า 30% ที่ deploy โค้ดซึ่งสร้างโดย AI เป็นส่วนใหญ่ และแม้ AI จะเก่งในการร่างฟีเจอร์ แต่ก็เปิดช่องโหว่ในด้านตรรกะ ความปลอดภัย และ edge case โดยมี ข้อผิดพลาดด้านตรรกะเพิ่มขึ้น 75% เป็นต้น
- นักพัฒนาเดี่ยว deploy ได้รวดเร็วด้วย ความเร็วในการอนุมาน (inference speed) และใช้ test suite เป็นตาข่ายนิรภัย ขณะที่ทีมยังคงใช้ การรีวิวโดยมนุษย์ เพื่อรักษาบริบทและการปฏิบัติตามข้อกำหนด
- หากทำอย่างถูกต้อง ทั้งสองแบบต่างก็ ใช้ AI เป็นตัวเร่ง ได้ แต่ ความแตกต่างอยู่ที่ว่าใคร ตรวจสอบอะไร และเมื่อไร
- หากคุณยังไม่ได้ ยืนยันด้วยตนเองว่าโค้ดทำงานถูกต้อง ก็ยังไม่อาจถือว่า มันทำงานถูกต้อง
- AI เพียงแค่ทำให้กฎข้อนี้ยิ่งชัดขึ้น ไม่ได้ยกเว้นให้
วิธีที่นักพัฒนาใช้ AI ในการรีวิว
- Ad-hoc LLM check: ก่อน commit ให้นำ diff ไปวางใน Claude, Gemini, GPT เพื่อ ตรวจบั๊กหรือปัญหาด้านสไตล์อย่างรวดเร็ว
- การผสานเข้ากับ IDE: ใช้เครื่องมืออย่าง Cursor, Claude Code, Gemini CLI เพื่อรับ คำแนะนำแบบ inline และการ refactor ระหว่างเขียนโค้ด
- PR bot และ scanner: ใช้ GitHub Copilot หรือ agent แบบกำหนดเองเพื่อ ทำเครื่องหมายประเด็นที่อาจมีปัญหาใน PR โดยอัตโนมัติ และใช้เครื่องมือวิเคราะห์แบบ static/dynamic อย่าง Snyk ควบคู่กันเพื่อตรวจความปลอดภัย
- วงจรการทดสอบอัตโนมัติ: ใช้ AI สร้างและรันเทสต์ พร้อม กำหนด coverage มากกว่า 70% เป็นเงื่อนไขก่อน merge
- การรีวิวแบบหลายโมเดล: ใช้ LLM หลายตัวตรวจโค้ดเพื่อ จับอคติของแต่ละโมเดล (เช่น สร้างด้วย Claude แล้ว audit ด้วยโมเดลที่เชี่ยวชาญด้านความปลอดภัย)
นักพัฒนาเดี่ยว vs ทีม: เปรียบเทียบ
- นักพัฒนาเดี่ยว
- จุดโฟกัสของการรีวิว: การทดสอบอัตโนมัติ + การ spot check แบบจำกัด
- จุดแลกเปลี่ยนด้านความเร็ว: ความเร็วของเวลาอนุมาน แก้ปัญหาด้วยลูปการทำซ้ำ
- เครื่องมือหลัก: agentic testing (เช่น Claude Code loop)
- หลักการ: พิสูจน์ด้วยตัวเอง (Prove it yourself)
- ทีม
- จุดโฟกัสของการรีวิว: ใช้วิจารณญาณของมนุษย์ตรวจสอบบริบทและความปลอดภัย
- จุดแลกเปลี่ยนด้านความเร็ว: ทำให้ PR มีขนาดเล็กเพื่อหลีกเลี่ยงคอขวดในการรีวิว
- เครื่องมือหลัก: การผสมระหว่าง bot + policy (เช่น ติดป้าย PR ที่สร้างโดย AI)
- หลักการ: แบ่งปันหลักฐานการทำงานกับทีม (Share the Proof)
นักพัฒนาเดี่ยว: deploy ด้วย “ความเร็วในการอนุมาน”
- นักพัฒนาเดี่ยวมัก ‘เชื่อ vibe’ ของโค้ดที่ AI สร้าง โดยตรวจเฉพาะส่วนสำคัญและใช้เทสต์จับปัญหา เพื่อปล่อยฟีเจอร์ได้เร็ว
- มีแนวโน้มจะมอง coding agent เหมือน เด็กฝึกงานฝีมือดีที่จัดการ refactor ขนาดใหญ่ได้คนเดียว
- คำกล่าวของ Peter Steinberger: “ตอนนี้ผมไม่ได้อ่านโค้ดมากเหมือนเดิมแล้ว ผมดูสตรีม แล้วก็บางครั้งค่อยเช็กเฉพาะส่วนสำคัญ”
- คอขวดของการพัฒนาเปลี่ยนจากการพิมพ์ ไปเป็น เวลาอนุมาน (การรอผลลัพธ์จาก AI)
- ข้อควรระวัง: หากไม่มีการทดสอบที่แข็งแรง ความเร็วที่รู้สึกว่าเพิ่มขึ้นจะหายไป
- การข้ามการรีวิวไม่ได้ทำให้งานหายไป แต่เป็น การเลื่อนมันออกไปทีหลัง
- กุญแจของการพัฒนาเร็วด้วย AI อย่างได้ผล ไม่ใช่ความเชื่อแบบมืดบอด แต่คือ การสร้างระบบตรวจสอบยืนยัน
- นักพัฒนาเดี่ยวที่มีความรับผิดชอบจะใช้ การทดสอบอัตโนมัติอย่างกว้างขวางเป็นตาข่ายนิรภัย และตั้งเป้า coverage มากกว่า 70%
- เทสต์ที่ไม่ยึดติดกับภาษาและอิงข้อมูล มีบทบาทชี้ขาด
- หากมีเทสต์มากพอ agent ก็สามารถสร้าง/แก้ implementation และตรวจสอบได้โดยไม่ขึ้นกับภาษา
- ตอนเริ่มโปรเจกต์ AI จะช่วยร่าง
spec.md แล้วเมื่ออนุมัติจึงวนลูป เขียน → ทดสอบ → แก้ไข
- แม้นักพัฒนาเดี่ยวก็ยังทำ การทดสอบด้วยมือและใช้วิจารณญาณเชิงวิพากษ์ ในขั้นสุดท้าย
- รันแอปจริง คลิก UI และลองใช้งานฟังก์ชันต่าง ๆ ด้วยตนเอง
- หากความเสี่ยงสูงก็จะอ่านโค้ดเพิ่มและทำการยืนยันเพิ่มเติม
- ถึงจะพัฒนาเร็ว แต่ถ้าพบโค้ดยุ่งเหยิงก็จัดระเบียบทันที
- หลักการสำคัญ: ภารกิจของนักพัฒนาคือ ‘ส่งมอบโค้ดที่ได้พิสูจน์ด้วยตัวเองแล้วว่ามันทำงานได้’
ทีม: AI ย้ายคอขวดของการรีวิว
- ในสภาพแวดล้อมแบบทีม AI เป็นผู้ช่วยที่ทรงพลังสำหรับการรีวิวโค้ด แต่ไม่สามารถแทนที่ วิจารณญาณของมนุษย์ที่จำเป็นต่อคุณภาพ ความปลอดภัย และความสามารถในการบำรุงรักษา ได้
- ในบริบทที่มีวิศวกรหลายคนทำงานร่วมกัน ต้นทุนของความผิดพลาดและอายุการใช้งานของโค้ดเป็นปัจจัยที่สำคัญกว่ามาก
- หลายทีมใช้ AI review bot ในช่วงต้นของ PR แต่ การอนุมัติขั้นสุดท้ายยังต้องเป็นมนุษย์
- คำกล่าวของ Greg Foster จาก Graphite: “จะไม่มีวันที่ AI agent มาแทนการอนุมัติ PR ของวิศวกรมนุษย์จริง ๆ”
- ปัญหาที่เป็นรูปธรรมที่สุด ไม่ใช่การที่ AI reviewer พลาดประเด็นด้านสไตล์ แต่คือ AI เพิ่มปริมาณโค้ดจนโยนภาระการตรวจไปให้มนุษย์
- เมื่อการนำ AI มาใช้แพร่หลายขึ้น ขนาด PR เพิ่มขึ้นราว 18%
- incident ต่อ PR เพิ่มขึ้นราว 24%
- อัตราความล้มเหลวของการเปลี่ยนแปลงเพิ่มขึ้นราว 30%
- หากความเร็วในการสร้างผลลัพธ์แซงหน้าความสามารถในการตรวจสอบ กระบวนการรีวิวจะกลายเป็น ตัวจำกัดความเร็ว ของการพัฒนาโดยรวม
- Foster กล่าวว่า: “การ deploy โค้ดที่เพื่อนร่วมงานมนุษย์ยังไม่ได้อ่านหรือทำความเข้าใจ เป็นความเสี่ยงใหญ่มาก”
- ในสภาพแวดล้อมแบบทีม AI สามารถผลิตผลลัพธ์จำนวนมากได้ จึงจำเป็นต้อง ใช้แนวทางการพัฒนาแบบค่อยเป็นค่อยไป และแบ่งผลลัพธ์จาก agent ออกเป็น commit ที่ตรวจสอบได้
- การอนุมัติสุดท้ายโดยมนุษย์จะไม่หายไป แต่จะ พัฒนาไปสู่การโฟกัสในจุดที่ AI มักพลาด
(การจัดแนวกับ roadmap, บริบทเชิงองค์กรและเชิงสถาบันที่ AI ไม่สามารถเข้าใจได้)
ความปลอดภัย: ช่องโหว่ที่คาดเดาได้ของ AI
- ความปลอดภัยคือ พื้นที่ที่จำเป็นต้องมีวิจารณญาณของมนุษย์อย่างยิ่ง
- พบข้อบกพร่องด้านความปลอดภัยในโค้ดที่ AI สร้างราว 45%
- อัตราการเกิด ข้อผิดพลาดด้านตรรกะ สูงกว่าโค้ดที่มนุษย์เขียน 1.75 เท่า
- ความถี่ของ ช่องโหว่ XSS สูงกว่า 2.74 เท่า
- นอกจากปัญหาในตัวโค้ดเองแล้ว เครื่องมือแบบ agent และ IDE ที่ผสาน AI ยัง สร้างเส้นทางการโจมตีใหม่
- prompt injection, การรั่วไหลของข้อมูล, ช่องโหว่ RCE
- เมื่อ AI ขยาย attack surface ออกไป แนวทางแบบ hybrid จึงมีประสิทธิภาพ
- ให้ AI คอย flag ปัญหา และให้มนุษย์เป็นผู้ยืนยันขั้นสุดท้าย
- กฎ: โค้ดที่เกี่ยวข้องกับ authentication, การชำระเงิน, secret และ input ที่ไม่น่าเชื่อถือ
ต้องปฏิบัติต่อ AI เหมือนเด็กฝึกงานความเร็วสูง และก่อน merge ต้องมี การรีวิว threat model โดยมนุษย์และการตรวจด้วยเครื่องมือความปลอดภัย เสมอ
การถ่ายทอดความรู้ผ่านการรีวิว
- การรีวิวโค้ดคือวิธีหลักที่ทีมใช้ แบ่งปันบริบทของระบบร่วมกัน
- หาก AI เป็นคนเขียนโค้ดแต่ไม่มีใครอธิบายมันได้ ต้นทุน on-call จะสูงขึ้น
- หากส่งโค้ดที่ AI สร้างโดยที่ยังไม่เข้าใจทั้งหมด จะทำให้ กลไกการถ่ายทอดความรู้ ซึ่งสร้างความยืดหยุ่นให้ทีมพังทลาย
- หากผู้เขียนอธิบายไม่ได้ว่าโค้ดทำงานได้อย่างไร วิศวกร on-call ก็จะไม่สามารถ debug ตอนตี 2 ได้
- กรณีที่ maintainer ของ OCaml ปฏิเสธ PR ที่ AI สร้างยาว 13,000 บรรทัด
- คุณภาพของโค้ดอาจไม่ได้แย่เสมอไป แต่ไม่มี แบนด์วิดท์ในการรีวิว สำหรับการเปลี่ยนแปลงขนาดนั้น
- การรีวิวโค้ดที่ AI สร้างต้องใช้ ภาระทางการรับรู้ที่มากกว่า โค้ดที่มนุษย์เขียน
- บทเรียนคือ AI สามารถสร้างโค้ดจำนวนมหาศาลได้ แต่ทีมต้องควบคุมขนาดของการเปลี่ยนแปลงเพื่อหลีกเลี่ยงคอขวดในการรีวิว
วิธีใช้เครื่องมือรีวิว AI
- ประสบการณ์ผู้ใช้กับเครื่องมือรีวิว AI นั้น แตกต่างกันอย่างชัดเจน
- ด้านบวก: ในบางกรณีสามารถจับ บั๊กได้มากกว่า 95% เช่น null pointer exception, การขาด test coverage, anti-pattern
- ด้านลบ: นักพัฒนาบางคนมองคอมเมนต์รีวิวจาก AI ว่าเป็นเพียง ‘noise ของข้อความ’ ที่เป็นข้อสังเกตทั่วไปไร้คุณค่า
- บทเรียนคือ เครื่องมือรีวิว AI ต้องการ การตั้งค่าอย่างระมัดระวัง
- ปรับ sensitivity, ปิดประเภทคอมเมนต์ที่ไม่ช่วย, และกำหนดนโยบาย opt-in/opt-out ที่ชัดเจน
- หากตั้งค่าเหมาะสม AI reviewer สามารถ จับปัญหาง่าย ๆ ได้ 70–80% และปล่อยให้มนุษย์โฟกัสกับสถาปัตยกรรมและ business logic
- หลายทีมยังคงแนะนำให้ใช้ PR ขนาดเล็กที่ต่อยอดได้ แม้ AI จะสามารถสร้างการเปลี่ยนแปลงขนาดใหญ่ได้ในครั้งเดียว
- ควร commit การเปลี่ยนแปลงบ่อย ๆ และจัดการแต่ละการเปลี่ยนแปลงเป็น หน่วยที่จบในตัวเองพร้อมข้อความที่ชัดเจน ใน commit/PR แยกต่างหาก
- ทีมต้องรักษาเส้นแบ่งความรับผิดชอบของมนุษย์ให้ชัดเจน
- ไม่ว่า AI จะมีส่วนช่วยมากแค่ไหน ความรับผิดชอบขั้นสุดท้ายยังเป็นของมนุษย์
- คติในการฝึกอบรมของ IBM: “คอมพิวเตอร์ไม่มีวันรับผิดชอบได้ ความรับผิดชอบเป็นหน้าที่ของมนุษย์ที่อยู่ในลูป”
PR contract: หน้าที่ของผู้เขียนต่อ reviewer
- ไม่ว่าจะเป็นนักพัฒนาเดี่ยวหรือทีม แนวปฏิบัติที่ดีที่สุดที่กำลังกลายเป็นเรื่องร่วมกันคือการมอง โค้ดที่ AI สร้างเป็นร่างที่มีประโยชน์ แต่ยังต้องผ่านการตรวจสอบยืนยัน
- มี framework ง่าย ๆ ที่ทีมที่ประสบความสำเร็จมากที่สุดใช้ร่วมกัน
-
องค์ประกอบของ PR contract
1/. What/Why: สรุปเจตนาและเหตุผลของการเปลี่ยนแปลงใน 1–2 ประโยค
2/. หลักฐานการทำงาน: ผลการผ่านเทสต์และขั้นตอนการตรวจสอบด้วยมือ (ภาพหน้าจอ/ล็อก)
3/. ความเสี่ยง + บทบาทของ AI: ระบุระดับความเสี่ยงของการเปลี่ยนแปลงและส่วนที่ AI สร้าง (เช่น ฟีเจอร์ชำระเงินเป็นความเสี่ยงสูง)
4/. จุดโฟกัสของการรีวิว: ระบุ 1–2 จุดที่ต้องการการตรวจโดยมนุษย์ (เช่น สถาปัตยกรรม)
- สิ่งนี้ไม่ใช่งานเอกสารที่เป็นพิธีการ แต่เป็นกลไกเพื่อเคารพเวลาของ reviewer และ ทำให้ความรับผิดชอบของผู้เขียนชัดเจนขึ้น
- หากคุณเขียนสิ่งเหล่านี้ไม่ได้ แปลว่าคุณยัง เข้าใจการเปลี่ยนแปลงของตัวเองไม่ดีพอ ที่จะขอให้คนอื่นอนุมัติ
หลักการสำคัญ
- ต้องการหลักฐาน ไม่ใช่คำสัญญา: ใช้ “โค้ดที่ทำงานได้จริง” เป็น baseline และสั่งให้ AI agent รันโค้ดหรือรัน unit test หลังจากสร้างโค้ด พร้อมตรวจหลักฐานอย่างล็อก ภาพหน้าจอ หรือผลลัพธ์ ไม่ยก PR หากไม่มีเทสต์ใหม่หรือเดโมการทำงาน
- ใช้ AI เป็น reviewer ด่านแรก ไม่ใช่ผู้ตัดสินขั้นสุดท้าย: มองผลลัพธ์จาก AI review เป็นคำแนะนำ ใช้ AI หนึ่งตัวเขียนโค้ดและอีกตัวตรวจ แล้วให้มนุษย์คอยกำหนดทิศทางการแก้ไข โดยใช้ AI review ในระดับเดียวกับตัวตรวจคำสะกด ไม่ใช่บรรณาธิการ
- ให้การรีวิวโดยมนุษย์โฟกัสในสิ่งที่ AI พลาด: เช่น การเพิ่มช่องโหว่ด้านความปลอดภัย การซ้ำซ้อนกับโค้ดเดิม (ข้อบกพร่องที่ AI มักทำ) และความสามารถในการบำรุงรักษาของแนวทางที่เลือก AI คัดกรองปัญหาง่าย ส่วนมนุษย์ตัดสินเรื่องยาก
- ลงมือทำการพัฒนาแบบค่อยเป็นค่อยไป: แบ่งงานออกเป็นหน่วยเล็ก ๆ เพื่อให้ AI สร้างได้ง่ายและมนุษย์รีวิวได้ง่าย ใช้ commit เล็ก ๆ พร้อมข้อความที่ชัดเจนเป็น checkpoint และ อย่า commit โค้ดที่อธิบายไม่ได้เด็ดขาด
- รักษามาตรฐานการทดสอบให้อยู่ในระดับสูง: นักพัฒนาที่ใช้ coding agent ได้อย่างมีประสิทธิภาพมักรักษาแนวปฏิบัติการทดสอบที่แข็งแรง และให้ AI ช่วยร่างเทสต์เพื่อสร้าง เทสต์ edge case ที่มนุษย์มักมองข้าม
มุมมองในอนาคต: คอขวดย้ายตำแหน่ง
- AI กำลังย้ายการรีวิวโค้ดจาก การเฝ้าประตูทีละบรรทัด ไปสู่ การควบคุมคุณภาพระดับสูง แต่การตัดสินใจของมนุษย์ยังคงเป็น องค์ประกอบสำคัญด้านความปลอดภัย
- นี่คือ วิวัฒนาการ ของ workflow ไม่ใช่การลบการรีวิวโค้ดทิ้ง
- ขอบเขตของการรีวิวโค้ดไม่ได้จำกัดแค่ code diff อีกต่อไป แต่รวมถึง บทสนทนาหรือแผนระหว่าง AI กับผู้เขียน ด้วย
- บทบาทของ reviewer ที่เป็นมนุษย์จะค่อย ๆ ใกล้เคียงกับ บรรณาธิการหรือสถาปนิก มากขึ้น โดยโฟกัสกับการตัดสินใจสำคัญและไว้วางใจระบบอัตโนมัติสำหรับการตรวจสอบงานประจำ
- สำหรับนักพัฒนาเดี่ยว เส้นทางข้างหน้านั้นน่าตื่นเต้น แต่ไม่ว่าจะมีเครื่องมือใหม่เพิ่มขึ้นเท่าไร นักพัฒนาที่ฉลาดก็ยังต้องยึดหลัก ‘เชื่อใจได้ แต่ต้องตรวจสอบ’
- ในทีมขนาดใหญ่ คาดว่าจะมี การกำกับดูแล AI ที่เข้มขึ้น
- ทำให้นโยบายเกี่ยวกับการมีส่วนร่วมของ AI เป็นทางการ และกำหนดให้พนักงานต้องรับรองว่าได้รีวิวด้วยตนเอง
- อาจมีบทบาทใหม่อย่าง ‘ผู้ตรวจสอบโค้ด AI’
- แพลตฟอร์มระดับองค์กรจะพัฒนาไปสู่การรองรับบริบทหลาย repository และการบังคับใช้นโยบายแบบกำหนดเองได้ดีขึ้น
- หลักการสำคัญไม่เปลี่ยน: การรีวิวโค้ดมีไว้เพื่อให้มั่นใจว่าซอฟต์แวร์ตรงตามข้อกำหนด ปลอดภัย แข็งแรง และบำรุงรักษาได้
- AI ไม่ได้เปลี่ยนพื้นฐานนี้ แต่ เปลี่ยนเพียงวิธีที่เราไปถึงจุดนั้น
- คอขวดของการพัฒนาย้ายจากการเขียนโค้ด ไปสู่ กระบวนการพิสูจน์ว่ามันทำงานได้จริง
- reviewer โค้ดที่ยอดเยี่ยมในยุค AI คือคนที่ยอมรับการเปลี่ยนแปลงนี้ ขณะเดียวกันก็ยัง รักษาเส้นแบ่งของความรับผิดชอบ ไว้ แม้จะให้ AI เร่งงานเชิงกลไกก็ตาม
- AI สามารถ เร่งกระบวนการ (accelerate) ได้ แต่ต้องไม่ทำให้เรา สละความรับผิดชอบ (abdicate)
- วิศวกรจะยิ่งให้ความสำคัญกับ ‘หลักฐานมากกว่า vibes (proof over vibes)’
- การรีวิวโค้ดไม่ได้หายไป แต่กำลังเปลี่ยนเป็นบทบาทที่ มีกลยุทธ์มากขึ้น
- ไม่ว่าจะเป็นนักพัฒนาเดี่ยวที่ deploy ตอนตี 2 หรือหัวหน้าทีมที่อนุมัติการเปลี่ยนแปลงในระบบสำคัญ ความจริงร่วมกันคือ มนุษย์ยังเป็นผู้รับผิดชอบขั้นสุดท้ายต่อผลลัพธ์ที่ AI สร้าง
- จงยอมรับ AI แต่ก็ต้อง รักษานิสัยการตรวจงานซ้ำ เอาไว้
3 ความคิดเห็น
https://www.coderabbit.ai/
มีใครเคยใช้ CodeRabbit บ้างไหม? ราคาค่อนข้างแพงพอสมควร แต่ก็ไม่แน่ใจว่าคุ้มค่ากับราคาหรือเปล่า
ถ้าใช้ Chrome Extension ด้านล่างนี้ ก็สามารถให้ GPT ช่วยรีวิวบนพื้นฐานของ GitHub PR Diff ได้อย่างสะดวกเลยครับ~!
https://github.com/developerjhp/Diffinity
ถ้าคุณทำขึ้นมาเอง น่าจะเอาไปลงใน Show GN จะดีกว่านะครับ
เมื่อ 5 เดือนก่อนก็ยังลงใน Show GN ได้ดีอยู่เลย ทำไมถึงมาประชาสัมพันธ์ในคอมเมนต์ล่ะ ฮือ...