- ไฟล์ Markdown เดียวที่จัดหมวดหมู่ แพตเทิร์นการเขียน (trope) ที่ปรากฏซ้ำๆ ในข้อความที่ AI สร้างขึ้น
- หาก เพิ่มไฟล์นี้เข้าไปใน system prompt ของ AI ก็สามารถช่วยชี้นำให้หลีกเลี่ยงสำนวนแบบ AI ที่พบบ่อยได้
- รวบรวมแพตเทิร์นเฉพาะมากกว่า 30 แบบพร้อมตัวอย่าง แบ่งอยู่ภายใต้ 6 หมวดใหญ่ ได้แก่ การเลือกคำ, โครงสร้างประโยค, โครงสร้างย่อหน้า, โทน, ฟอร์แมต, และองค์ประกอบ
- ครอบคลุมตั้งแต่ คำฟุ่มเฟือยแบบ AI อย่าง "delve", "tapestry", "landscape" ไปจนถึงโครงสร้างประโยคที่สร้างความลึกซึ้งปลอมๆ อย่าง "It's not X -- it's Y"
- แต่ละแพตเทิร์นอาจใช้ครั้งหรือสองครั้งได้ไม่เป็นไร แต่เมื่อ หลายแพตเทิร์นปรากฏพร้อมกันหรือซ้ำบ่อยๆ จะกลายเป็นสัญญาณชัดเจนของข้อความที่สร้างโดย AI
- ตัวไฟล์นี้เองก็ เขียนขึ้นโดยมี AI ช่วย และมีคำปฏิเสธความรับผิดชอบว่า "AI for AI, humans for humans"
การเลือกคำ (Word Choice)
- "Quietly" และคำวิเศษณ์วิเศษทั้งหลาย: แพตเทิร์นที่ใช้คำวิเศษณ์อย่าง "quietly", "deeply", "fundamentally", "remarkably", "arguably" มากเกินไป เพื่อเติมความสำคัญแฝงๆ ให้กับคำบรรยายธรรมดา
- ตัวอย่าง: "quietly orchestrating workflows", "a quiet intelligence behind it"
- "Delve" และคำใกล้เคียง: คำที่เคยเป็นสัญญาณของ AI ที่โด่งดังที่สุด และปรากฏถี่ผิดปกติในข้อความที่สร้างโดย AI
- "certainly", "utilize", "leverage" (ในฐานะกริยา), "robust", "streamline", "harness" ก็อยู่ในกลุ่มเดียวกัน
- "Tapestry" และ "Landscape": แพตเทิร์นที่ใช้ คำนามโอ่อ่า ทั้งที่คำธรรมดาก็พอแล้ว
- "tapestry" ถูกใช้เกินจำเป็นกับทุกสิ่งที่เชื่อมโยงกัน ส่วน "landscape" ถูกใช้พร่ำเพรื่อกับทุกวงการหรือโดเมน
- "paradigm", "synergy", "ecosystem", "framework" ก็เป็นประเภทเดียวกัน
- การหลีกเลี่ยง "Serves As": ใช้ คำเชื่อมที่เว่อร์เกินจริง อย่าง "serves as", "stands as", "marks", "represents" แทน "is/are" แบบตรงไปตรงมา
- เกิดจากการที่ repetition penalty ของ AI ผลักให้หลีกเลี่ยงคำกริยาเชื่อมพื้นฐาน (copula) แล้วไปเลือกสำนวนที่หวือหวากว่า
โครงสร้างประโยค (Sentence Structure)
- โครงสร้างขนานแบบปฏิเสธ (Negative Parallelism): แพตเทิร์น "It's not X -- it's Y" ซึ่งเป็น สัญญาณที่ถูกจับได้บ่อยที่สุด ของงานเขียนแบบ AI
- ห่อทุกอย่างให้ดูเป็นการพลิกกรอบคิดครั้งใหญ่ จนเกิดความลึกซึ้งปลอมๆ
- ก่อนยุค LLM ไม่เคยมีงานเขียนจำนวนมหาศาลในลักษณะนี้
- รวมถึงรูปแบบเชิงเหตุผลอย่าง "not because X, but because Y" ด้วย
- "Not X. Not Y. Just Z.": แพตเทิร์น นับถอยหลังเชิงดราม่า ที่ปฏิเสธสองอย่างขึ้นไปก่อนจะเฉลยประเด็นจริง
- สร้างความรู้สึกปลอมๆ เหมือนกำลังค่อยๆ บีบวงให้เข้าใกล้ความจริง
- "The X? A Y.": แพตเทิร์น ตั้งคำถามเชิงวาทศิลป์แล้วตอบเองทันที กับคำถามที่ไม่มีใครถาม
- ใช้เพื่อสร้างเอฟเฟกต์ดราม่า และ AI มองว่านี่คือแก่นของการเขียนที่ดี
- ใช้การซ้ำต้นประโยค (Anaphora) มากเกินไป: เริ่มประโยคแบบเดียวกันซ้ำติดๆ กันหลายครั้งอย่างรวดเร็ว
- ตัวอย่าง: "They assume that... They assume that... They assume that..."
- ใช้โครงสร้างสามจังหวะ (Tricolon) มากเกินไป: ใช้กฎของเลขสามจนเกินพอดี และบางครั้งลากไปถึงสี่หรือห้าจังหวะ
- โครงสร้างสามจังหวะครั้งเดียวดูสง่างาม แต่ถ้ามาติดกันสามชุดคือการมองแพตเทิร์นพลาด
- "It's Worth Noting": คำเชื่อมคั่นจังหวะแบบไม่มีสาร ที่ไม่ได้ส่งสัญญาณอะไรจริง
- "It bears mentioning", "Importantly", "Interestingly", "Notably" ก็เป็นประเภทเดียวกัน
- ใช้เปิดประเด็นใหม่โดยไม่ได้เชื่อมกับข้อถกเถียงก่อนหน้าอย่างแท้จริง
- การวิเคราะห์ผิวเผิน (Superficial Analyses): เติมวลีปัจจุบันกาลต่อท้ายประโยคด้วยรูป "-ing" เพื่อ แทรกการวิเคราะห์ตื้นๆ
- เช่น "highlighting its importance", "reflecting broader trends", "contributing to the development of..."
- เป็นการยัดความสำคัญ มรดก หรือความหมายกว้างๆ ให้กับข้อเท็จจริงธรรมดา
- ช่วงปลอม (False Ranges): โครงสร้าง "from X to Y" ที่ X และ Y ไม่ได้อยู่บนสเกลเดียวกันจริง
- การใช้ที่ถูกต้องจะสื่อถึงสเปกตรัมที่มีจุดกึ่งกลางอย่างมีความหมาย แต่ AI มักใช้เพียงเพื่อไล่รายการของสองสิ่งที่เกี่ยวกันหลวมๆ
- ลิสต์เศษวลี gerund ต่อเนื่อง (Gerund Fragment Litany): หลังตั้งข้ออ้างแล้ว ก็ไล่เศษวลี gerund ที่ไม่มีประธานต่อกันเป็นชุด
- "Fixing small bugs. Writing straightforward features. Implementing well-defined tickets."
- ประโยคแรกพูดทุกอย่างไปหมดแล้ว ส่วนเศษวลีที่เหลือแค่เพิ่มจำนวนคำกับจังหวะแบบ AI
- มนุษย์ไม่ได้ร่างต้นฉบับแบบนี้ และนี่คือ อาการกระตุกเชิงโครงสร้าง (tic) ล้วนๆ
โครงสร้างย่อหน้า (Paragraph Structure)
- เศษประโยคสั้นกระแทก (Short Punchy Fragments): ใช้ประโยคสั้นมากหรือเศษประโยคเป็นย่อหน้าเดี่ยวเพื่อสร้าง การเน้นแบบประดิษฐ์
- เป็นผลจากการฝึกแบบ RLHF ที่ผลักโมเดลไปทาง "การเขียนเพื่อให้อ่านง่าย" สำหรับผู้อ่านระดับต่ำสุด
- หนึ่งความคิดต่อหนึ่งประโยค เป็นสไตล์ที่ไม่เป็นมนุษย์และไม่ต้องคงสภาวะความคิดต่อเนื่อง
- ลิสต์ปลอมตัวเป็นร้อยแก้ว (Listicle in a Trench Coat): อำพรางรายการแบบมีหมายเลขหรือป้ายกำกับให้ดูเหมือนร้อยแก้วต่อเนื่อง
- เป็นแพตเทิร์นของย่อหน้าที่ขึ้นต้นด้วย "The first... The second... The third..." เพื่อซ่อนรูปแบบลิสต์
- มักถูกใช้เป็นทางเลือกหลังจากได้รับคำสั่งให้หยุดสร้างรายการ
โทน (Tone)
- "Here's the Kicker": คำเปลี่ยนจังหวะแบบสร้างความลุ้นปลอมๆ ที่สัญญาว่าจะมีการเปิดเผย ทั้งที่ประเด็นนั้นไม่ต้องปูทางขนาดนั้น
- "Here's the thing", "Here's where it gets interesting", "Here's what most people miss" ก็เป็นประเภทเดียวกัน
- "Think of It As...": โหมดครูโดยปริยายที่สมมติว่าผู้อ่านต้องพึ่งอุปมาอุปไมยจึงจะเข้าใจอะไรได้
- AI มักสร้างอุปมาอุปไมยที่ชัดเจนน้อยกว่าคอนเซปต์เดิมเสียอีก
- "Imagine a World Where...": คำเชิญแบบอนาคตนิยมตามฉบับ AI ที่หลังคำว่า "Imagine" จะตามมาด้วยรายการสิ่งดีๆ ที่จะเกิดขึ้นถ้าคุณยอมรับสมมติฐานนั้น
- ความเปราะบางปลอม (False Vulnerability): การตระหนักรู้ตนเองแบบแสดงท่าที ที่ทำเหมือนทลายกำแพงที่สี่หรือยอมรับอคติ
- ความเปราะบางจริงจะเฉพาะเจาะจงและชวนอึดอัด แต่ของ AI จะเนี้ยบและไร้ความเสี่ยง
- "The Truth Is Simple": แพตเทิร์นที่ อ้าง ว่าบางอย่างชัดเจนหรือเรียบง่าย แทนที่จะพิสูจน์มันจริงๆ
- การปั่นให้เดิมพันยิ่งใหญ่เกินจริง (Grandiose Stakes Inflation): ขยาย ความสำคัญของทุกประเด็นให้ดูระดับประวัติศาสตร์โลก
- จนโพสต์บล็อกเรื่องราคา API กลายเป็นบทใคร่ครวญว่าด้วยชะตากรรมของอารยธรรม
- "Let's Break This Down": น้ำเสียงแบบการสอน ที่ตั้งความสัมพันธ์ครู-นักเรียนเป็นค่าเริ่มต้น แม้กับผู้อ่านผู้เชี่ยวชาญ
- "Let's unpack this", "Let's explore", "Let's dive in" ก็เป็นประเภทเดียวกัน
- การอ้างอิงคลุมเครือ (Vague Attributions): โยนคำกล่าวให้กับอำนาจนิรนามอย่าง "experts", "observers", "industry reports" โดยไม่มีแหล่งอ้างอิงเฉพาะ
- รวมถึงพฤติกรรมที่ทำให้คำพูดของคนคนเดียวดูเป็นมุมมองแพร่หลาย หรือทำให้สองแหล่งกลายเป็น "several publications"
- ป้ายชื่อแนวคิดที่ประดิษฐ์ขึ้น (Invented Concept Labels): เอาคำนามปัญหาเชิงนามธรรมอย่าง paradox, trap, creep, divide, vacuum, inversion ไปประกบกับคำในโดเมนเพื่อสร้าง ป้ายชื่อผสมที่ฟังดูเป็นการวิเคราะห์แต่ไร้หลักฐานรองรับ
- เช่น "supervision paradox", "acceleration trap", "workload creep"
- ทำหน้าที่เป็นทางลัดเชิงวาทศิลป์ คือแค่ตั้งชื่อแล้วข้ามการให้เหตุผล และถ้ามีหลายคำแบบนี้ในบทความเดียวก็เป็นสัญญาณแรงของ AI slop
ฟอร์แมต (Formatting)
- เสพติด em dash (Em-Dash Addiction): ใช้ em dash มากเกินไปอย่างแทบย้ำคิดย้ำทำ เพื่อหยุดจังหวะ ใส่ข้อความแทรก หรือชี้จุดพลิกผัน
- นักเขียนมนุษย์มักใช้ตามธรรมชาติแค่ 2-3 ครั้งต่อชิ้น แต่ AI ใช้เกิน 20 ครั้ง
- บูลเล็ตแบบขึ้นต้นด้วยตัวหนา (Bold-First Bullets): แพตเทิร์นที่ทุก bullet point เริ่มด้วยวลีตัวหนา
- พบบ่อยมากใน Markdown output ของ Claude และ ChatGPT แต่แทบไม่มีใครจัดฟอร์แมตแบบนี้เวลาเขียนเอง
- เป็นสัญญาณชัดของเอกสาร บล็อกโพสต์ และไฟล์ README ที่สร้างด้วย AI (โดยเฉพาะที่มีอีโมจิ)
- การตกแต่งด้วย Unicode (Unicode Decoration): ใช้ อักขระพิเศษ ที่พิมพ์จากคีย์บอร์ดมาตรฐานไม่ได้ง่ายๆ เช่น ลูกศร Unicode (→), smart/curly quotes
- นักเขียนจริงใน text editor จะใช้เครื่องหมายคำพูดตรงและใช้ ->, =>
- โดยเฉพาะ Claude ที่ชอบลูกศร → เป็นพิเศษ
องค์ประกอบ (Composition)
- สรุปแบบแฟร็กทัล (Fractal Summaries): ใช้รูปแบบ "จะพูดอะไร, ตอนนี้กำลังพูดอะไร, เพิ่งพูดอะไรไป" ใน ทุกระดับ ของเอกสาร
- ทั้งทุกหัวข้อย่อย ทุกหัวข้อหลัก และทั้งเอกสารต่างก็มีสรุปของตัวเอง
- อุปมาที่ตายแล้ว (The Dead Metaphor): ยึดติดกับอุปมาเดียวแล้ว ใช้ซ้ำทั้งบทความ
- นักเขียนมนุษย์จะเกริ่นอุปมา ใช้มัน แล้วก็เดินหน้าต่อ แต่ AI จะวนซ้ำ 5-10 ครั้ง
- การกองทับอุปมาเชิงประวัติศาสตร์ (Historical Analogy Stacking): พบบ่อยเป็นพิเศษในงานเขียนสายเทค โดยไล่เรียงบริษัทหรือการปฏิวัติทางเทคโนโลยีในอดีตอย่างรวดเร็วเพื่อสร้างอำนาจปลอม
- เช่นแพตเทิร์นแนว "Apple didn't build Uber. Facebook didn't build Spotify..."
- การเจือจางประเด็นเดียว (One-Point Dilution): เอาประเด็นเดียวมาย้ำใหม่ 10 แบบตลอดหลายพันคำ
- ยัดไอเดียเดิมซ้ำผ่านอุปมา ตัวอย่าง และกรอบมองต่างๆ เพื่อให้ดู "ครอบคลุม"
- การทำซ้ำเนื้อหา (Content Duplication): ทำซ้ำทั้งส่วนหรือทั้งย่อหน้าแบบตรงๆ ภายในบทความเดียวกัน
- เกิดขึ้นเมื่อโมเดลตามไม่ทันว่าเขียนอะไรไปแล้ว โดยเฉพาะในงานยาว
- เป็นสัญญาณแน่ชัดของ output จาก AI ที่ไม่ได้ผ่านการแก้ไข แม้ปัจจุบันจะพบได้น้อยลง
- บทสรุปแบบปักป้าย (The Signposted Conclusion): ประกาศชัดๆ ว่าจะสรุปด้วย "In conclusion", "To sum up", "In summary"
- งานเขียนที่ชำนาญจะทำให้ผู้อ่านรู้สึกถึงบทสรุปได้เองโดยไม่ต้องบอก
- AI ส่งสัญญาณการเคลื่อนไหวของโครงสร้างเพราะทำตามเทมเพลต
- "Despite Its Challenges...": สูตรแข็งทื่อ ที่ AI ใช้ยอมรับปัญหาเพียงเพื่อปัดมันทิ้งทันที
- มักเดินตามจังหวะเดิมเสมอ: "Despite its [คำเชิงบวก], [ประธาน] faces challenges..." แล้วตามด้วย "Despite these challenges, [บทสรุปเชิงมองโลกในแง่ดี]"
หลักการสำคัญ
- แพตเทิร์นข้างต้น อาจไม่เป็นไรถ้าใช้ครั้งเดียว แต่จะกลายเป็นปัญหาเมื่อหลายแพตเทิร์นมาอยู่ด้วยกัน หรือเมื่อแพตเทิร์นเดียวถูกใช้ซ้ำ
- เขียนให้เหมือนมนุษย์: หลากหลาย, ไม่สมบูรณ์แบบ, และเฉพาะเจาะจง
7 ความคิดเห็น
"ในบทความนี้ ผู้เขียนชำแหละข้อความที่ AI สร้างขึ้น แล้วเปิดโปง 6 สัญญาณสำคัญของ 'AI slop' และโครงสร้างที่ซ่อนอยู่ภายใน มันไม่ใช่แค่การเรียงคำธรรมดา ๆ แต่ยังพูดถึงตั้งแต่การใช้คำฟุ่มเฟือยอย่าง "delve" หรือ "tapestry" ไปจนถึงรูปแบบประโยคที่สร้างความลุ่มลึกจอมปลอม ว่าทำไมมันถึงไม่ได้เขียนเหมือนมนุษย์ แก่นสำคัญคือการฟื้นคืนงานเขียนที่หลากหลายและไม่สมบูรณ์แบบ"
ใน Namuwiki ก็มีเอกสารที่เกี่ยวข้องเหมือนกันนะ 555
https://namu.wiki/w/…
ตั้งแต่สมัยที่เขียนวิทยานิพนธ์ปริญญาโทด้วย LaTeX แล้วได้เรียนรู้ความแตกต่างระหว่าง em dash(---) กับ en dash(--) เป็นครั้งแรก จนถึงตอนนี้ก็ใช้มันบ่อยมากในงานเขียนภาษาอังกฤษแทบทุกชิ้นของผมเลยครับ (ตั้งคีย์ลัดไว้ใช้ผ่าน Espanso)
จนถึงตอนนี้ยังไม่เคยมีใครทักประมาณว่า "คุณใช้ AI เขียนหรือเปล่า?" แต่พอรู้ว่าเครื่องหมายวรรคตอนที่ผมชอบใช้กลับถูกมองว่าเป็นตัวบ่งชี้ว่าเป็น AI ก็ทำให้รู้สึกแปลก ๆ อยู่เหมือนกัน
บทความที่น่าอ่านเกี่ยวกับเรื่องนี้: https://marcusolang.substack.com/p/im-kenyan-i-dont-write-like-chatgpt
ดูแล้วเป็นบทความที่เคยเห็นใน GeekNews นะครับ: 나는 케냐인이다. 나는 ChatGPT처럼 쓰지 않는다. ChatGPT가 나처럼 쓴다
ว้าว... คุณนี่, **แทงใจดำได้จริง ๆ**.โอ้ ถ้ามีเวอร์ชันภาษาเกาหลีออกมาด้วยก็คงดีนะ
ความคิดเห็นใน Hacker News
ถ้าจะเผยแพร่งานเขียนอย่างจริงจัง ควรหลีกเลี่ยงการใช้พรอมป์ต์แบบนี้
เคยลองใช้ LLM เขียนบล็อก ตอนแรกก็ดูโอเค แต่พอทำซ้ำไม่กี่ครั้ง บทความทุกชิ้นก็เริ่มฟังดูเหมือนมาจากเสียงเดียวกันหมด
ทั้งบล็อกอื่น ข่าว หรือไวต์เปเปอร์ ก็วนใช้น้ำเสียงแบบเดียวกัน
ผู้อ่านไม่ได้อยากเห็นแค่เนื้อหาในข้อความ แต่ยังอยากได้ยิน เสียงเฉพาะตัวของผู้เขียน ด้วย
บทความที่เกี่ยวข้อง: Why We Hate LLM Articles
เหตุผลที่งานเขียนของ AI ไม่ค่อยดีคือมัน ไม่มี ‘เสียง’
นักเขียนที่เป็นมนุษย์นำเสนอมุมมองที่ออกมาจากประสบการณ์ของตัวเอง แต่ AI ไม่ได้มีเจตนาว่าอยากจะ ‘สื่ออะไร’ จริง ๆ
อีกอย่างคือมันรักษา ความสอดคล้องเชิงลึก ไม่ได้ ดูเหมือนเป็นปัญหาที่เกิดจากการไม่มีเป้าหมาย ความทรงจำ หรือความรู้สึกว่ามีตัวตนแบบมนุษย์
ความพยายามแบบนี้ให้ความรู้สึกไม่น่าพอใจ
แทนที่จะพยายามซ่อนประโยคที่ AI เขียนอย่างแนบเนียน ก็อยากให้ไม่ต้องเสียเวลากับมันไปเลย
ถ้าการใช้ AI เขียนไม่ใช่เรื่องน่าอาย ก็ไม่จำเป็นต้องปิดบัง แต่ถ้ารู้สึกอาย ก็ควรหยุด
แค่เพราะมีคนประท้วงบ่อน้ำมีพิษ ก็ไม่ได้แปลว่าควรใช้ พิษที่แนบเนียนกว่าเดิม
กำลังศึกษาสไตล์การเขียนของ LLM อยู่ และในเธรดนี้คำว่า “tapestry” น่าสนใจมาก
มันเป็นคำที่ GPT-4o ใช้บ่อยรองจาก “camaraderie”
โมเดลพื้นฐานมีสไตล์แปลก ๆ แบบนี้น้อยกว่า แต่พอผ่าน instruction tuning แล้วมันจะเกิดขึ้น
เลยสงสัยว่ามีการให้ผู้ประเมินที่เป็นมนุษย์ตัดสินเรื่องสไตล์หรือไม่ หรือมี rubric อยู่หรือเปล่า
งานวิจัยที่เกี่ยวข้อง: บทความใน PNAS, ฉบับ preprint บน arXiv
ถ้าดูงานวิจัยจากเคนยาและไนจีเรีย จะเห็นว่า perplexity เป็นเป้าหมายการเพิ่มประสิทธิภาพ ทำให้โมเดลที่พรีเทรนไว้สะท้อนผลลัพธ์ที่ ‘คาดเดาได้’ มากที่สุด
มีบทความชื่อ “Hydrogen Jukeboxes” รวมอยู่ด้วย
การเปลี่ยนแปลงของสไตล์ยังถูกพูดถึงใน บทวิเคราะห์ mode collapse ของ Gwern Branwen ด้วย
แม้แต่โมเดลอย่าง DeepSeek R1 Zero ที่แทบไม่มีการใส่ความชอบของมนุษย์เข้าไป สุดท้ายก็ยังลู่เข้าหาแพตเทิร์นที่คงที่
ปรากฏการณ์นี้เกิดซ้ำในแต่ละเจเนอเรชัน และเมื่อเว็บถูกปนเปื้อนด้วยผลลัพธ์จากโมเดลรุ่นก่อน ๆ ก็ยิ่งเกิดวงจรเลวร้าย
ตัวอย่างเช่น วิธี tokenization ของคำว่า “camaraderie” หรือประเด็นที่ว่าในภาษาอังกฤษ อีโมจิ เป็นอักษรภาพแบบเดียวที่มีอยู่ จึงมีน้ำหนักมากเป็นพิเศษก็น่าสนใจ
ลิสต์แบบนี้มีความเสี่ยงที่จะ ยาวขึ้นเรื่อย ๆ ตามเวลา
เพราะ AI จะสร้างคำซ้ำซากชุดใหม่ออกมาเรื่อย ๆ
ไฟล์นี้ให้ความรู้สึกเหมือนเป็นเอกสารสำหรับ ผู้ใช้อย่างฉันมากกว่า LLM
คำว่า “ให้เพิ่มไฟล์นี้เป็น system prompt ของ AI” สุดท้ายก็กลายเป็นการสั่ง AI ของ AI อีกที
เพราะมีคำอธิบายปนอยู่ด้วยเลยทำให้สับสน และการบอกว่า “ห้ามทำ” กลับมี ผลย้อนกลับที่ทำให้ใช้คำนั้นบ่อยขึ้น
ควรแยกคำอธิบายสำหรับผู้ใช้ออกจากคำสั่งสำหรับ AI
ฉันเลยให้ Claude ช่วยเขียนใหม่ และสรุปไว้ใน gist นี้
สำหรับ LLM แล้ว การหลีกเลี่ยงชื่อพวกนี้และอธิบาย รูปแบบเชิงบวก ของประโยคที่ดีจะได้ผลกว่า
เวอร์ชันที่ Claude เขียนใหม่อยู่ ที่นี่
พอบอกว่า “อย่าทำ” มันกลับยิ่งทำสิ่งนั้นมากขึ้น เป็น ผลแบบ Streisand effect
ถ้าสั่งให้เขียนในสไตล์ของนักเขียนบางคน จะดูเป็นธรรมชาติและไม่กว้างเกินไป
จากนั้นค่อยมี ‘เอเจนต์บรรณาธิการ’ มาคอยลบคำซ้ำซากออก จะดีกว่ามาก
เคยลองให้ Gemini ช่วยค้นคว้าประวัติศาสตร์ แต่มันหยุดใช้ อุปมาเชิงเทคโนโลยี ไม่ได้
อย่างเอาเจ้าแคว้นไปเปรียบเป็น CEO เอาพระสันตะปาปาไปเปรียบเป็นอินฟลูเอนเซอร์ หรือเทียบกบฏศักดินากับการสัมภาษณ์งาน จนออกมาตลกแทบเป็นการ์ตูน
ในการตั้งค่ามีช่องให้ใส่คำสั่งเพิ่มได้ แต่พอฉันใส่ tech stack ของตัวเองลงไป ทุกคำตอบกลับลงท้ายด้วยประโยคว่า “JVM กับ v8 จะจัดการให้เอง”
พอบอกให้เลิกสนใจมัน คราวนี้ก็เปลี่ยนเป็น น้ำเสียงเหน็บแนม แล้วเพิ่มย่อหน้าที่ขึ้นต้นว่า “ด้วยสมองระดับปริญญาโทของคุณ...”
ช่วงนี้ Claude หรือ ChatGPT ใช้คำอย่าง “genuine”, “real”, “honest” บ่อยมาก
และยังชอบมีประโยคแนว “no <thing you told me not to do>” ด้วย เหมือนกำลังเช็กว่าทำตามพรอมป์ต์แล้ว
ในวิกิพีเดียก็มีข้อมูลที่เกี่ยวข้อง: Signs of AI Writing
แต่พออ่านไปก็ชวนเขิน เพราะดันเจอนิสัยการเขียนของตัวเองด้วย
โดยเฉพาะการใช้ สำนวนบอกช่วงแบบปลอม ๆ อย่าง “from X to Y” บ่อยมาก
แล้ว LLM ก็เลิกนิสัยแยกหัวข้อกับหัวข้อย่อยด้วยเครื่องหมายโคลอนไม่ได้เสียที
ขอแนะนำ Wikipedia: Signs of AI Writing เป็นแหล่งข้อมูลที่มีประโยชน์และเขียนโดยมนุษย์