นโยบายการใช้ AI ของ Ghostty
(github.com/ghostty-org)- โปรเจกต์ Ghostty ใช้ กฎการใช้ AI ที่เข้มงวด กับผู้มีส่วนร่วมภายนอก และการใช้ AI ทุกกรณีต้องเปิดเผยอย่างชัดเจน
- Pull Request ที่สร้างโดย AI สามารถส่งได้เฉพาะกับอีชูที่ได้รับอนุมัติแล้วเท่านั้น และจะถูกปฏิเสธหากเป็นอีชูที่ยังไม่ได้อนุมัติหรือมีข้อสงสัยว่ามีการใช้ AI โดยไม่เปิดเผย
- โค้ดที่เขียนโดย AI ต้องได้รับการตรวจสอบและทดสอบโดยมนุษย์โดยตรง และห้ามสร้างโค้ดอัตโนมัติสำหรับสภาพแวดล้อมที่ไม่สามารถเข้าถึงได้
- อนุญาตให้ใช้ AI ช่วยในอีชูหรือการสนทนาได้ แต่ทุกเนื้อหาต้องผ่านการตรวจทานและแก้ไขโดยมนุษย์ และ ห้ามใช้คอนเทนต์สื่อที่สร้างโดย AI โดยสิ้นเชิง
- Ghostty ระบุว่ายินดีต้อนรับ AI เอง แต่ ปัญหาไม่ได้อยู่ที่เครื่องมือ แต่อยู่ที่ทักษะที่ไม่เพียงพอของผู้ใช้ และยังคงใช้นโยบายนี้เพื่อปกป้องผู้ดูแลโครงการ
กฎการใช้ AI
- การใช้ AI ทุกรูปแบบมีหน้าที่ต้องเปิดเผย
- ต้องระบุชื่อเครื่องมือที่ใช้ (เช่น Claude Code, Cursor, Amp) และระดับที่ AI มีส่วนร่วม
- Pull Request ที่สร้างโดย AI สามารถส่งได้เฉพาะกับอีชูที่ได้รับอนุมัติแล้วเท่านั้น
- PR สำหรับอีชูที่ยังไม่ได้รับอนุมัติจะถูกปิด
- หากไม่ได้ระบุการใช้ AI แต่ผู้ดูแลสงสัย PR จะถูกปฏิเสธ
- โค้ดที่เกี่ยวข้องกับอีชูที่ยังไม่อนุมัติสามารถแชร์ใน Discussion ได้
- โค้ดที่สร้างโดย AI ต้องผ่านการตรวจสอบโดยมนุษย์เสมอ
- ห้ามส่งโค้ดเชิงสมมติที่ยังไม่ได้ทดสอบ
- ห้ามเขียนโค้ดสำหรับแพลตฟอร์มที่ไม่สามารถเข้าถึงเพื่อทดสอบได้ด้วยตนเอง
- อนุญาตให้ใช้ AI ช่วยในอีชูและการสนทนาได้ แต่ต้องมีการตรวจทานและแก้ไขโดยมนุษย์เสมอ
- เนื้อหาที่ยืดยาวหรือไม่จำเป็นซึ่ง AI สร้างขึ้นต้องถูกจัดระเบียบโดยมนุษย์
- ห้ามสื่อที่สร้างโดย AI (ภาพ วิดีโอ เสียง ฯลฯ) อนุญาตเฉพาะข้อความและโค้ด
- ผู้ใช้ AI ที่ไม่เหมาะสม (‘bad AI drivers’) อาจถูกลงโทษต่อสาธารณะ
- แนะนำให้นักพัฒนามือใหม่เรียนรู้ด้วยตนเองแทนการพึ่ง AI
กฎเหล่านี้ ใช้เฉพาะกับผู้มีส่วนร่วมภายนอกเท่านั้น และ ผู้ดูแลโครงการได้รับข้อยกเว้นตามความไว้วางใจ
หลักการดำเนินงานที่ยึดมนุษย์เป็นศูนย์กลาง
- Ghostty ตรวจทานการสนทนา อีชู และ PR ทั้งหมดโดยมนุษย์โดยตรง
- เนื่องจากเป็นจุดเชื่อมต่อที่มนุษย์สื่อสารกับมนุษย์ งานคุณภาพต่ำที่ไม่ผ่านการตรวจสอบจึงถือเป็นการไม่ให้เกียรติ
- โลกที่ AI ให้ผลลัพธ์สมบูรณ์แบบยังมาไม่ถึง และ ในปัจจุบันคุณภาพยังขึ้นอยู่กับความสามารถของผู้ใช้ AI (‘driver’)
- ดังนั้น จึงจำเป็นต้องมีกฎที่เข้มงวดเพื่อปกป้องผู้ดูแลโครงการ
จุดยืนที่ยินดีต้อนรับ AI
- Ghostty ใช้งานเครื่องมือ AI อย่างจริงจัง และผู้ดูแลโครงการก็ใช้ AI เพื่อเพิ่มประสิทธิภาพการทำงานเช่นกัน
- จุดประสงค์ของนโยบายนี้ไม่ใช่การต่อต้าน AI แต่เพื่อ ป้องกันการใช้งานอย่างไม่เหมาะสมโดยผู้ใช้ที่ยังขาดทักษะ
- โปรเจกต์ยืนยันว่าจะ รักษาความโปร่งใส ในการใช้ AI และแสดงจุดยืนอย่างชัดเจนว่า ยินดีต้อนรับ AI
2 ความคิดเห็น
"""เหตุผลที่เราใช้นโยบาย AI ที่เข้มงวด ไม่ใช่เพราะเราต่อต้าน AI แต่เป็นเพราะมีคนจำนวนมากเกินไปที่ไม่มีคุณสมบัติเพียงพอจะใช้งาน AI ปัญหาไม่ได้อยู่ที่เครื่องมือ แต่อยู่ที่คน"""
ความเห็นจาก Hacker News
ช่วงนี้มี สแปมคอนทริบิวชันคุณภาพต่ำ ในโอเพนซอร์สมากจนน่าตกใจ
ฉันเคยมีส่วนร่วมกับโปรเจ็กต์เล็ก ๆ แค่ไม่กี่ตัว และโค้ดพวกนั้นก็เป็นงานที่ฉันทดสอบและรีวิวละเอียดที่สุดเท่าที่เคยเขียนมา
เพราะไม่อยากเสียเวลาคนอื่น ฉันเลยเข้าหาอย่างระมัดระวังเสมอ
แต่ก็อึ้งที่ดูเหมือนบางคนจะไม่มี ความละอาย แบบนี้เลย
ตอนนี้พอ กล่องแพนโดราถูกเปิดด้วย AI ก็เหมือนพวกเขารู้สึกว่าได้ “โอกาสครั้งที่สอง”
ไม่ใช่ว่าพวกเขาไม่มีความละอาย แต่คือไม่มี มุมมอง ที่จะรู้สึกแบบนั้นเลย
พวกเราใช้เวลาหลายปีฝึกฝนทักษะจนเข้าใจความลึกของการเรียนรู้ แต่คนเหล่านี้ไม่เคยทำงานจริงในภาคสนามแม้แต่วันเดียว จึงไม่เข้าใจความต่างนั้น
และในกลุ่มสาธารณะก็เห็นคนตอบแบบคัดลอกวางจาก GPT บ่อยมาก
สุดท้ายแล้วคนจำนวนมากก็แค่อยากยืม ความสำคัญของตัวเอง มาจากที่อื่น
เพราะงั้นฉันสนับสนุน code of conduct ที่เปิดให้ล้อเลียนคนที่ทำให้ผู้อื่นเสียเวลาได้อย่างเปิดเผย
ก็เพื่อจะได้เขียนบรรทัดหนึ่งว่า “เคยคอนทริบิวต์ให้ Ghostty” ไม่ใช่เพราะอยากช่วยจริง ๆ
ทุกวันนี้เป็น โลกที่ไร้ความละอาย และถ้าไม่เข้าใจจุดนี้ก็จะทั้งสับสนและเจ็บปวด
ไม่จำเป็นต้องสูญเสียความละอายของตัวเองไป แต่ต้องเรียนรู้ที่จะ เข้าใจความรู้สึกนี้
แต่ในความเป็นจริงมันไม่ใช่เลย
ฉันคิดว่า โครงสร้างทางสังคม ของ GitHub คือรากของปัญหา PR คุณภาพต่ำ
พอเกิดภาพจำว่า “คอนทริบิวต์หลายโปรเจ็กต์ = เป็นนักพัฒนาที่ดี” คนก็เริ่ม เล่นเกมกับระบบ นี้
AI ก็เหมือนมาราดน้ำมันลงกองไฟ และในระยะยาวเราต้องกำจัดแรงจูงใจแบบนี้ออกไป
ในทางน่าขัน AI อาจทำให้ชัดขึ้นด้วยซ้ำว่านี่ไม่ใช่ สัญญาณบอกฝีมือ อีกต่อไป
เมื่อก่อนก็มี “PR ขยะเพื่อใส่เรซูเม่” อยู่แล้ว และตอนนี้แค่ ต้นทุนมันถูกลง เท่านั้น
มีแรงเสียดทานพอที่เฉพาะคนที่สนใจจริงจะส่งแพตช์ด้วย git send-email
แต่ข้อเสียคือจำนวนผู้คอนทริบิวต์หน้าใหม่จะลดลง
นโยบายการใช้ AI ของ Ghostty ดูเป็นแนวทางที่ สมดุล พอสมควร
ประเด็นสำคัญคือ AI ไม่สามารถแทนที่ การคิด การทดสอบ และการรีแฟกเตอร์ ของมนุษย์ได้
ถ้าใช้ Codex สร้างฟีเจอร์ สุดท้ายก็ต้องเขียนใหม่หลายส่วนอยู่ดี โดยเฉพาะปัญหา การทำ abstraction เกินจำเป็น
วิธีการเขียนโค้ดเป็นเสรีภาพส่วนบุคคล และขอแค่รับผิดชอบต่อ ผลลัพธ์ ก็พอ
ในเมื่อไม่มีใครบังคับให้เปิดเผยว่าใช้เครื่องมืออะไรหรือใช้ OS อะไร ก็ไม่มีเหตุผลจะต้องบังคับเรื่องการใช้ AI เช่นกัน
เพราะตอนนี้โปรเจ็กต์ช้าลงจาก โค้ดห่วย ๆ ของนักพัฒนาภายนอก จึงจำเป็นมาก
ถ้ารวมไว้เป็นข้อเสนอพื้นฐานแบบคู่มือคอนทริบิวชันหรือ code of conduct ก็น่าจะมีประโยชน์
ถ้าอ่าน บทความของ Sam Altman ก็จะเห็นว่าเขาตั้งอยู่บนสมมติฐานว่า AI จะ ฉลาดกว่ามนุษย์ ในอนาคต
สุดท้ายแล้วมนุษย์ยังจำเป็นถึงระดับไหน เส้น ขอบเขตนั้นเริ่มพร่าเลือน
ฉันชอบคำว่า “คนขับ AI แย่ ๆ (bad AI drivers)”
AI เป็นแค่เครื่องมือ แต่ PR แบบส่งสะเปะสะปะไม่ยั้งคิด ก็เหมือนคนขับรถแย่ ๆ บนถนน
คนพวกนี้สุดท้ายคงได้ไปโผล่ใน dashcam subreddit ของวงการเขียนโปรแกรม
คือรอให้ AI เลี้ยวผิดก่อน แล้วค่อยเข้าไปแก้
จาก โพสต์ X ของ Mitchell Hashimoto
เขาบอกว่าอยากเห็น บันทึกเซสชัน AI (transcript) แบบครบถ้วน
ฉันเองก็ทำไซด์โปรเจ็กต์ชื่อ git-prompt-story ที่เอาเซสชัน Claude ไปแปะไว้ในโน้ตของ GitHub
การแสดงให้เห็นเส้นทางความคิดที่ยุ่งเหยิงของตัวเองตรง ๆ ก็ทำใจลำบาก และอาจต้องกลับไป “จัดระเบียบ” มันอีกอยู่ดี
เลยสงสัยว่ามีเหตุผลอะไรที่ต้องทำจริงจังไหม
เพราะนั่นอาจกลายเป็น source of truth ที่แท้จริงได้
กฎที่ว่า “ห้ามสื่อที่สร้างโดย AI (ภาพ เสียง ฯลฯ) แต่อนุญาตเฉพาะข้อความ/โค้ด” น่าสนใจมาก
เหมือนมองว่าข้อความกับโค้ดนั้น ปลอดจากข้อถกเถียง
แต่ในเมื่อบริษัท AI เก็บข้อมูลงานศิลปะไปใช้โดยไม่ได้รับอนุญาต โค้ดและข้อความก็ไม่ได้เป็นข้อยกเว้น เช่นกัน
ตอนนี้เงียบลงเพราะนักพัฒนาส่วนใหญ่ใช้ LLM กันแล้ว แต่ในมุมของ Ghostty
ถ้าห้ามไปถึงข้อความ/โค้ดด้วย ก็จะเท่ากับ กันผู้คอนทริบิวต์ออกไปแทบทั้งหมด จึงน่าจะเป็นทางเลือกที่ยึดความจริงมากกว่า
ฉันมีส่วนช่วยให้ AI เรียนรู้จากโค้ดโอเพนซอร์สไปมาก และก็เจอ ผลกระทบจากระบบอัตโนมัติ ด้วยตัวเองเช่นกัน
เพราะงั้นฉันจึงคิดว่าตัวเองมี ความชอบธรรมทางศีลธรรม ที่จะพูดเรื่องการใช้ AI กับโค้ด
แต่ในสายงานศิลปะ ผู้เสียหายไม่ใช่ตัวฉันเอง จึงยากจะยืนในจุดยืนเดียวกัน
ต่อไปโค้ดที่เขียนโดยไม่มี AI อาจเหลืออยู่แค่ใน พื้นที่เฉพาะทาง
การ “เปิดเผยว่าใช้ AI หรือไม่” อาจกลายเป็นแค่ พิธีกรรมเชิงรูปแบบ ในที่สุด
เมื่อก่อนถ้าอะไร “ใช้งานได้ + โค้ดดูซับซ้อน” เราจะเชื่อว่าเป็นผลงานของนักพัฒนาที่ชำนาญ
แต่ตอนนี้ สัญญาณทางสังคม นั้นหายไปแล้ว
ต่อจากนี้ ชื่อเสียงและแบรนด์ส่วนบุคคล จะสำคัญขึ้น และมายาคติแบบคุณธรรมเชิงความสามารถที่ว่า “โค้ดพูดแทนตัวมันเอง” ก็จะสั่นคลอน
ในโปรเจ็กต์ Zulip ก็เพิ่งเจอกับ ขยะที่ AI สร้าง (PR) เพิ่มขึ้นอย่างมาก
ถึงขั้นมีกรณีแนบ สกรีนช็อตปลอม ที่ AI สร้างมาด้วย
ตอนนี้เรากำลัง เตือนหรือแบน ผู้ที่ละเมิดซ้ำ
เราอยากช่วยคนที่ตั้งใจเรียนรู้จริง ไม่ใช่มานั่งปวดหัวกับ ผู้คอนทริบิวต์แบบคัดลอกวางจาก LLM
เลยทำ นโยบาย AI ที่คล้ายกับของ Ghostty แต่ลงรายละเอียดมากกว่า
เพราะไม่ได้แค่ห้าม แต่ยังอธิบายวิธีใช้ AI ให้มีประสิทธิภาพด้วย จึง น่าเอาไปอ้างอิงมาก