11 คะแนน โดย GN⁺ 2026-01-24 | 2 ความคิดเห็น | แชร์ทาง WhatsApp
  • โปรเจกต์ Ghostty ใช้ กฎการใช้ AI ที่เข้มงวด กับผู้มีส่วนร่วมภายนอก และการใช้ AI ทุกกรณีต้องเปิดเผยอย่างชัดเจน
  • Pull Request ที่สร้างโดย AI สามารถส่งได้เฉพาะกับอีชูที่ได้รับอนุมัติแล้วเท่านั้น และจะถูกปฏิเสธหากเป็นอีชูที่ยังไม่ได้อนุมัติหรือมีข้อสงสัยว่ามีการใช้ AI โดยไม่เปิดเผย
  • โค้ดที่เขียนโดย AI ต้องได้รับการตรวจสอบและทดสอบโดยมนุษย์โดยตรง และห้ามสร้างโค้ดอัตโนมัติสำหรับสภาพแวดล้อมที่ไม่สามารถเข้าถึงได้
  • อนุญาตให้ใช้ AI ช่วยในอีชูหรือการสนทนาได้ แต่ทุกเนื้อหาต้องผ่านการตรวจทานและแก้ไขโดยมนุษย์ และ ห้ามใช้คอนเทนต์สื่อที่สร้างโดย AI โดยสิ้นเชิง
  • Ghostty ระบุว่ายินดีต้อนรับ AI เอง แต่ ปัญหาไม่ได้อยู่ที่เครื่องมือ แต่อยู่ที่ทักษะที่ไม่เพียงพอของผู้ใช้ และยังคงใช้นโยบายนี้เพื่อปกป้องผู้ดูแลโครงการ

กฎการใช้ AI

  • การใช้ AI ทุกรูปแบบมีหน้าที่ต้องเปิดเผย
    • ต้องระบุชื่อเครื่องมือที่ใช้ (เช่น Claude Code, Cursor, Amp) และระดับที่ AI มีส่วนร่วม
  • Pull Request ที่สร้างโดย AI สามารถส่งได้เฉพาะกับอีชูที่ได้รับอนุมัติแล้วเท่านั้น
    • PR สำหรับอีชูที่ยังไม่ได้รับอนุมัติจะถูกปิด
    • หากไม่ได้ระบุการใช้ AI แต่ผู้ดูแลสงสัย PR จะถูกปฏิเสธ
    • โค้ดที่เกี่ยวข้องกับอีชูที่ยังไม่อนุมัติสามารถแชร์ใน Discussion ได้
  • โค้ดที่สร้างโดย AI ต้องผ่านการตรวจสอบโดยมนุษย์เสมอ
    • ห้ามส่งโค้ดเชิงสมมติที่ยังไม่ได้ทดสอบ
    • ห้ามเขียนโค้ดสำหรับแพลตฟอร์มที่ไม่สามารถเข้าถึงเพื่อทดสอบได้ด้วยตนเอง
  • อนุญาตให้ใช้ AI ช่วยในอีชูและการสนทนาได้ แต่ต้องมีการตรวจทานและแก้ไขโดยมนุษย์เสมอ
    • เนื้อหาที่ยืดยาวหรือไม่จำเป็นซึ่ง AI สร้างขึ้นต้องถูกจัดระเบียบโดยมนุษย์
  • ห้ามสื่อที่สร้างโดย AI (ภาพ วิดีโอ เสียง ฯลฯ) อนุญาตเฉพาะข้อความและโค้ด
  • ผู้ใช้ AI ที่ไม่เหมาะสม (‘bad AI drivers’) อาจถูกลงโทษต่อสาธารณะ
    • แนะนำให้นักพัฒนามือใหม่เรียนรู้ด้วยตนเองแทนการพึ่ง AI

กฎเหล่านี้ ใช้เฉพาะกับผู้มีส่วนร่วมภายนอกเท่านั้น และ ผู้ดูแลโครงการได้รับข้อยกเว้นตามความไว้วางใจ

หลักการดำเนินงานที่ยึดมนุษย์เป็นศูนย์กลาง

  • Ghostty ตรวจทานการสนทนา อีชู และ PR ทั้งหมดโดยมนุษย์โดยตรง
    • เนื่องจากเป็นจุดเชื่อมต่อที่มนุษย์สื่อสารกับมนุษย์ งานคุณภาพต่ำที่ไม่ผ่านการตรวจสอบจึงถือเป็นการไม่ให้เกียรติ
  • โลกที่ AI ให้ผลลัพธ์สมบูรณ์แบบยังมาไม่ถึง และ ในปัจจุบันคุณภาพยังขึ้นอยู่กับความสามารถของผู้ใช้ AI (‘driver’)
  • ดังนั้น จึงจำเป็นต้องมีกฎที่เข้มงวดเพื่อปกป้องผู้ดูแลโครงการ

จุดยืนที่ยินดีต้อนรับ AI

  • Ghostty ใช้งานเครื่องมือ AI อย่างจริงจัง และผู้ดูแลโครงการก็ใช้ AI เพื่อเพิ่มประสิทธิภาพการทำงานเช่นกัน
  • จุดประสงค์ของนโยบายนี้ไม่ใช่การต่อต้าน AI แต่เพื่อ ป้องกันการใช้งานอย่างไม่เหมาะสมโดยผู้ใช้ที่ยังขาดทักษะ
  • โปรเจกต์ยืนยันว่าจะ รักษาความโปร่งใส ในการใช้ AI และแสดงจุดยืนอย่างชัดเจนว่า ยินดีต้อนรับ AI

2 ความคิดเห็น

 
darjeeling 2026-01-24

"""เหตุผลที่เราใช้นโยบาย AI ที่เข้มงวด ไม่ใช่เพราะเราต่อต้าน AI แต่เป็นเพราะมีคนจำนวนมากเกินไปที่ไม่มีคุณสมบัติเพียงพอจะใช้งาน AI ปัญหาไม่ได้อยู่ที่เครื่องมือ แต่อยู่ที่คน"""

 
GN⁺ 2026-01-24
ความเห็นจาก Hacker News
  • ช่วงนี้มี สแปมคอนทริบิวชันคุณภาพต่ำ ในโอเพนซอร์สมากจนน่าตกใจ
    ฉันเคยมีส่วนร่วมกับโปรเจ็กต์เล็ก ๆ แค่ไม่กี่ตัว และโค้ดพวกนั้นก็เป็นงานที่ฉันทดสอบและรีวิวละเอียดที่สุดเท่าที่เคยเขียนมา
    เพราะไม่อยากเสียเวลาคนอื่น ฉันเลยเข้าหาอย่างระมัดระวังเสมอ
    แต่ก็อึ้งที่ดูเหมือนบางคนจะไม่มี ความละอาย แบบนี้เลย

    • เมื่อก่อนคนที่ฝีมือยังไม่ถึงจะไม่เดินเข้ามาในเส้นทางนี้
      ตอนนี้พอ กล่องแพนโดราถูกเปิดด้วย AI ก็เหมือนพวกเขารู้สึกว่าได้ “โอกาสครั้งที่สอง”
      ไม่ใช่ว่าพวกเขาไม่มีความละอาย แต่คือไม่มี มุมมอง ที่จะรู้สึกแบบนั้นเลย
      พวกเราใช้เวลาหลายปีฝึกฝนทักษะจนเข้าใจความลึกของการเรียนรู้ แต่คนเหล่านี้ไม่เคยทำงานจริงในภาคสนามแม้แต่วันเดียว จึงไม่เข้าใจความต่างนั้น
    • เคยมีลูกค้าส่งสกรีนช็อตจาก GPT มาโต้แย้งความเห็นของฉัน
      และในกลุ่มสาธารณะก็เห็นคนตอบแบบคัดลอกวางจาก GPT บ่อยมาก
      สุดท้ายแล้วคนจำนวนมากก็แค่อยากยืม ความสำคัญของตัวเอง มาจากที่อื่น
      เพราะงั้นฉันสนับสนุน code of conduct ที่เปิดให้ล้อเลียนคนที่ทำให้ผู้อื่นเสียเวลาได้อย่างเปิดเผย
    • หลายคนคอนทริบิวต์ให้โปรเจ็กต์โอเพนซอร์สใหญ่ ๆ แค่เพื่อ ใส่ในเรซูเม่
      ก็เพื่อจะได้เขียนบรรทัดหนึ่งว่า “เคยคอนทริบิวต์ให้ Ghostty” ไม่ใช่เพราะอยากช่วยจริง ๆ
    • เราต้องยอมรับว่าสังคมเปลี่ยนไปแล้ว
      ทุกวันนี้เป็น โลกที่ไร้ความละอาย และถ้าไม่เข้าใจจุดนี้ก็จะทั้งสับสนและเจ็บปวด
      ไม่จำเป็นต้องสูญเสียความละอายของตัวเองไป แต่ต้องเรียนรู้ที่จะ เข้าใจความรู้สึกนี้
    • ตอนทำงานที่บริษัทโอเพนซอร์ส คนส่วนใหญ่มักคิดว่าสิ่งที่ตัวเองคอนทริบิวต์คือ ของขวัญ
      แต่ในความเป็นจริงมันไม่ใช่เลย
  • ฉันคิดว่า โครงสร้างทางสังคม ของ GitHub คือรากของปัญหา PR คุณภาพต่ำ
    พอเกิดภาพจำว่า “คอนทริบิวต์หลายโปรเจ็กต์ = เป็นนักพัฒนาที่ดี” คนก็เริ่ม เล่นเกมกับระบบ นี้
    AI ก็เหมือนมาราดน้ำมันลงกองไฟ และในระยะยาวเราต้องกำจัดแรงจูงใจแบบนี้ออกไป
    ในทางน่าขัน AI อาจทำให้ชัดขึ้นด้วยซ้ำว่านี่ไม่ใช่ สัญญาณบอกฝีมือ อีกต่อไป

    • ต่อให้ตัดเรื่อง AI ออกไป ปัญหานี้ก็ยังเหมือนเดิม
      เมื่อก่อนก็มี “PR ขยะเพื่อใส่เรซูเม่” อยู่แล้ว และตอนนี้แค่ ต้นทุนมันถูกลง เท่านั้น
    • เวิร์กโฟลว์ที่อิงกับเมลลิงลิสต์ช่วยลดปัญหานี้ได้
      มีแรงเสียดทานพอที่เฉพาะคนที่สนใจจริงจะส่งแพตช์ด้วย git send-email
      แต่ข้อเสียคือจำนวนผู้คอนทริบิวต์หน้าใหม่จะลดลง
  • นโยบายการใช้ AI ของ Ghostty ดูเป็นแนวทางที่ สมดุล พอสมควร
    ประเด็นสำคัญคือ AI ไม่สามารถแทนที่ การคิด การทดสอบ และการรีแฟกเตอร์ ของมนุษย์ได้
    ถ้าใช้ Codex สร้างฟีเจอร์ สุดท้ายก็ต้องเขียนใหม่หลายส่วนอยู่ดี โดยเฉพาะปัญหา การทำ abstraction เกินจำเป็น

    • ถ้าไม่นับข้อแรก ที่เหลือก็ดูสมเหตุสมผลทั้งหมด
      วิธีการเขียนโค้ดเป็นเสรีภาพส่วนบุคคล และขอแค่รับผิดชอบต่อ ผลลัพธ์ ก็พอ
      ในเมื่อไม่มีใครบังคับให้เปิดเผยว่าใช้เครื่องมืออะไรหรือใช้ OS อะไร ก็ไม่มีเหตุผลจะต้องบังคับเรื่องการใช้ AI เช่นกัน
    • ฉันตั้งใจจะเอาไปอ้างอิงเป็น แนวทาง AI ภายใน ของบริษัทเรา
      เพราะตอนนี้โปรเจ็กต์ช้าลงจาก โค้ดห่วย ๆ ของนักพัฒนาภายนอก จึงจำเป็นมาก
    • ถ้า GitHub มีนโยบายนี้เป็น เทมเพลต ให้เลยก็น่าจะดี
      ถ้ารวมไว้เป็นข้อเสนอพื้นฐานแบบคู่มือคอนทริบิวชันหรือ code of conduct ก็น่าจะมีประโยชน์
    • นโยบายนี้สมดุลดี แต่ประโยคที่ว่า “AI ไม่ได้แทนที่มนุษย์” ก็น่าสนใจ
      ถ้าอ่าน บทความของ Sam Altman ก็จะเห็นว่าเขาตั้งอยู่บนสมมติฐานว่า AI จะ ฉลาดกว่ามนุษย์ ในอนาคต
      สุดท้ายแล้วมนุษย์ยังจำเป็นถึงระดับไหน เส้น ขอบเขตนั้นเริ่มพร่าเลือน
  • ฉันชอบคำว่า “คนขับ AI แย่ ๆ (bad AI drivers)”
    AI เป็นแค่เครื่องมือ แต่ PR แบบส่งสะเปะสะปะไม่ยั้งคิด ก็เหมือนคนขับรถแย่ ๆ บนถนน
    คนพวกนี้สุดท้ายคงได้ไปโผล่ใน dashcam subreddit ของวงการเขียนโปรแกรม

    • เอาเข้าจริง AI เป็นฝ่ายขับ และพวกเราก็ใกล้เคียงกับ คนนั่งเบาะข้าง มากกว่า
      คือรอให้ AI เลี้ยวผิดก่อน แล้วค่อยเข้าไปแก้
  • จาก โพสต์ X ของ Mitchell Hashimoto
    เขาบอกว่าอยากเห็น บันทึกเซสชัน AI (transcript) แบบครบถ้วน
    ฉันเองก็ทำไซด์โปรเจ็กต์ชื่อ git-prompt-story ที่เอาเซสชัน Claude ไปแปะไว้ในโน้ตของ GitHub

    • การเปิดเผยบันทึกเซสชันมี ทั้งข้อดีและข้อเสีย
      การแสดงให้เห็นเส้นทางความคิดที่ยุ่งเหยิงของตัวเองตรง ๆ ก็ทำใจลำบาก และอาจต้องกลับไป “จัดระเบียบ” มันอีกอยู่ดี
    • ฉันก็เคยลองเก็บพรอมป์ต์ไว้เหมือนกัน แต่ คุณค่าเชิงปฏิบัติ ไม่ได้มากนัก
      เลยสงสัยว่ามีเหตุผลอะไรที่ต้องทำจริงจังไหม
    • ฉันคิดว่าการแนบไฟล์แผนที่สร้างจาก Plan mode ของ Claude น่าจะดีกว่า
      เพราะนั่นอาจกลายเป็น source of truth ที่แท้จริงได้
    • AI อาจ ช่วยได้ ในการจัดระเบียบบันทึกพวกนี้
    • ทีมของเรากำลังคุยกันเรื่องแนบเซสชัน Claude ไว้กับ ทิกเก็ต Jira แทน GitHub
  • กฎที่ว่า “ห้ามสื่อที่สร้างโดย AI (ภาพ เสียง ฯลฯ) แต่อนุญาตเฉพาะข้อความ/โค้ด” น่าสนใจมาก
    เหมือนมองว่าข้อความกับโค้ดนั้น ปลอดจากข้อถกเถียง
    แต่ในเมื่อบริษัท AI เก็บข้อมูลงานศิลปะไปใช้โดยไม่ได้รับอนุญาต โค้ดและข้อความก็ไม่ได้เป็นข้อยกเว้น เช่นกัน

    • ตอนที่ Microsoft ใช้รีโพซิทอรีบน GitHub เป็น ข้อมูลฝึก AI ก็เคยมีแรงต้านครั้งใหญ่
      ตอนนี้เงียบลงเพราะนักพัฒนาส่วนใหญ่ใช้ LLM กันแล้ว แต่ในมุมของ Ghostty
      ถ้าห้ามไปถึงข้อความ/โค้ดด้วย ก็จะเท่ากับ กันผู้คอนทริบิวต์ออกไปแทบทั้งหมด จึงน่าจะเป็นทางเลือกที่ยึดความจริงมากกว่า
    • ไม่ใช่ว่าโค้ดสำคัญน้อยกว่างานศิลปะ แต่เป็นเรื่องของ สิทธิ์และเส้นแบ่ง
      ฉันมีส่วนช่วยให้ AI เรียนรู้จากโค้ดโอเพนซอร์สไปมาก และก็เจอ ผลกระทบจากระบบอัตโนมัติ ด้วยตัวเองเช่นกัน
      เพราะงั้นฉันจึงคิดว่าตัวเองมี ความชอบธรรมทางศีลธรรม ที่จะพูดเรื่องการใช้ AI กับโค้ด
      แต่ในสายงานศิลปะ ผู้เสียหายไม่ใช่ตัวฉันเอง จึงยากจะยืนในจุดยืนเดียวกัน
  • ต่อไปโค้ดที่เขียนโดยไม่มี AI อาจเหลืออยู่แค่ใน พื้นที่เฉพาะทาง
    การ “เปิดเผยว่าใช้ AI หรือไม่” อาจกลายเป็นแค่ พิธีกรรมเชิงรูปแบบ ในที่สุด
    เมื่อก่อนถ้าอะไร “ใช้งานได้ + โค้ดดูซับซ้อน” เราจะเชื่อว่าเป็นผลงานของนักพัฒนาที่ชำนาญ
    แต่ตอนนี้ สัญญาณทางสังคม นั้นหายไปแล้ว
    ต่อจากนี้ ชื่อเสียงและแบรนด์ส่วนบุคคล จะสำคัญขึ้น และมายาคติแบบคุณธรรมเชิงความสามารถที่ว่า “โค้ดพูดแทนตัวมันเอง” ก็จะสั่นคลอน

  • ในโปรเจ็กต์ Zulip ก็เพิ่งเจอกับ ขยะที่ AI สร้าง (PR) เพิ่มขึ้นอย่างมาก
    ถึงขั้นมีกรณีแนบ สกรีนช็อตปลอม ที่ AI สร้างมาด้วย
    ตอนนี้เรากำลัง เตือนหรือแบน ผู้ที่ละเมิดซ้ำ
    เราอยากช่วยคนที่ตั้งใจเรียนรู้จริง ไม่ใช่มานั่งปวดหัวกับ ผู้คอนทริบิวต์แบบคัดลอกวางจาก LLM
    เลยทำ นโยบาย AI ที่คล้ายกับของ Ghostty แต่ลงรายละเอียดมากกว่า

    • นโยบายของ Zulip สมจริงและใช้งานได้จริง กว่าของ Mitchell มาก
      เพราะไม่ได้แค่ห้าม แต่ยังอธิบายวิธีใช้ AI ให้มีประสิทธิภาพด้วย จึง น่าเอาไปอ้างอิงมาก