โค้ดสำหรับงานให้ AI agent จัดการทั้งหมด โดยพยายามให้มันวิ่งเป็นลูปได้นานที่สุด
ส่วนโปรเจกต์ส่วนตัวที่ทำเป็นงานอดิเรก ผมพัฒนาเองโดยไม่ใช้ทั้ง AI assistant และ AI autocomplete เลย (...)
ฉันเลิกใช้ vim แล้วเปลี่ยนไปใช้ vscode เพราะ AI
แต่รู้สึกเหมือนทำให้ความสุขในการพัฒนาหายไป เลยกลับมาใช้ vim อีกครั้ง
ตอนนี้ใช้ AI เป็นผู้ช่วยอยู่ และดูเหมือนว่าจะได้ความสุขในการพัฒนากลับคืนมาอย่างชัดเจน
เขียนไว้ซับซ้อน แต่สุดท้ายสิ่งที่อยากพูดก็คือเป็นเรื่องที่ใช้กับมนุษย์ได้เหมือนกัน
ประเด็นคือ ถ้าบทความที่คนโง่ A เขียน ถูกคนโง่ A กลับมาอ่านอีกครั้ง มันจะกลายเป็นบทความที่ดีขึ้นจริงหรือ
แน่นอนว่าในบางกรณีก็มีโอกาสที่จะดีขึ้นได้ และก็มีความน่าจะเป็นที่จะเดาข้อสอบทุกข้อแล้วได้คะแนนเต็มสอบเข้ามหาวิทยาลัย แต่ในกรณีส่วนใหญ่ก็แค่ย้อนกลับไปสู่ระดับเฉลี่ยของคนโง่ A เมื่อนำมาทำซ้ำ N ครั้งเท่านั้น
เนื้อหาแบบนี้ดูเหมือนเป็นการยึดติดกับวิธีการทำงานแบบเดิม ๆ อยู่แล้วส่วนแบบนั้น AI จะทำได้ดีกว่า สิ่งสำคัญตอนนี้คือประสบการณ์ในการปรับปรุงส่วนที่ยังทำได้ไม่ดีขณะใช้ AI แต่ถึงอย่างนั้นผมก็คิดว่าสิ่งนี้เองก็เป็นเพียงเรื่องชั่วคราว
ผมเองก็ยังรู้สึกว่ายังขาดอยู่ในสายความเชี่ยวชาญของตัวเอง จึงระวังโดยคิดว่าในด้านที่ผมได้รับความช่วยเหลือ มันก็น่าจะอยู่ราว ๆ ระดับนั้นเหมือนกัน แต่เพราะความเร็วในการพัฒนาสูงมาก ผมก็เลยตั้งใจจะลองใช้มันกับงานที่ถ้าคุณภาพยังอยู่ประมาณนั้นก็ถือว่าเพียงพอครับ
การมีเครื่องคิดเลขอยู่แล้ว แต่ยังท่องสูตรคูณ ดูเหมือนเป็นการยึดติดกับวิธีการทำงานแบบในอดีต อย่างไรเสียส่วนแบบนั้นเครื่องคิดเลขก็จะทำได้ดีกว่าอยู่แล้ว ตอนนี้สิ่งสำคัญคือประสบการณ์ในการใช้เครื่องคิดเลขแล้วปรับปรุงส่วนที่ยังทำได้ไม่ดี อย่างไรก็ตาม ผมคิดว่าสิ่งนี้เองก็เป็นเพียงเรื่องชั่วคราวเช่นกัน
ผมคิดว่านี่ก็เป็นเพียงวาทกรรมเกี่ยวกับ Neuro-Symbolic ที่สืบต่อกันมาตั้งแต่ก่อนอยู่แล้ว ช่วงหนึ่งเคยมีสมัยที่ให้ความหมายกับคำว่า "deterministic" มากกว่าตอนนี้เสียอีก แต่เมื่อประสิทธิภาพดีขึ้นจนโมเดลเชิงความน่าจะเป็นสามารถประมาณได้ใกล้ระดับ deterministic ประเด็นให้ถกเถียงหลายอย่างก็หายไป ท้ายที่สุดแล้ว สิ่งที่เราต้องการมาโดยตลอดไม่ใช่อะไรที่เป็น deterministic แต่เป็นความไม่แน่นอนที่ "ยอมรับได้" มากกว่า ในแง่นั้น อย่างน้อยถ้ามองจากฝั่ง "อุตสาหกรรม" ไม่ใช่ "แวดวงวิชาการ" ก็คงไม่จำเป็นต้องให้ความหมายกับ deterministic มากเกินไปนัก อย่างน้อยในจุดที่ความไม่แน่นอนของโมเดลเชิงกำเนิดปัจจุบันยังคงทรงตัวอยู่ การบูรณาการจะเกิดขึ้นภายหลังก็ไม่ได้สายเกินไปเลย
น่าจะจัดการโพสต์ที่ละเมิด EULA หน่อยจะดีกว่าไหมครับ
เหตุผลที่ฮิวแมนนอยด์มีขนาดใกล้เคียงมนุษย์และมีโครงสร้างข้อต่อคล้ายกัน ก็เพื่อจะได้ไม่ต้องสร้างเครื่องมือหรือไลน์การผลิตแยกต่างหากสำหรับพวกมัน
พวกเราเคยลองทำเรื่องไร้สาระอย่างการสร้าง RAG ทั้งองค์กร รวมถึงการดูแลปฏิบัติการและบำรุงรักษามาแล้ว และเมื่อเอเจนต์กับ MCP ปรากฏขึ้น เราก็ไม่ได้ทบทวนกันหรือว่าจริง ๆ แล้วไม่จำเป็นต้องทำแบบนั้น? แล้วทำไมถึงอยากทำผิดพลาดแบบเดิมซ้ำอีกด้วยวิธีที่ต่างออกไปล่ะ?
แนวคิดเชย ๆ ที่ให้เอเจนต์ท่องเว็บแทนมนุษย์นั้น ปัญหาไม่ได้อยู่ที่เทคโนโลยี แต่เป็นปัญหาทางการเมืองที่คุกคามโมเดลรายได้หลักของ Google ซึ่งเป็นส่วนหนึ่งของตัวเว็บเอง และสิ่งนี้จะมีอิทธิพลมากกว่า
อย่างไรเสีย webMCP ก็เป็นเพียงทางเลือกชั่วคราวในช่วงเปลี่ยนผ่าน จนกว่า RPA agent จะสุกงอมเท่านั้น แบบนี้ไป ๆ มา ๆ อาจถึงขั้นมีคนเสนอให้กลับไปใช้ xul กันอีกก็ได้
นั่นเป็นเพราะมิติและเลเยอร์ของโมเดลไม่ได้ถูกปรับแต่งอย่างสม่ำเสมอ ก็เป็นแบบนี้มาโดยตลอด
สำหรับวิศวกรที่ทำงานกับ AI ข้อสมมติฐานพื้นฐานที่ชัดเจนอยู่แล้วและไม่เคยเป็นความลับเลยก็คือ ในโมเดลภาษาขนาดใหญ่ (LLM) ทั้ง 'ความคิดสร้างสรรค์' และ 'ภาพหลอน (Hallucination)' ท้ายที่สุดแล้วล้วนเป็นผลลัพธ์ของการทำนายโทเคนถัดไปแบบความน่าจะเป็น (Next-token prediction) เหมือนกัน แต่ไวต์เปเปอร์ฉบับนี้กลับพูดเกินจริงราวกับกำลังเปิดโปงความลับสำคัญอะไรบางอย่าง
ตรรกะที่จำกัดและวิจารณ์ 'การแก้ไขตนเองแบบอัตโนมัติ' ของ multi-agent ว่าเป็นเพียง 'การวนซ้ำแบบถ้อยคำเดิมในบริบทเดียวกัน (Homogeneous Iteration)' นั้นน่าเสียดายอยู่พอสมควร
หากลองผสาน intelligent agent เข้ากับ IDE ในสภาพแวดล้อมการพัฒนาจริง และทำ prompt engineering ขั้นสูง จะเห็นว่าธรรมชาติแบบความน่าจะเป็นของโมเดลเช่นนี้ ไม่ได้เป็น 'ข้อบกพร่องร้ายแรงที่ไม่อาจเอาชนะได้' แต่เป็นเพียง 'เงื่อนไขพื้นฐาน' ที่ต้องถือเป็นค่าคงที่เมื่อออกแบบระบบเท่านั้น แนวทางในภาคสนามคือเริ่มจากสมมติฐานอยู่แล้วว่าโมเดลอาจหลุดออกจากบริบทได้ แล้วจึงจัดเตรียมบริบทที่แยกจากกันอย่างชัดเจน หรือสร้างอำนาจควบคุมที่ใช้งานได้จริงผ่านบริบทคนละสเกล
แต่ไวต์เปเปอร์ฉบับนี้กลับนำข้อเท็จจริงพื้นๆ ที่ใครก็รู้นี้ไปห่อหุ้มด้วยศัพท์วิชาการใหญ่โตอย่าง 'categorical error' และ 'probabilistic detour' เพื่อสร้างความวิตกกังวล จุดประสงค์นั้นดูชัดเจน เพราะมีเพียงการลดทอนคุณค่าความเป็นอิสระของ LLM ลงอย่างสิ้นเชิงเท่านั้น จึงจะสามารถขยายคุณค่าของ 'เครือข่ายควบคุมเชิงกำหนดตายตัวที่มนุษย์ออกแบบเองโดยตรง (ระบบ SERA)' ที่พวกเขาเสนอได้สูงสุด
ท้ายที่สุด บทความนี้จึงใกล้เคียงกับ sales pitch ที่มีอคติมากกว่าไวต์เปเปอร์ที่มีดุลยภาพทางเทคนิค โดยมุ่งโน้มน้าวผู้มีอำนาจตัดสินใจในสภาพแวดล้อมองค์กรที่หวาดกลัวความเสี่ยงจากปรากฏการณ์ภาพหลอนว่า "แทนที่จะใช้ agent ที่ควบคุมไม่ได้ จงนำ deterministic pipeline แบบ hard-coded ของเรามาใช้"
โค้ดสำหรับงานให้ AI agent จัดการทั้งหมด โดยพยายามให้มันวิ่งเป็นลูปได้นานที่สุด
ส่วนโปรเจกต์ส่วนตัวที่ทำเป็นงานอดิเรก ผมพัฒนาเองโดยไม่ใช้ทั้ง AI assistant และ AI autocomplete เลย (...)
ผมปิดฟีเจอร์ AI ของ VSCode แล้วใช้ Claude Code แทน ซึ่งรู้สึกลื่นและใช้งานสบายกว่าชัดเจน
ฉันเลิกใช้ vim แล้วเปลี่ยนไปใช้ vscode เพราะ AI
แต่รู้สึกเหมือนทำให้ความสุขในการพัฒนาหายไป เลยกลับมาใช้ vim อีกครั้ง
ตอนนี้ใช้ AI เป็นผู้ช่วยอยู่ และดูเหมือนว่าจะได้ความสุขในการพัฒนากลับคืนมาอย่างชัดเจน
เขียนไว้ซับซ้อน แต่สุดท้ายสิ่งที่อยากพูดก็คือเป็นเรื่องที่ใช้กับมนุษย์ได้เหมือนกัน
ประเด็นคือ ถ้าบทความที่คนโง่ A เขียน ถูกคนโง่ A กลับมาอ่านอีกครั้ง มันจะกลายเป็นบทความที่ดีขึ้นจริงหรือ
แน่นอนว่าในบางกรณีก็มีโอกาสที่จะดีขึ้นได้ และก็มีความน่าจะเป็นที่จะเดาข้อสอบทุกข้อแล้วได้คะแนนเต็มสอบเข้ามหาวิทยาลัย แต่ในกรณีส่วนใหญ่ก็แค่ย้อนกลับไปสู่ระดับเฉลี่ยของคนโง่ A เมื่อนำมาทำซ้ำ N ครั้งเท่านั้น
(สำหรับ Chapter 2 ผมคงยังเห็นด้วยทั้งหมดไม่ได้)
แต่อย่างน้อยก็อยากให้เข้าใจกันหน่อยว่า what-ever Scaling Law อย่างที่บทความพูดถึงนั้น เป็นกฎการเพิ่มขึ้นชั่วคราว ไม่ใช่อะไรที่จะคงอยู่ตลอดไป
ถ้าอ่านบทความของ OpenAI อย่างถูกต้อง ก็คงไม่พูดอะไรแบบนี้หรอก
จริง ๆ แล้ว แทนที่จะมีบทความแบบนั้น 100 ฉบับ แค่พิสูจน์ให้ได้ว่าคนที่อ้างว่า "ทำได้" เป็นคนที่ทำได้จริง เรื่องก็คงจบแล้ว
ปัญหาคือเอาแต่เล่นแร่แปรธาตุแบบ "ทำได้" กันอยู่นั่นแหละ
โดยส่วนตัวแล้ว ผมรู้สึกอย่างเจ็บแสบว่า AI ห่วยมากในสายความเชี่ยวชาญของผมเอง ผมเดาว่าผู้เชี่ยวชาญในสาขาอื่นก็คงรู้สึกไม่ต่างกัน แน่นอนว่ามันช่วยได้มาก แต่ถึงจะต้องนั่งเขียนเอกสารจุกจิกทั้งวัน ก็ยังเทียบกับผลิตภาพแบบเดิมไม่ได้เลย
Attention ถูกกำหนดขึ้นด้วยเสียงข้างมาก
เอเจนต์สำหรับการตรวจสอบขอแค่ผ่านฟังก์ชันการประเมินก็พอ
โค้ดอุตสาหกรรมชั้นยอดส่วนใหญ่ไม่ได้ถูกเปิดเผยต่อสาธารณะ
โอเพนซอร์สคือโค้ดที่ทำขึ้นเพื่อให้คนดู
ต้องใช้งานโดยจำเรื่องนี้ไว้เสมอ
จากผลการทดลองของห้องวิจัยเรา นี่คือโมเดลที่เหมือนทีม Qwen ที่ไร้ทีม Qwen รีบปล่อยออกมาอย่างลนลานเพื่อจัดการความกังวลของตลาดโดยปรับให้เข้ากับเบนช์มาร์กเท่านั้น มีอาการยึดติดกับการใช้เครื่องมือหนักมาก ผมมองว่าเป็นการถอยหลังเมื่อเทียบกับ 3.5
นอกจากการปล่อยออกรอบสั้น ๆ แล้ว ก็ไม่รู้ว่า Agile ยังเหลืออะไรบ้าง
แบ็กล็อกกับสปรินต์เองก็มีอยู่ก่อนแล้วในรูปแบบอื่น และการสื่อสารกับลูกค้าก็มีหลายส่วนที่ไม่สอดคล้องกับความเป็นจริง สุดท้ายเลยคิดว่า เมื่อเทียบกับ Agile แล้ว การปรับปรุง DevOps กลับช่วยยกระดับการพัฒนาได้มากกว่า
ในการเขียนซอฟต์แวร์ ปัญหาไม่ได้อยู่ที่ความเป็นนามธรรม แต่อยู่ที่ความกำกวม ภาษาธรรมชาตินั้นโดยเนื้อแท้แล้วมีความกำกวม และยังตีความได้หลายความหมายด้วย ดังนั้นความพยายามที่จะเขียนโค้ดด้วยภาษาธรรมชาติจึงอาจไปได้ไม่ดีนัก สภาพการณ์เป็นเช่นนี้แล้ว การที่ภาษาธรรมชาติจะมาแทนที่โค้ดได้ก็ยิ่งแทบเป็นไปไม่ได้
เนื้อหาแบบนี้ดูเหมือนเป็นการยึดติดกับวิธีการทำงานแบบเดิม ๆ อยู่แล้วส่วนแบบนั้น AI จะทำได้ดีกว่า สิ่งสำคัญตอนนี้คือประสบการณ์ในการปรับปรุงส่วนที่ยังทำได้ไม่ดีขณะใช้ AI แต่ถึงอย่างนั้นผมก็คิดว่าสิ่งนี้เองก็เป็นเพียงเรื่องชั่วคราว
แต่ละคนก็คงต่างกันไป แต่ผมคิดว่าการเรียนรู้ด้านคอมพิวเตอร์ส่วนใหญ่ก็มักใช้วิธีที่คุณพูดถึงกันไม่ใช่หรือครับ เดี๋ยวนี้ก็มีตัวเลือกอย่างการเรียนผ่านวิดีโอด้วย ดังนั้นก็ควรเลือกวิธีเรียนที่เหมาะกับตัวเองครับ
ถ้าอย่างนั้น คุณเรียนรู้ภาษาโปรแกรมเชิงฟังก์ชันแท้ ๆ กันอย่างไรบ้างครับ? ที่ผ่านมาผมเรียนรู้ภาษาโปรแกรมต่าง ๆ (C, Go, Python ฯลฯ) ด้วยหนังสือสอนพัฒนา + โปรเจกต์ส่วนตัวมาตลอด แล้วถ้าเป็นภาษาโปรแกรมเชิงฟังก์ชัน ก็ควรเดินตามแนวทางการเรียนแบบนี้ได้เหมือนกันไหมครับ?
AI ให้ความรู้สึกเหมือนกำลังใช้สว่านไฟฟ้า เลื่อยยนต์ และรถขุด หลังจากเริ่มใช้โทรศัพท์มือถือ ก็มีคนจำนวนมากที่จำแม้กระทั่งหมายเลขโทรศัพท์ของตัวเองไม่ได้
...สิ่งเหล่านี้อาจมองได้ว่าเป็นความเสื่อมถอย แต่สำหรับผมมองว่าเป็นเรื่องของประสิทธิภาพ จากประสบการณ์ที่เคยเป็นทั้งนักพัฒนาและทำงานมาหลายบทบาท ผมมองว่าเครื่องมือ AI เป็นเครื่องมือที่ช่วยเปิดโอกาสและช่วยให้เราก้าวออกจากโลกของนักพัฒนาเพียงอย่างเดียว ไปมีมุมมองที่กว้างขึ้นได้ แม้ในบางส่วนอาจถดถอยลง แต่เราก็เติมเต็มพื้นที่นั้นด้วยอย่างอื่นแทน
จากประสบการณ์ของผมและข้อสรุปของหลาย ๆ คน แนวทางที่ถูกต้องคือควรเรียนภาษาฟังก์ชันนัลผ่านภาษาฟังก์ชันนัลแบบบริสุทธิ์
นี่เป็นมุมมองที่พูดกันในช่วงที่ภาษาฟังก์ชันนัลเริ่มเป็นที่สนใจและกำลังได้รับความนิยมอย่างมาก ซึ่งผมก็เห็นด้วย ผมเริ่มศึกษาด้วย Erlang ตั้งแต่ช่วงแรก ๆ ที่มันออกมา และในตอนนั้นมันเป็นประสบการณ์ที่ค่อนข้างช็อกและน่าทึ่งมากครับ