- AlphaEvolve คือเอเจนต์เขียนโค้ดบนพื้นฐาน Gemini ที่เริ่มจากการออกแบบอัลกอริทึมขั้นสูง แล้วขยายขอบเขตการใช้งานไปสู่ปัญหาเปิดในคณิตศาสตร์และวิทยาการคอมพิวเตอร์ การเพิ่มประสิทธิภาพโครงสร้างพื้นฐานของ Google ตลอดจนโจทย์ด้านวิทยาศาสตร์และอุตสาหกรรม
- ในจีโนมิกส์ AlphaEvolve ปรับปรุง DeepConsensus และช่วยลดข้อผิดพลาดในการตรวจจับความแปรผันได้ 30% ส่วนในโครงข่ายไฟฟ้า ได้ช่วยเพิ่มอัตราการค้นหาคำตอบที่ใช้งานได้ของปัญหา AC Optimal Power Flow จาก 14% เป็นมากกว่า 88%
- ในวิทยาศาสตร์โลก AlphaEvolve ทำให้การปรับแต่งโมเดล Earth AI เป็นอัตโนมัติ และเพิ่มความแม่นยำรวมของการคาดการณ์ความเสี่ยงภัยพิบัติธรรมชาติ 20 หมวด เช่น ไฟป่า น้ำท่วม และพายุทอร์นาโด ได้ 5% ขณะที่ในฟิสิกส์ควอนตัม ระบบได้เสนอวงจรควอนตัมบน Willow quantum processor ที่มีข้อผิดพลาดต่ำกว่าเกณฑ์เดิม 10 เท่า
- ในคณิตศาสตร์ AlphaEvolve มีส่วนช่วยร่วมกับ Terence Tao ในการแก้ ปัญหาของ Erdős รวมถึงปรับปรุง lower bound ของ Traveling Salesman Problem และ Ramsey Numbers อีกทั้งยังถูกใช้กับโมเดลประสาทวิทยาที่ตีความได้ เศรษฐศาสตร์จุลภาค วิทยาการเข้ารหัส ข้อมูลสังเคราะห์ และมาตรการลดความเสี่ยงด้าน AI
- ในโครงสร้างพื้นฐานของ Google AlphaEvolve ถูกใช้กับการออกแบบ TPU รุ่นถัดไป นโยบายการแทนที่แคช heuristic การ compact ของ LSM-tree ใน Google Spanner และการเพิ่มประสิทธิภาพคอมไพเลอร์ ขณะที่การใช้งานเชิงพาณิชย์ทำให้ Klarna ฝึกโมเดลได้เร็วขึ้น 2 เท่า FM Logistic ปรับปรุงประสิทธิภาพเส้นทางได้ 10.4% และ Schrödinger เร่งความเร็วการฝึกและอนุมาน MLFF ได้ราว 4 เท่า
ผลกระทบต่อสังคมและความยั่งยืน
-
จีโนมิกส์
- AlphaEvolve ถูกใช้เพื่อปรับปรุง DeepConsensus ซึ่งเป็นโมเดลแก้ไขข้อผิดพลาดของการจัดลำดับ DNA ที่พัฒนาโดย Google Research และช่วยลดข้อผิดพลาดในการตรวจจับความแปรผันได้ 30%
- การปรับปรุงนี้ช่วยให้นักวิทยาศาสตร์ของ PacBio วิเคราะห์ข้อมูลพันธุกรรมได้แม่นยำขึ้นและมีต้นทุนต่ำลง
- Aaron Wenger จาก PacBio ระบุว่าแนวทางแก้ปัญหาที่ AlphaEvolve ค้นพบนั้นช่วยเพิ่มความแม่นยำของอุปกรณ์จัดลำดับอย่างมีนัยสำคัญ และจะช่วยให้นักวิจัยค้นพบการกลายพันธุ์ก่อโรคที่เคยซ่อนอยู่ได้จากข้อมูลที่มีคุณภาพสูงขึ้น
-
การเพิ่มประสิทธิภาพโครงข่ายไฟฟ้า
- AlphaEvolve ถูกนำไปใช้กับ AC Optimal Power Flow problem
- โมเดล Graph Neural Network (GNN) ที่ผ่านการฝึกช่วยเพิ่มอัตราการหาคำตอบที่ใช้งานได้ของปัญหานี้จาก 14% เป็นมากกว่า 88%
- ผลลัพธ์นี้ช่วยลดความจำเป็นของขั้นตอน post-processing ที่มีต้นทุนสูงในโครงข่ายไฟฟ้าลงอย่างมาก
-
วิทยาศาสตร์โลก
- AlphaEvolve ถูกใช้เพื่อแปลงข้อมูลภูมิสารสนเทศที่ซับซ้อนให้กลายเป็นข้อมูลเชิงลึกที่เชื่อถือได้และนำไปปฏิบัติได้มากขึ้น
- ด้วยการทำให้การปรับแต่งโมเดล Earth AI เป็นอัตโนมัติ จึงช่วยเพิ่ม ความแม่นยำรวมของการคาดการณ์ความเสี่ยงภัยพิบัติธรรมชาติ ที่รวม 20 หมวด เช่น ไฟป่า น้ำท่วม และพายุทอร์นาโด ได้ 5%
ความก้าวหน้าที่แนวหน้าของงานวิจัย
-
ฟิสิกส์ควอนตัม
- การเพิ่มประสิทธิภาพของ AlphaEvolve ทำให้ Willow quantum processor ของ Google สามารถรันการจำลองโมเลกุลที่ซับซ้อนได้
- ระบบได้เสนอ วงจรควอนตัมที่มีข้อผิดพลาดต่ำกว่า 10 เท่า เมื่อเทียบกับ baseline การเพิ่มประสิทธิภาพแบบเดิม และมีส่วนช่วยโดยตรงต่อการสาธิตการทดลองคอมพิวเตอร์ควอนตัมรูปแบบใหม่เป็นครั้งแรก
- ความสำเร็จนี้แสดงให้เห็นว่า AlphaEvolve อาจนำไปสู่อนาคตที่สามารถค้นพบอัลกอริทึมที่ก้าวข้ามขีดความสามารถของคอมพิวเตอร์แบบดั้งเดิมได้
-
คณิตศาสตร์
- AlphaEvolve มีส่วนช่วยร่วมกับนักคณิตศาสตร์อย่าง Terence Tao ในการแก้ ปัญหาของ Erdős
- Terence Tao ระบุว่าเครื่องมืออย่าง AlphaEvolve ช่วยพัฒนาสัญชาตญาณได้มาก โดยเฉพาะในปัญหาการเพิ่มประสิทธิภาพ ผ่านการทดสอบตัวอย่างโต้แย้งของอสมการที่เป็นไปได้อย่างรวดเร็ว หรือการยืนยันความเชื่อเกี่ยวกับวัตถุที่ให้ค่าสุดขั้ว ทำให้ค้นหาบทพิสูจน์ที่เข้มงวดได้ง่ายขึ้น
- AlphaEvolve ยังทำลายสถิติด้วยการปรับปรุง lower bound ของโจทย์คณิตศาสตร์คลาสสิกอย่าง Traveling Salesman Problem และ Ramsey Numbers
-
สาขาวิจัยอื่น ๆ
- ความสามารถในการค้นพบด้วยตนเองของ AlphaEvolve กำลังขับเคลื่อนนวัตกรรมแบบขนานในหลายสาขา
- ถูกใช้กับ การค้นพบโมเดลประสาทวิทยาที่ตีความได้, การพิสูจน์ขอบเขตตลาดใหม่ในเศรษฐศาสตร์จุลภาค และความก้าวหน้าด้าน องค์ประกอบของโครงข่ายประสาท
- ยังถูกนำไปใช้กับ วิทยาการเข้ารหัสเพื่อความเป็นส่วนตัวของผู้ใช้, การสร้างข้อมูลสังเคราะห์ และ มาตรการลดความเสี่ยงด้านความปลอดภัยที่สำคัญ สำหรับโมเดล frontier AI
- ตัวอย่างที่ AlphaEvolve ปรับให้เหมาะสม กับอินสแตนซ์ของ “Tammes problem” และแนวทางแก้ปัญหาที่เป็นไปได้ของโจทย์อื่น ๆ สามารถดูได้ใน Gallery แบบสาธารณะ
การปรับปรุงโครงสร้างพื้นฐาน AI
- AlphaEvolve ได้ก้าวข้ามการทดสอบแบบ pilot และกลายเป็นองค์ประกอบหลักของโครงสร้างพื้นฐาน Google
- ถูกใช้อย่างสม่ำเสมอเป็นเครื่องมือสำหรับปรับแต่งการออกแบบ TPU รุ่นถัดไป
- ระบบค้นพบ นโยบายการแทนที่แคช ที่มีประสิทธิภาพมากขึ้น และทำงานที่เดิมต้องอาศัยความพยายามอย่างเข้มข้นจากมนุษย์เป็นเวลาหลายเดือนให้สำเร็จได้ภายใน สองวัน
- Jeff Dean ระบุว่า AlphaEvolve เริ่มเพิ่มประสิทธิภาพฮาร์ดแวร์ในระดับล่างสุดของ AI stack แล้ว และได้เสนอการออกแบบวงจรที่แม้จะขัดกับสัญชาตญาณแต่มีประสิทธิภาพ ซึ่งถูกผสานเข้ากับซิลิคอนของ TPU รุ่นถัดไปโดยตรง
- AlphaEvolve ยังช่วยปรับปรุง heuristic การ compact ของ Log-Structured Merge-tree ใน Google Spanner เพื่อเพิ่มประสิทธิภาพ
- การเพิ่มประสิทธิภาพนี้ช่วยลด write amplification ซึ่งเป็นสัดส่วนของข้อมูลที่ถูกเขียนลงสตอเรจเมื่อเทียบกับคำขอเดิม ได้ 20%
- AlphaEvolve ยังมอบข้อมูลเชิงลึกสำหรับ กลยุทธ์การเพิ่มประสิทธิภาพคอมไพเลอร์แบบใหม่ ที่ช่วยลดการใช้พื้นที่จัดเก็บของซอฟต์แวร์ลงเกือบ 9%
การขยายการใช้งานเชิงพาณิชย์
- ร่วมกับ Google Cloud ขณะนี้มีการนำ AlphaEvolve ไปให้บริการแก่บริษัทเชิงพาณิชย์ในหลายอุตสาหกรรม
- ในภาคบริการทางการเงิน Klarna ใช้ AlphaEvolve เพื่อเพิ่มประสิทธิภาพหนึ่งในโมเดล transformer ขนาดใหญ่ของบริษัท และเพิ่มความเร็วในการฝึกได้ 2 เท่า พร้อมปรับปรุงคุณภาพโมเดล
- ในภาคการผลิตเซมิคอนดักเตอร์ Substrate นำ AlphaEvolve ไปใช้กับเฟรมเวิร์ก computational lithography ทำให้ความเร็วรันไทม์เพิ่มขึ้นหลายเท่า และสามารถรันการจำลองเซมิคอนดักเตอร์ขั้นสูงในขนาดที่ใหญ่ขึ้นได้
- ในภาคโลจิสติกส์ FM Logistic ใช้ AlphaEvolve เพื่อเพิ่มประสิทธิภาพปัญหาเส้นทางที่ซับซ้อนอย่าง Traveling Salesman Problem และปรับปรุงประสิทธิภาพเส้นทางได้ 10.4% เมื่อเทียบกับวิธีแก้เดิมที่ถูกปรับแต่งอย่างมากแล้ว พร้อมลดระยะทางการเดินทางได้มากกว่า 15,000 กม. ต่อปี
- ในภาคโฆษณาและการตลาด WPP ใช้ AlphaEvolve เพื่อปรับแต่งองค์ประกอบของโมเดล AI และจัดการข้อมูลแคมเปญที่ซับซ้อนและมีมิติสูง ส่งผลให้ความแม่นยำเพิ่มขึ้น 10% เมื่อเทียบกับการปรับแต่งโมเดลด้วยมือที่แข่งขันได้
- ในภาควัสดุเชิงคำนวณและชีววิทยาศาสตร์ Schrödinger นำ AlphaEvolve ไปใช้และทำให้ทั้งการฝึกและการอนุมานของ Machine Learned Force Fields (MLFF) เร็วขึ้นราว 4 เท่า
- Gabriel Marques จาก Schrödinger ระบุว่าการอนุมาน MLFF ที่เร็วขึ้นช่วยย่นวงจร R&D ในการค้นพบยา การออกแบบตัวเร่งปฏิกิริยา และการพัฒนาวัสดุ ทำให้บริษัทสามารถคัดกรองโมเลกุลผู้สมัครได้ภายในไม่กี่วันแทนที่จะใช้เวลาหลายเดือน และสร้างผลกระทบทางธุรกิจที่เป็นรูปธรรม
ทิศทางในอนาคต
- ตลอดหนึ่งปีที่ผ่านมา AlphaEvolve กำลังก้าวขึ้นมาอย่างรวดเร็วในฐานะระบบอเนกประสงค์แบบทั่วไป
- ระบบนี้แสดงให้เห็นว่าความก้าวหน้าครั้งต่อไปอาจถูกขับเคลื่อนโดยอัลกอริทึมที่สามารถเรียนรู้ วิวัฒน์ และเพิ่มประสิทธิภาพได้ด้วยตัวเอง
- Google DeepMind ตั้งเป้าขยายความสามารถของ AlphaEvolve และนำไปประยุกต์ใช้กับความท้าทายภายนอกในวงกว้างยิ่งขึ้น
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
ทำให้นึกถึง "Don't fall into the anti-AI hype" ของ Antirez [0]
ถ้าสรุปให้เหลือบรรทัดเดียว โมเดลพื้นฐานแบบนี้เก่งมากกับการทำให้พื้นที่ปัญหาที่อยู่ในระดับสูงมากแต่กำหนดได้ชัดเจนมากมีประสิทธิภาพขึ้น เช่น “ทำให้การคูณเมทริกซ์เร็วขึ้น” ส่วนของ Antirez คือ “ทำให้ Redis เร็วขึ้น”
ปฏิกิริยาที่เห็นแตกเป็นสองทางคือ “ไม่มีทางใช้กับงานของฉันได้เลย” กับ “งานที่ต้องใช้เวลาหลายเดือนเสร็จในชั่วโมงเดียว” และผมว่าทั้งสองอย่างก็ถูกทั้งคู่ การที่ Antirez ยังทำผลงานต่อได้ก็น่ายินดี [1] แต่ผมก็คิดว่า งานส่วนใหญ่ที่คนทำกันซึ่งเต็มไปด้วยความรู้โดยนัย ยึดโยงกับระบบมนุษย์ และนิยามอย่างกำกวม เป็นสิ่งที่ LLM รับมือได้ยาก หรืออาจไม่ใช่งานที่มันถูกสร้างมาเพื่อทำตั้งแต่แรก
[0] https://antirez.com/news/158
[1] https://antirez.com/news/164
อีกไม่นานการประชุมทุกครั้งจะถูกอัดและถอดเสียง แล้วเก็บไว้ในที่ที่ทำดัชนีไว้อย่างดีเพื่อให้เอเจนต์ค้นหาได้เวลามันเจอความกำกวม ถ้ามันถามได้ตอนนี้ พอมีสภาพแวดล้อมแบบนั้นมันก็น่าจะค้นหาคำตอบเองได้ด้วย จริง ๆ ถ้ามี Notion/Confluence ที่จัดเอกสารดีพอ มันก็ทำแบบนั้นได้อยู่แล้ว เพียงแต่แทบไม่มีองค์กรไหนทำได้จริง
การทำ reinforcement learning ให้มัน “ระบุความกำกวม” เก่งขึ้นคงยากกว่าการทำ reinforcement learning กับอัลกอริทึมด้านประสิทธิภาพ แต่ไม่ได้เป็นไปไม่ได้ และผมคิดว่ามันเริ่มเกิดขึ้นแล้ว ตอนนี้เหลือแค่เรื่องเวลา
มันยังไม่เก่งกับการคิดค้นอัลกอริทึมแปลกใหม่ที่ไม่ค่อยมีคนใช้ และมักชอบยัดทางลัดระยะสั้นที่น่าปวดหัวลงมา ตอนนี้มันยังเป็นเครื่องมือ ไม่ใช่ช่างฝีมือที่ใช้เครื่องมืออย่างชำนาญ เรื่องนี้คงจะค่อย ๆ เปลี่ยนไป และมุมที่อัลกอริทึมหายากยังชนะได้ก็คงเหลือน้อยลง
ยากมากที่จะตัดสินว่าโดยเฉลี่ยแล้วฝั่งไหนจะชนะ
เหล่า CEO ด้าน AI ชอบพูดใหญ่โตว่า AI จะรักษามะเร็งได้ แต่ดูเหมือนมีแค่ DeepMind เท่านั้นที่ลงมือทำกับ ปัญหาวิจัย แบบนั้นอย่างจริงจัง
ส่วน OpenAI กับ Anthropic โดยรวมดูเหมือนจะวิ่งตามรายได้จากองค์กรและรายได้จากงานเขียนโค้ดมากกว่า
คนใน Google พอใจกับการใช้ เอเจนต์เขียนโค้ด Gemini แทน Claude Code หรือ Codex ไหม? ไม่ได้ประชดนะ อยากรู้จริง ๆ
ยังมีเรื่อง UI/UX/เครื่องมือที่กำลังเก็บงานอยู่ การเชื่อมกับระบบควบคุมเวอร์ชัน และปัญหาลึก ๆ บางอย่างที่พูดยาก แต่ผมคิดว่าความไม่พอใจส่วนใหญ่เกี่ยวกับ ความเร็วของการเปลี่ยนแปลง มากกว่าความสามารถที่แท้จริง
สิ่งที่น่าสนใจคือมีคนมีอิทธิพลภายในหลายคนยืนยันหนักแน่นว่าชอบโมเดล Flash มากกว่าโมเดล Pro ต่อให้เรื่องนี้จริงหรือไม่ก็ตาม มันก็น่าสนใจที่ตอนนี้เราไปถึงจุดที่โมเดลที่ “ดีกว่า” ไม่จำเป็นต้องมีประโยชน์กว่าเสมอไป และการเอาโมเดลที่เร็วกว่าไปรวมกับการปรับปรุง harness อาจเป็นจุดแลกเปลี่ยนที่ดีกว่า
มีทั้ง timeout ต่อเนื่อง โหมดล้มเหลวแปลก ๆ และปัญหาที่ต้องเริ่มแชตใหม่ถ้าจะเปลี่ยนโหมด แต่เรื่องนี้ดูเหมือนเป็นปัญหาของ ส่วนขยาย มากกว่าตัวโมเดล Gemini เอง
ถ้าตัดเรื่องฝั่ง VS Code extension ออกไป แล้วดูเฉพาะการแก้ปัญหาจริง ๆ โมเดลระดับเรือธงทั้งสามตัวเป็นเอเจนต์เขียนโค้ดที่ยอดเยี่ยมสำหรับงานของผม
Gemini อาจไม่ใช่เอเจนต์เขียนโค้ดที่ดีที่สุด แต่กับงานอื่นมันอาจดีมากก็ได้
เช่น มันลืมวิธีเรียกใช้เครื่องมือไปหมด เสียเวลาอยู่นาน สุดท้ายก็ยอมแพ้ หรือไม่ก็เมิน แนวทางสไตล์โค้ด ในไฟล์คล้าย AGENTS.md ไปโดยสิ้นเชิง
ประสบการณ์ของผมกับการรัน Gemma 4 แบบโลคัลก็คล้ายกัน มันเรียกใช้เครื่องมือได้ครั้งสองครั้งแล้วหลังจากนั้นก็เริ่มเรียกแบบมั่ว ๆ เมื่อวานนี้เองผมยังเห็นมันนิยามเครื่องมืออย่าง read_file(start, end) ใหม่เป็น read_file(start, number_of_bytes) แล้วไม่ยอมแม้แต่จะยอมรับว่าตัวเองอาจผิด
ถ้า AI ปรับปรุงสถาปัตยกรรมที่มันรันอยู่ได้เอง หรืออย่างน้อยก็ปรับปรุงได้บางส่วน อย่างนั้นก็แปลว่า ภาวะเอกฐาน ใกล้เข้ามาตามที่หลายคนพูดใช่ไหม
นอกจากการสร้างข้อมูลสังเคราะห์หรือการทดสอบโมเดลแล้ว มีตัวอย่างอื่นอีกไหมที่ใช้ AI เพื่อปรับปรุง LLM?
ทรานส์ฟอร์เมอร์ที่มีประสิทธิภาพขึ้นก็แค่ทำให้ต้นทุนการรันต่ำลง
ถ้าจะเรียกว่า “AI ปรับปรุง AI” จริง ๆ AI รุ่นหนึ่งต้องออกแบบ AI รุ่นถัดไปที่เก่งกว่ามันอย่างมีนัยสำคัญ ไม่ใช่แค่เร็วขึ้นหรือถูกลง แต่ต้องประมาณว่าสมองสัตว์เลื้อยคลานออกแบบสมองสัตว์เลี้ยงลูกด้วยนมได้เอง
ต่อให้เอาไปต่อกับ harness ฉลาด ๆ อย่าง AlphaEvolve ผมก็ยังไม่คิดว่า LLM มีความสร้างสรรค์แบบนั้น เว้นเสียแต่ว่าสถาปัตยกรรมรุ่นถัดไปจะซ่อนอยู่แบบเห็น ๆ ในฐานะการประกอบชิ้นส่วนที่ LLM ถูกชี้นำให้ทำนายได้
เส้นทางที่น่าจะเป็นไปได้กว่าคือ หลังจากนวัตกรรมจากมนุษย์พาเราเข้าใกล้ AGI ไปอีกหลายขั้น เราจะได้ AI ที่ทำ นวัตกรรมด้วยตนเอง ได้ แทนการสร้างชุดผสมจากพรอมป์ต์
อาจมีข้อจำกัดที่รุนแรงพอจะทำให้ภาวะเอกฐานเป็นไปไม่ได้ หรือกรอบเวลาอาจยาวเกินไปจนไม่ใช่เรื่องใช้งานได้จริงก็ได้ไม่ใช่หรือ?
ตอนนี้แล็บ AI ใหญ่ทุกแห่งกำลังเร่งโปรเจกต์เอเจนต์วิจัย โดยเฉพาะเอเจนต์เพื่อปรับปรุง AI เอง และคาดว่าปีนี้หลายโปรเจกต์จะพ้นระยะทดลอง
ปีหน้ามันน่าจะเริ่มทำงานจริงได้เยอะ และผมคิดว่าเราจะเห็นการเปลี่ยนแปลงเชิงสถาปัตยกรรมครั้งใหญ่ครั้งแรกที่ AI มีส่วนร่วมคิดค้น
จะต้องฟังเรื่องปัญหา Erdős อีกกี่รอบกันนะ :) ตอนแรกฟังดูเหมือนความสำเร็จอันยิ่งใหญ่ของมนุษยชาติ แต่พอเวลาผ่านไปมันก็วนกลับมาอีกเรื่อย ๆ
ระหว่างนั้น Gemini CLI ก็พังมาหลายเดือนแล้ว
https://github.com/google-gemini/gemini-cli/issues/22141
อยากให้ Google โฟกัสกับการ เปิดตัวอย่างเป็นทางการ ของโมเดล Gemini 3.x และมีความจุเพียงพอจนไม่ต้องมาสู้กับ error 429 ตลอดเวลา
หลายครั้งมันให้ความรู้สึกเหมือนเขาไม่อยากให้คนพัฒนาแอปสำหรับลูกค้าองค์กรบน Vertex API ทั้งที่โมเดลทำงานอย่างการวิเคราะห์เอกสารได้ยอดเยี่ยมมาก เลยน่าเสียดายมาก
งานตระกูล *Evolve ทุกชิ้นให้ผลลัพธ์ที่น่าประทับใจมาก แต่พอดูข้อมูลที่เปิดเผยแล้วผมรู้สึกว่าความสนใจมักเทไปทางฝั่ง LLM กับ AI
ทั้งที่ผลลัพธ์ที่รายงานออกมาแทบทั้งหมดคือผลจากสภาพแวดล้อมที่ออกแบบมาอย่างดีมากเพื่อให้ LLM กับ อัลกอริทึมเชิงวิวัฒนาการ ทำงานได้ดี
งานนี้เป็นตัวอย่างที่ดีและน่าอ่าน
Magellan: Autonomous Discovery of Novel Compiler Optimization Heuristics with AlphaEvolve
https://arxiv.org/abs/2601.21096
เป็นวิธีแก้ปัญหาที่เรียบง่ายมากสำหรับการปรับปรุงอัลกอริทึม ถ้ามีอะไรแบบนี้ตอนที่ผมทำ activation engineering เมื่อหลายปีก่อนก็คงดี: https://blog.n.ichol.ai/llm-activation-engineering-an-easy-f...
จะเข้าถึง AlphaEvolve ได้อย่างไร?
ปัญหาที่ผมเจอกับ Claude คือมันมักทำโค้ดและผลลัพธ์ให้พองเกินความจำเป็นแม้จะเป็นงานง่าย ๆ และบางครั้งก็ใช้ไม่ได้จริง
ส่วน Gemini ค่อนข้างหาจุดสมดุลได้ดี โดยให้วิธีแก้ที่ใช้ได้จริงด้วยโค้ดเท่าที่จำเป็นและความซับซ้อนต่ำที่สุด จึงดูแลง่ายกว่า
ทุกวันนี้ผมหันไปหา Claude ก็แค่เวลาอยากได้โค้ดฝั่งฟรอนต์เอนด์ โดยเฉพาะ HTML แม้ตรงนั้นมันก็ยังให้ CSS มาเยอะเกินจนกินขนาดไฟล์ไปราว 60% แต่ผมก็ยอมแลกกับไฟล์ที่ใหญ่ขึ้นเพราะมันให้ความรู้สึกว่าเกลางานมาดีกว่าเล็กน้อย