1 คะแนน โดย GN⁺ 1 시간 전 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • AlphaEvolve คือเอเจนต์เขียนโค้ดบนพื้นฐาน Gemini ที่เริ่มจากการออกแบบอัลกอริทึมขั้นสูง แล้วขยายขอบเขตการใช้งานไปสู่ปัญหาเปิดในคณิตศาสตร์และวิทยาการคอมพิวเตอร์ การเพิ่มประสิทธิภาพโครงสร้างพื้นฐานของ Google ตลอดจนโจทย์ด้านวิทยาศาสตร์และอุตสาหกรรม
  • ในจีโนมิกส์ AlphaEvolve ปรับปรุง DeepConsensus และช่วยลดข้อผิดพลาดในการตรวจจับความแปรผันได้ 30% ส่วนในโครงข่ายไฟฟ้า ได้ช่วยเพิ่มอัตราการค้นหาคำตอบที่ใช้งานได้ของปัญหา AC Optimal Power Flow จาก 14% เป็นมากกว่า 88%
  • ในวิทยาศาสตร์โลก AlphaEvolve ทำให้การปรับแต่งโมเดล Earth AI เป็นอัตโนมัติ และเพิ่มความแม่นยำรวมของการคาดการณ์ความเสี่ยงภัยพิบัติธรรมชาติ 20 หมวด เช่น ไฟป่า น้ำท่วม และพายุทอร์นาโด ได้ 5% ขณะที่ในฟิสิกส์ควอนตัม ระบบได้เสนอวงจรควอนตัมบน Willow quantum processor ที่มีข้อผิดพลาดต่ำกว่าเกณฑ์เดิม 10 เท่า
  • ในคณิตศาสตร์ AlphaEvolve มีส่วนช่วยร่วมกับ Terence Tao ในการแก้ ปัญหาของ Erdős รวมถึงปรับปรุง lower bound ของ Traveling Salesman Problem และ Ramsey Numbers อีกทั้งยังถูกใช้กับโมเดลประสาทวิทยาที่ตีความได้ เศรษฐศาสตร์จุลภาค วิทยาการเข้ารหัส ข้อมูลสังเคราะห์ และมาตรการลดความเสี่ยงด้าน AI
  • ในโครงสร้างพื้นฐานของ Google AlphaEvolve ถูกใช้กับการออกแบบ TPU รุ่นถัดไป นโยบายการแทนที่แคช heuristic การ compact ของ LSM-tree ใน Google Spanner และการเพิ่มประสิทธิภาพคอมไพเลอร์ ขณะที่การใช้งานเชิงพาณิชย์ทำให้ Klarna ฝึกโมเดลได้เร็วขึ้น 2 เท่า FM Logistic ปรับปรุงประสิทธิภาพเส้นทางได้ 10.4% และ Schrödinger เร่งความเร็วการฝึกและอนุมาน MLFF ได้ราว 4 เท่า

ผลกระทบต่อสังคมและความยั่งยืน

  • จีโนมิกส์

    • AlphaEvolve ถูกใช้เพื่อปรับปรุง DeepConsensus ซึ่งเป็นโมเดลแก้ไขข้อผิดพลาดของการจัดลำดับ DNA ที่พัฒนาโดย Google Research และช่วยลดข้อผิดพลาดในการตรวจจับความแปรผันได้ 30%
    • การปรับปรุงนี้ช่วยให้นักวิทยาศาสตร์ของ PacBio วิเคราะห์ข้อมูลพันธุกรรมได้แม่นยำขึ้นและมีต้นทุนต่ำลง
    • Aaron Wenger จาก PacBio ระบุว่าแนวทางแก้ปัญหาที่ AlphaEvolve ค้นพบนั้นช่วยเพิ่มความแม่นยำของอุปกรณ์จัดลำดับอย่างมีนัยสำคัญ และจะช่วยให้นักวิจัยค้นพบการกลายพันธุ์ก่อโรคที่เคยซ่อนอยู่ได้จากข้อมูลที่มีคุณภาพสูงขึ้น
  • การเพิ่มประสิทธิภาพโครงข่ายไฟฟ้า

    • AlphaEvolve ถูกนำไปใช้กับ AC Optimal Power Flow problem
    • โมเดล Graph Neural Network (GNN) ที่ผ่านการฝึกช่วยเพิ่มอัตราการหาคำตอบที่ใช้งานได้ของปัญหานี้จาก 14% เป็นมากกว่า 88%
    • ผลลัพธ์นี้ช่วยลดความจำเป็นของขั้นตอน post-processing ที่มีต้นทุนสูงในโครงข่ายไฟฟ้าลงอย่างมาก
  • วิทยาศาสตร์โลก

ความก้าวหน้าที่แนวหน้าของงานวิจัย

การปรับปรุงโครงสร้างพื้นฐาน AI

  • AlphaEvolve ได้ก้าวข้ามการทดสอบแบบ pilot และกลายเป็นองค์ประกอบหลักของโครงสร้างพื้นฐาน Google
  • ถูกใช้อย่างสม่ำเสมอเป็นเครื่องมือสำหรับปรับแต่งการออกแบบ TPU รุ่นถัดไป
  • ระบบค้นพบ นโยบายการแทนที่แคช ที่มีประสิทธิภาพมากขึ้น และทำงานที่เดิมต้องอาศัยความพยายามอย่างเข้มข้นจากมนุษย์เป็นเวลาหลายเดือนให้สำเร็จได้ภายใน สองวัน
  • Jeff Dean ระบุว่า AlphaEvolve เริ่มเพิ่มประสิทธิภาพฮาร์ดแวร์ในระดับล่างสุดของ AI stack แล้ว และได้เสนอการออกแบบวงจรที่แม้จะขัดกับสัญชาตญาณแต่มีประสิทธิภาพ ซึ่งถูกผสานเข้ากับซิลิคอนของ TPU รุ่นถัดไปโดยตรง
  • AlphaEvolve ยังช่วยปรับปรุง heuristic การ compact ของ Log-Structured Merge-tree ใน Google Spanner เพื่อเพิ่มประสิทธิภาพ
  • การเพิ่มประสิทธิภาพนี้ช่วยลด write amplification ซึ่งเป็นสัดส่วนของข้อมูลที่ถูกเขียนลงสตอเรจเมื่อเทียบกับคำขอเดิม ได้ 20%
  • AlphaEvolve ยังมอบข้อมูลเชิงลึกสำหรับ กลยุทธ์การเพิ่มประสิทธิภาพคอมไพเลอร์แบบใหม่ ที่ช่วยลดการใช้พื้นที่จัดเก็บของซอฟต์แวร์ลงเกือบ 9%

การขยายการใช้งานเชิงพาณิชย์

  • ร่วมกับ Google Cloud ขณะนี้มีการนำ AlphaEvolve ไปให้บริการแก่บริษัทเชิงพาณิชย์ในหลายอุตสาหกรรม
  • ในภาคบริการทางการเงิน Klarna ใช้ AlphaEvolve เพื่อเพิ่มประสิทธิภาพหนึ่งในโมเดล transformer ขนาดใหญ่ของบริษัท และเพิ่มความเร็วในการฝึกได้ 2 เท่า พร้อมปรับปรุงคุณภาพโมเดล
  • ในภาคการผลิตเซมิคอนดักเตอร์ Substrate นำ AlphaEvolve ไปใช้กับเฟรมเวิร์ก computational lithography ทำให้ความเร็วรันไทม์เพิ่มขึ้นหลายเท่า และสามารถรันการจำลองเซมิคอนดักเตอร์ขั้นสูงในขนาดที่ใหญ่ขึ้นได้
  • ในภาคโลจิสติกส์ FM Logistic ใช้ AlphaEvolve เพื่อเพิ่มประสิทธิภาพปัญหาเส้นทางที่ซับซ้อนอย่าง Traveling Salesman Problem และปรับปรุงประสิทธิภาพเส้นทางได้ 10.4% เมื่อเทียบกับวิธีแก้เดิมที่ถูกปรับแต่งอย่างมากแล้ว พร้อมลดระยะทางการเดินทางได้มากกว่า 15,000 กม. ต่อปี
  • ในภาคโฆษณาและการตลาด WPP ใช้ AlphaEvolve เพื่อปรับแต่งองค์ประกอบของโมเดล AI และจัดการข้อมูลแคมเปญที่ซับซ้อนและมีมิติสูง ส่งผลให้ความแม่นยำเพิ่มขึ้น 10% เมื่อเทียบกับการปรับแต่งโมเดลด้วยมือที่แข่งขันได้
  • ในภาควัสดุเชิงคำนวณและชีววิทยาศาสตร์ Schrödinger นำ AlphaEvolve ไปใช้และทำให้ทั้งการฝึกและการอนุมานของ Machine Learned Force Fields (MLFF) เร็วขึ้นราว 4 เท่า
  • Gabriel Marques จาก Schrödinger ระบุว่าการอนุมาน MLFF ที่เร็วขึ้นช่วยย่นวงจร R&D ในการค้นพบยา การออกแบบตัวเร่งปฏิกิริยา และการพัฒนาวัสดุ ทำให้บริษัทสามารถคัดกรองโมเลกุลผู้สมัครได้ภายในไม่กี่วันแทนที่จะใช้เวลาหลายเดือน และสร้างผลกระทบทางธุรกิจที่เป็นรูปธรรม

ทิศทางในอนาคต

  • ตลอดหนึ่งปีที่ผ่านมา AlphaEvolve กำลังก้าวขึ้นมาอย่างรวดเร็วในฐานะระบบอเนกประสงค์แบบทั่วไป
  • ระบบนี้แสดงให้เห็นว่าความก้าวหน้าครั้งต่อไปอาจถูกขับเคลื่อนโดยอัลกอริทึมที่สามารถเรียนรู้ วิวัฒน์ และเพิ่มประสิทธิภาพได้ด้วยตัวเอง
  • Google DeepMind ตั้งเป้าขยายความสามารถของ AlphaEvolve และนำไปประยุกต์ใช้กับความท้าทายภายนอกในวงกว้างยิ่งขึ้น

1 ความคิดเห็น

 
GN⁺ 1 시간 전
ความคิดเห็นจาก Hacker News
  • ทำให้นึกถึง "Don't fall into the anti-AI hype" ของ Antirez [0]
    ถ้าสรุปให้เหลือบรรทัดเดียว โมเดลพื้นฐานแบบนี้เก่งมากกับการทำให้พื้นที่ปัญหาที่อยู่ในระดับสูงมากแต่กำหนดได้ชัดเจนมากมีประสิทธิภาพขึ้น เช่น “ทำให้การคูณเมทริกซ์เร็วขึ้น” ส่วนของ Antirez คือ “ทำให้ Redis เร็วขึ้น”
    ปฏิกิริยาที่เห็นแตกเป็นสองทางคือ “ไม่มีทางใช้กับงานของฉันได้เลย” กับ “งานที่ต้องใช้เวลาหลายเดือนเสร็จในชั่วโมงเดียว” และผมว่าทั้งสองอย่างก็ถูกทั้งคู่ การที่ Antirez ยังทำผลงานต่อได้ก็น่ายินดี [1] แต่ผมก็คิดว่า งานส่วนใหญ่ที่คนทำกันซึ่งเต็มไปด้วยความรู้โดยนัย ยึดโยงกับระบบมนุษย์ และนิยามอย่างกำกวม เป็นสิ่งที่ LLM รับมือได้ยาก หรืออาจไม่ใช่งานที่มันถูกสร้างมาเพื่อทำตั้งแต่แรก
    [0] https://antirez.com/news/158
    [1] https://antirez.com/news/164

    • พูดตรง ๆ ตอนนี้ผมไม่ค่อยเชื่อแบบนั้นแล้ว โมเดลเริ่มจัดการกับ ความกำกวม ได้ดีพอสมควร และตอนนี้ Claude Code ก็ถามผมกลับเมื่อมีจุดที่กำกวม
      อีกไม่นานการประชุมทุกครั้งจะถูกอัดและถอดเสียง แล้วเก็บไว้ในที่ที่ทำดัชนีไว้อย่างดีเพื่อให้เอเจนต์ค้นหาได้เวลามันเจอความกำกวม ถ้ามันถามได้ตอนนี้ พอมีสภาพแวดล้อมแบบนั้นมันก็น่าจะค้นหาคำตอบเองได้ด้วย จริง ๆ ถ้ามี Notion/Confluence ที่จัดเอกสารดีพอ มันก็ทำแบบนั้นได้อยู่แล้ว เพียงแต่แทบไม่มีองค์กรไหนทำได้จริง
      การทำ reinforcement learning ให้มัน “ระบุความกำกวม” เก่งขึ้นคงยากกว่าการทำ reinforcement learning กับอัลกอริทึมด้านประสิทธิภาพ แต่ไม่ได้เป็นไปไม่ได้ และผมคิดว่ามันเริ่มเกิดขึ้นแล้ว ตอนนี้เหลือแค่เรื่องเวลา
    • Claude และตัวอื่น ๆ ค่อนข้างเก่งในการเอาอัลกอริทึมที่ผมคิดไว้ไปลงมือทำอย่างรวดเร็ว แต่ก็ยังต้องถาม คำถามควบคุม เยอะและต้องตรวจโค้ด
      มันยังไม่เก่งกับการคิดค้นอัลกอริทึมแปลกใหม่ที่ไม่ค่อยมีคนใช้ และมักชอบยัดทางลัดระยะสั้นที่น่าปวดหัวลงมา ตอนนี้มันยังเป็นเครื่องมือ ไม่ใช่ช่างฝีมือที่ใช้เครื่องมืออย่างชำนาญ เรื่องนี้คงจะค่อย ๆ เปลี่ยนไป และมุมที่อัลกอริทึมหายากยังชนะได้ก็คงเหลือน้อยลง
    • สุดท้ายแล้วดูเหมือนจะมีอยู่สองแบบคือ “ว้าว ปรับปรุงประสิทธิภาพได้ 1%” หรือ “เสียเวลาไปหนึ่งชั่วโมงกับการดีบัก API หลอน ๆ แบบโง่ ๆ”
      ยากมากที่จะตัดสินว่าโดยเฉลี่ยแล้วฝั่งไหนจะชนะ
    • แล้วถ้างานวิจัยที่มี AI ช่วยผลัก AI ให้ไปไกลกว่า LLM ล่ะ? คุณมองว่าเรื่องแบบนั้นเกิดขึ้นไม่ได้หรือ?
    • คำพูดที่ว่า “LLM ทำงานที่เต็มไปด้วยความรู้โดยนัย ยึดกับระบบมนุษย์ และนิยามกำกวมไม่ได้” มีโอกาสสูงมากที่จะดูสายตาสั้นอย่างยิ่งเมื่อถึงราว ๆ 2030
  • เหล่า CEO ด้าน AI ชอบพูดใหญ่โตว่า AI จะรักษามะเร็งได้ แต่ดูเหมือนมีแค่ DeepMind เท่านั้นที่ลงมือทำกับ ปัญหาวิจัย แบบนั้นอย่างจริงจัง
    ส่วน OpenAI กับ Anthropic โดยรวมดูเหมือนจะวิ่งตามรายได้จากองค์กรและรายได้จากงานเขียนโค้ดมากกว่า

    • Google สามารถอุดหนุนตัวเองได้จากเงินทุนก้อนใหญ่ในมือ แต่ OpenAI กับ Anthropic ยังอยู่ในสถานะที่ต้องยื่นมือขอเงินนักลงทุน
  • คนใน Google พอใจกับการใช้ เอเจนต์เขียนโค้ด Gemini แทน Claude Code หรือ Codex ไหม? ไม่ได้ประชดนะ อยากรู้จริง ๆ

    • ใช่ โมเดลดีและเร็ว และเครื่องมือภายในก็ไล่ตามมาทันแล้ว
      ยังมีเรื่อง UI/UX/เครื่องมือที่กำลังเก็บงานอยู่ การเชื่อมกับระบบควบคุมเวอร์ชัน และปัญหาลึก ๆ บางอย่างที่พูดยาก แต่ผมคิดว่าความไม่พอใจส่วนใหญ่เกี่ยวกับ ความเร็วของการเปลี่ยนแปลง มากกว่าความสามารถที่แท้จริง
      สิ่งที่น่าสนใจคือมีคนมีอิทธิพลภายในหลายคนยืนยันหนักแน่นว่าชอบโมเดล Flash มากกว่าโมเดล Pro ต่อให้เรื่องนี้จริงหรือไม่ก็ตาม มันก็น่าสนใจที่ตอนนี้เราไปถึงจุดที่โมเดลที่ “ดีกว่า” ไม่จำเป็นต้องมีประโยชน์กว่าเสมอไป และการเอาโมเดลที่เร็วกว่าไปรวมกับการปรับปรุง harness อาจเป็นจุดแลกเปลี่ยนที่ดีกว่า
    • ถ้าหมายถึง Gemini VS Code Extension มันแย่มากเมื่อเทียบกับ Claude Code หรือ Codex ไม่รู้เลยว่าปล่อยให้อยู่ในสภาพนี้ได้อย่างไร
      มีทั้ง timeout ต่อเนื่อง โหมดล้มเหลวแปลก ๆ และปัญหาที่ต้องเริ่มแชตใหม่ถ้าจะเปลี่ยนโหมด แต่เรื่องนี้ดูเหมือนเป็นปัญหาของ ส่วนขยาย มากกว่าตัวโมเดล Gemini เอง
      ถ้าตัดเรื่องฝั่ง VS Code extension ออกไป แล้วดูเฉพาะการแก้ปัญหาจริง ๆ โมเดลระดับเรือธงทั้งสามตัวเป็นเอเจนต์เขียนโค้ดที่ยอดเยี่ยมสำหรับงานของผม
    • การเขียนโค้ดไม่ใช่การใช้งานอย่างเดียวของ Gemini หรือโมเดลพวกนี้ และบทความนี้ก็ไม่ได้พูดถึงการเขียนโค้ด
      Gemini อาจไม่ใช่เอเจนต์เขียนโค้ดที่ดีที่สุด แต่กับงานอื่นมันอาจดีมากก็ได้
    • เดือนที่แล้ว Steve Yegge เหมือนจะสื่อว่าไม่ใช่แบบนั้น: https://xcancel.com/Steve_Yegge/status/2043747998740689171
    • จากที่คุยกับคนใน Google ดูเหมือนว่าคนส่วนใหญ่ไม่พอใจกับเอเจนต์ Gemini ภายใน และมองว่าช่วงหลังมันแย่ลงมาก
      เช่น มันลืมวิธีเรียกใช้เครื่องมือไปหมด เสียเวลาอยู่นาน สุดท้ายก็ยอมแพ้ หรือไม่ก็เมิน แนวทางสไตล์โค้ด ในไฟล์คล้าย AGENTS.md ไปโดยสิ้นเชิง
      ประสบการณ์ของผมกับการรัน Gemma 4 แบบโลคัลก็คล้ายกัน มันเรียกใช้เครื่องมือได้ครั้งสองครั้งแล้วหลังจากนั้นก็เริ่มเรียกแบบมั่ว ๆ เมื่อวานนี้เองผมยังเห็นมันนิยามเครื่องมืออย่าง read_file(start, end) ใหม่เป็น read_file(start, number_of_bytes) แล้วไม่ยอมแม้แต่จะยอมรับว่าตัวเองอาจผิด
  • ถ้า AI ปรับปรุงสถาปัตยกรรมที่มันรันอยู่ได้เอง หรืออย่างน้อยก็ปรับปรุงได้บางส่วน อย่างนั้นก็แปลว่า ภาวะเอกฐาน ใกล้เข้ามาตามที่หลายคนพูดใช่ไหม
    นอกจากการสร้างข้อมูลสังเคราะห์หรือการทดสอบโมเดลแล้ว มีตัวอย่างอื่นอีกไหมที่ใช้ AI เพื่อปรับปรุง LLM?

    • การที่ AI ทำให้ตัวเองเก่งขึ้น กับการปรับซอฟต์แวร์ที่ใช้ฝึกและรัน inference ของ AI ให้ดีขึ้นนั้นต่างกันราวกับ แอปเปิลกับส้ม
      ทรานส์ฟอร์เมอร์ที่มีประสิทธิภาพขึ้นก็แค่ทำให้ต้นทุนการรันต่ำลง
      ถ้าจะเรียกว่า “AI ปรับปรุง AI” จริง ๆ AI รุ่นหนึ่งต้องออกแบบ AI รุ่นถัดไปที่เก่งกว่ามันอย่างมีนัยสำคัญ ไม่ใช่แค่เร็วขึ้นหรือถูกลง แต่ต้องประมาณว่าสมองสัตว์เลื้อยคลานออกแบบสมองสัตว์เลี้ยงลูกด้วยนมได้เอง
      ต่อให้เอาไปต่อกับ harness ฉลาด ๆ อย่าง AlphaEvolve ผมก็ยังไม่คิดว่า LLM มีความสร้างสรรค์แบบนั้น เว้นเสียแต่ว่าสถาปัตยกรรมรุ่นถัดไปจะซ่อนอยู่แบบเห็น ๆ ในฐานะการประกอบชิ้นส่วนที่ LLM ถูกชี้นำให้ทำนายได้
      เส้นทางที่น่าจะเป็นไปได้กว่าคือ หลังจากนวัตกรรมจากมนุษย์พาเราเข้าใกล้ AGI ไปอีกหลายขั้น เราจะได้ AI ที่ทำ นวัตกรรมด้วยตนเอง ได้ แทนการสร้างชุดผสมจากพรอมป์ต์
    • มีนะ ตอนที่เปิดตัว AlphaEvolve ครั้งแรกเมื่อปีที่แล้ว เขาใช้โมเดล Gemini รุ่นก่อนหน้าปรับปรุง kernel ที่ใช้ฝึกโมเดลรุ่นนี้ ทำให้รันการฝึกได้เร็วขึ้น 1% ไม่ได้ใหญ่โตมาก แต่ก็ยังนับว่าเป็นผลลัพธ์
    • อันที่ไวรัลที่สุดช่วงหลังน่าจะเป็น https://github.com/karpathy/autoresearch
    • การปรับปรุงตัวเองไม่ได้แปลว่าต้องเกิดภาวะเอกฐานเสมอไปไม่ใช่หรือ?
      อาจมีข้อจำกัดที่รุนแรงพอจะทำให้ภาวะเอกฐานเป็นไปไม่ได้ หรือกรอบเวลาอาจยาวเกินไปจนไม่ใช่เรื่องใช้งานได้จริงก็ได้ไม่ใช่หรือ?
    • ส่วนตัวผมคิดว่า “AI ปรับปรุงตัวเอง” คือจุดที่ต้องจับตาในปี 2027
      ตอนนี้แล็บ AI ใหญ่ทุกแห่งกำลังเร่งโปรเจกต์เอเจนต์วิจัย โดยเฉพาะเอเจนต์เพื่อปรับปรุง AI เอง และคาดว่าปีนี้หลายโปรเจกต์จะพ้นระยะทดลอง
      ปีหน้ามันน่าจะเริ่มทำงานจริงได้เยอะ และผมคิดว่าเราจะเห็นการเปลี่ยนแปลงเชิงสถาปัตยกรรมครั้งใหญ่ครั้งแรกที่ AI มีส่วนร่วมคิดค้น
  • จะต้องฟังเรื่องปัญหา Erdős อีกกี่รอบกันนะ :) ตอนแรกฟังดูเหมือนความสำเร็จอันยิ่งใหญ่ของมนุษยชาติ แต่พอเวลาผ่านไปมันก็วนกลับมาอีกเรื่อย ๆ

    • เหลือ ปัญหา Erdős ที่ยังเปิดอยู่แค่ราว 700 ข้อเท่านั้น พอแก้หมดก็คงได้พักกันเสียที
  • ระหว่างนั้น Gemini CLI ก็พังมาหลายเดือนแล้ว
    https://github.com/google-gemini/gemini-cli/issues/22141

  • อยากให้ Google โฟกัสกับการ เปิดตัวอย่างเป็นทางการ ของโมเดล Gemini 3.x และมีความจุเพียงพอจนไม่ต้องมาสู้กับ error 429 ตลอดเวลา
    หลายครั้งมันให้ความรู้สึกเหมือนเขาไม่อยากให้คนพัฒนาแอปสำหรับลูกค้าองค์กรบน Vertex API ทั้งที่โมเดลทำงานอย่างการวิเคราะห์เอกสารได้ยอดเยี่ยมมาก เลยน่าเสียดายมาก

    • ใช้อยู่บนแพ็กฟรีหรือเปล่า? บนแพ็กฟรีผมเจอ 429 บ่อยกว่ามาก
  • งานตระกูล *Evolve ทุกชิ้นให้ผลลัพธ์ที่น่าประทับใจมาก แต่พอดูข้อมูลที่เปิดเผยแล้วผมรู้สึกว่าความสนใจมักเทไปทางฝั่ง LLM กับ AI
    ทั้งที่ผลลัพธ์ที่รายงานออกมาแทบทั้งหมดคือผลจากสภาพแวดล้อมที่ออกแบบมาอย่างดีมากเพื่อให้ LLM กับ อัลกอริทึมเชิงวิวัฒนาการ ทำงานได้ดี
    งานนี้เป็นตัวอย่างที่ดีและน่าอ่าน
    Magellan: Autonomous Discovery of Novel Compiler Optimization Heuristics with AlphaEvolve
    https://arxiv.org/abs/2601.21096

  • เป็นวิธีแก้ปัญหาที่เรียบง่ายมากสำหรับการปรับปรุงอัลกอริทึม ถ้ามีอะไรแบบนี้ตอนที่ผมทำ activation engineering เมื่อหลายปีก่อนก็คงดี: https://blog.n.ichol.ai/llm-activation-engineering-an-easy-f...
    จะเข้าถึง AlphaEvolve ได้อย่างไร?

    • ก็แค่โพสต์อวดของเท่านั้นเอง ความหมายคือถ้าไม่เป็น บริษัทพันล้านดอลลาร์ ก็ออกไปซะ
  • ปัญหาที่ผมเจอกับ Claude คือมันมักทำโค้ดและผลลัพธ์ให้พองเกินความจำเป็นแม้จะเป็นงานง่าย ๆ และบางครั้งก็ใช้ไม่ได้จริง
    ส่วน Gemini ค่อนข้างหาจุดสมดุลได้ดี โดยให้วิธีแก้ที่ใช้ได้จริงด้วยโค้ดเท่าที่จำเป็นและความซับซ้อนต่ำที่สุด จึงดูแลง่ายกว่า
    ทุกวันนี้ผมหันไปหา Claude ก็แค่เวลาอยากได้โค้ดฝั่งฟรอนต์เอนด์ โดยเฉพาะ HTML แม้ตรงนั้นมันก็ยังให้ CSS มาเยอะเกินจนกินขนาดไฟล์ไปราว 60% แต่ผมก็ยอมแลกกับไฟล์ที่ใหญ่ขึ้นเพราะมันให้ความรู้สึกว่าเกลางานมาดีกว่าเล็กน้อย