1 คะแนน โดย GN⁺ 4 일 전 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • ปัญหาเก่าแก่ที่ว่าค่าต่ำสุดของ Erdős sum ของ primitive set เท่ากับ 1 และจะเข้าใกล้ค่านั้นเมื่อสมาชิกของเซตมีค่าเข้าใกล้อนันต์ ได้รับการยอมรับว่าได้รับการแก้ไขแล้วด้วยวิธีพิสูจน์ที่สร้างโดย GPT-5.4 Pro
  • วิธีพิสูจน์นี้เป็นผลงานที่ Liam Price ได้มาจากการป้อนพรอมป์ต์เพียงครั้งเดียวแล้วนำไปโพสต์บน erdosproblems.com จากนั้นก็ได้รับความสนใจอย่างรวดเร็วหลัง Kevin Barreto และผู้เชี่ยวชาญเข้ามาตรวจสอบ
  • การพิสูจน์ครั้งนี้เดินตามเส้นทางที่ต่างจากแนวทางแรกที่ผู้คนมักเลือกใช้ และโดดเด่นตรงที่นำ สูตรที่เป็นที่รู้จักในสาขาที่เกี่ยวข้อง มาผสานกับปัญหานี้อย่างคาดไม่ถึง
  • ต้นฉบับการพิสูจน์ของ ChatGPT ยังหยาบมากเกินกว่าจะใช้ได้ตรง ๆ และต้องอาศัยผู้เชี่ยวชาญคัดแยกสาระสำคัญ ทำความเข้าใจ แล้วเรียบเรียงใหม่ให้อยู่ในรูปที่สั้นและเป็นระเบียบกว่าเดิม
  • ข้อเท็จจริงที่ว่า แนวทางใหม่ของ LLM ใช้ได้ผลกับปัญหาที่แม้แต่นักคณิตศาสตร์ชื่อดังก็ยังแก้ไม่ได้ อาจเปลี่ยนมุมมองต่อการมองโครงสร้างของจำนวนขนาดใหญ่และการจัดกลุ่มปัญหาลักษณะคล้ายกัน

ปัญหาและวิธีแก้

  • primitive set หมายถึงเซตของจำนวนเต็มที่ไม่มีจำนวนใดในเซตหารด้วยจำนวนอื่นในเซตลงตัว
    • Erdős ได้ให้นิยาม Erdős sum สำหรับเซตประเภทนี้ และมองว่าคะแนนนี้จะลดลงเมื่อค่าของจำนวนในเซตใหญ่ขึ้น
    • มีข้อคาดเดามาอย่างยาวนานว่าค่าต่ำสุดของมันเท่ากับ 1 พอดี และจะเข้าใกล้ค่านั้นเมื่อสมาชิกของเซตมีค่าเข้าใกล้อนันต์
  • วิธีแก้ครั้งนี้ เป็นผลงานที่ Liam Price ได้รับจาก GPT-5.4 Pro ด้วยพรอมป์ต์เพียงครั้งเดียว แล้วนำไปโพสต์บน erdosproblems.com
    • Price ลองป้อนปัญหา Erdős ให้ AI โดยไม่รู้ประวัติความเป็นมาของโจทย์ และได้วิธีแก้ที่ดูเหมือนจะถูกต้องกลับมา
    • หลังจากนั้นเขาตรวจสอบร่วมกับ Kevin Barreto และผู้เชี่ยวชาญที่ได้รับการติดต่อก็หันมาสนใจอย่างรวดเร็ว
  • ก่อนหน้านี้ก็เคยมีรายงานว่า AI แก้ Erdős problems ได้หลายข้อ แต่ความสำคัญและความยากของแต่ละปัญหาแตกต่างกันมาก จึงยังไม่สมบูรณ์ในฐานะเกณฑ์วัดความสามารถทางคณิตศาสตร์ และหลายวิธีแก้ก็ไม่ได้ใหม่อย่างที่เห็นภายนอก
    • ผลลัพธ์ครั้งนี้จึงถูกมองต่างออกไป เพราะเป็นการจัดการกับปัญหาที่แม้แต่นักคณิตศาสตร์ชื่อดังก็ยังแก้ไม่ได้ และใช้วิธีที่ไม่เคยถูกนำมาใช้กับปัญหาประเภทเดียวกัน

ทำไมจึงถูกประเมินต่างออกไป

  • โดยทั่วไปผู้คนมักเลือกแนวทางแรกคล้าย ๆ กันเมื่อพยายามแก้ปัญหานี้ แต่คำตอบจาก LLM ครั้งนี้กลับเริ่มต้นจากเส้นทางที่แตกต่างไปโดยสิ้นเชิง
    • มันดึงสูตรที่เป็นที่รู้จักดีในสาขาคณิตศาสตร์ที่เกี่ยวข้องมาใช้ แต่เป็นการจับคู่ที่ผู้คนไม่เคยคิดจะนำมาประยุกต์กับปัญหาแบบนี้
  • Terence Tao ชี้ว่าตัวปัญหาเองอาจง่ายกว่าที่คิด และในช่วงแรกอาจมีลักษณะของ mental block อยู่
  • Jared Lichtman ระบุว่าต้นฉบับการพิสูจน์ของ ChatGPT นั้นหยาบมากหากจะใช้ตามเดิม และต้องผ่านกระบวนการที่ผู้เชี่ยวชาญช่วยคัดแยกว่าแท้จริงแล้วมันพยายามจะสื่ออะไรและทำความเข้าใจมัน
    • ตอนนี้ Lichtman และ Tao ได้ปรับแต่งการพิสูจน์ให้สั้นลง เพื่อให้เห็นแก่นของข้อค้นพบจาก LLM ได้ชัดเจนยิ่งขึ้น
  • ความก้าวหน้าครั้งนี้อาจนำไปสู่ วิธีคิดใหม่ ในการมองจำนวนขนาดใหญ่และโครงสร้างของมัน
    • แม้จะยังเร็วเกินไปที่จะสรุปความสำคัญระยะยาว แต่ก็ถูกมองว่าเป็นวิธีที่ช่วยหนุนสัญชาตญาณว่าปัญหาคล้ายกันเหล่านี้อาจเชื่อมโยงรวมกันได้

1 ความคิดเห็น

 
GN⁺ 4 일 전
ความเห็นจาก Hacker News
  • https://archive.ph/2w4fi

  • Paul Erdős เป็นนักคณิตศาสตร์ที่มีชื่อเสียงมากและค่อนข้างประหลาดคนหนึ่ง ซึ่งใช้ชีวิตอยู่เกือบตลอดช่วงศตวรรษที่ 20
    เขามีนิสัยชอบตามหาปัญหาที่นักคณิตศาสตร์กำลังขบคิดกันอยู่แล้วจดบันทึกเอาไว้ โดยระดับความยากก็กว้างมาก ตั้งแต่ระดับการบ้านของนักศึกษาปริญญาตรีในปัจจุบันไปจนถึงปัญหาระดับ Fields Medal ถ้าแก้ได้
    แก่นร่วมของปัญหาเหล่านี้คือ หนึ่งในคนที่ฉลาดที่สุดในรอบ 100 ปีที่ผ่านมาไม่สามารถตอบได้ในทันที
    ทุกวันนี้คนก็นำปัญหาแบบนี้มาใช้เป็นเหมือนเบนช์มาร์ก โดยให้ LLM สร้างบทพิสูจน์ และทุกครั้งที่มีโมเดลใหม่ออกมาก็มักจะแก้ได้เพิ่มอีกไม่กี่ปัญหา

    • จากปฏิกิริยาของนักคณิตศาสตร์ ดูเหมือนว่า บทพิสูจน์ของ Erdős ครั้งนี้จะเป็นหมุดหมายที่ค่อนข้างพิเศษ
      เป็นปัญหาที่ก่อนหน้านี้นักคณิตศาสตร์ผู้เชี่ยวชาญหลายคนก็เคยพิจารณามาแล้ว และว่ากันว่าบทพิสูจน์ที่ออกมานั้นทั้งน่าประหลาดใจ งดงาม และยังแสดงให้เห็นความเชื่อมโยงใหม่ ๆ อีกด้วย
      งานแก้ปัญหา Erdős โดย ChatGPT ก่อนหน้านี้โดยมากดูน่าประทับใจน้อยกว่า และเหมือนใกล้เคียงกับการค้นวรรณกรรม หรือเป็นการแก้ปัญหาที่ค่อนข้างง่ายแต่ถูกปล่อยทิ้งไว้มากกว่า
      พออ่านพรอมป์ต์แล้วก็อดสงสัยไม่ได้ว่า การเปิดทางไว้ในทำนองว่า จะไม่เป็นแบบแผนก็ได้ อาจมีส่วนช่วยให้สำเร็จหรือไม่
      [1] https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c
    • สิ่งที่บทความกล่าวถึงคือกรณีที่แก้ ปัญหาที่ค้างคามาแต่เดิม ได้ จึงแน่นอนว่าอยู่ในกลุ่มที่ยากกว่า
  • พรอมป์ต์ที่ใช้จริงคือแบบนี้
    ขอไม่ให้ค้นอินเทอร์เน็ต และให้ลองสร้างบทพิสูจน์หรือบทหักล้างที่ไม่ trivial ใหม่ และสร้างสรรค์ สำหรับปัญหา number theory and primitive sets
    ผู้ใช้ขอแบบ explicit ว่าต้องเป็น complete unconditional proof หรือ disproof และย้ำอีกครั้งว่าคำกล่าวอ้างแบบนั้นอาจต้องมีองค์ประกอบที่ไม่ธรรมดาและสร้างสรรค์
    และมี Thought for 80m 17s แปะอยู่ด้วย
    https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c

    • ลองรันด้วย 5.5 Pro, Extended Thinking แล้วใช้เวลา 17 นาที
      มันเสนอว่าขอบเขตที่เสนอไว้นั้นถูกต้องและค่าคงที่ 1 เป็น sharp
      พร้อมบอกว่าจะพิสูจน์ w(a)= 1/alog(a) และ uniformly for every primitive A⊂[x,∞), ∑w(a)≤1+O(1/log(x))
      และอ้างว่านี่เป็นข้อสรุปที่แรงกว่าคำขอ 1+o(1) เสียอีก
      https://chatgpt.com/share/69ed8e24-15e8-83ea-96ac-784801e4a6ec
    • ในกรณีของฉัน ใช้ Pro ไป 20 นาที
      https://chatgpt.com/share/69ed83b1-3704-8322-bcf2-322aa85d7a99
      แต่ฉันไม่ได้รู้คณิตศาสตร์มากพอจะตัดสินได้ว่ามันเป็นบทพิสูจน์ที่ถูกต้องจริงหรือไม่
    • ลองพรอมป์ต์เดียวกันกับ free plan แล้ว ผลลัพธ์ด้อยกว่ามาก
  • ความก้าวหน้าทางวิทยาศาสตร์มักเกิดขึ้นเมื่อมีการนำเทคนิค X จากสาขาหนึ่งไปใช้กับปัญหา Y ในอีกสาขาหนึ่ง และดูเหมือนว่า LLM จะเก่งเรื่อง การเชื่อมโยงข้ามสาขา มากกว่ามนุษย์
    เพราะมันรู้ทฤษฎีและแนวทางมากกว่าที่คนคนหนึ่งจะรู้ได้มาก และไม่ต้องกังวลว่าจะดูโง่ต่อหน้าเพื่อนร่วมงาน

    • สำหรับฉัน นี่แหละคือสิ่งที่เรียกว่า reasoning
      คือความสามารถในการทำให้ความรู้เป็นนามธรรมและนำไปใช้กับโดเมนอื่น
    • งานทางปัญญาจำนวนมากจริง ๆ แล้วใกล้เคียงกับ intellectual labor มากกว่า คือการรวบรวมข้อมูลหลายชิ้นมาไว้ในที่เดียว
      ในงานประเภทนี้ LLM ทำได้ดีกว่ามนุษย์มาก และดูเหมือนว่าผู้คนตามธรรมเนียมจะจัดสิ่งนี้ผิดไปเป็นความสร้างสรรค์เสียด้วยซ้ำ
    • อันที่จริงฉันเองก็ใช้งานมันในลักษณะนี้อยู่
      จะบอกว่าเกิดการทะลุทะลวงครั้งใหญ่ก็คงไม่ได้ แต่ก็รู้สึกว่าเคยได้อินไซต์ที่พอนำไปเขียนเป็นไวต์เปเปอร์ได้อยู่หลายครั้ง
      กระบวนการลองเชื่อมความสัมพันธ์ข้ามหลายสาขาแบบนี้เองก็สนุกมากในฐานะการทดลองกับ LLM
    • อารยธรรมถูกผลักดันมาอย่างมากด้วยวิธีแบบ left-brained/sequential/language based และคอมพิวเตอร์กับ AI ก็ดูเหมือนเป็นจุดสูงสุดของแนวทางนั้น
      ตอนเด็กฉันเองก็เคยอ่านแบบกวาดทั้งหน้าพร้อมกัน ก่อนจะเปลี่ยนมาเป็นการอ่านทีละคำ ทีละบรรทัดในภายหลัง และโหมดนั้นก็ติดตัวมา
      ช่วงหนึ่งตอนมหาวิทยาลัย ฉันเคยรู้สึกว่าการรับรู้ที่ลึก กว้าง และไม่เป็นเชิงเส้นในขอบเขตสาขาคณิตศาสตร์ที่ตัวเองเรียนเปิดออกมามากขึ้น แต่ก็ไม่แน่ใจว่านั่นเป็นความชำนาญของสมองซีกซ้ายหรือเป็นเพราะสมองซีกขวาเข้ามามากขึ้น
      LLM จะต้องแซงเราในความคิดแบบลำดับขั้นนี้อย่างแน่นอน และพอถึงตอนนั้นก็อดสงสัยไม่ได้ว่ามนุษย์ควรจะผลักตัวเองไปทาง right-brainness ที่ยังเหลืออยู่มากขึ้น หรือว่า AI จะไปถึงจุดนั้นได้เร็วกว่าด้วย
    • ถ้าอยากเห็นตัวอย่างคลาสสิกของการนำเทคนิคจากสาขาหนึ่งไปใช้อีกสาขาหนึ่ง ก็ไปดู Langlands project ได้
  • AI คือผู้ร่วมงานประหลาดที่ฉันชอบที่สุด

  • ปัญหา Erdős บางข้อ เมื่อมีการพัฒนา เทคนิคที่ประณีต ขึ้นภายหลังแล้ว ก็แทบจะกลายเป็นเรื่องเกือบชัดเจนไปเลย
    อาจารย์คนหนึ่งของฉันเคยร่วมเขียนงานกับ Erdős และเขาภูมิใจมากที่เคยเอาปัญหา Erdős ที่ครั้งหนึ่งยังแก้ไม่ตกมาออกเป็นโจทย์ควิซสำหรับนักศึกษาปริญญาตรีได้

    • และขอเสริมอีกอย่างในประเด็นนี้ คือก่อนหน้านี้คนได้เอาปัญหาเหล่านี้ไปลองกับ LLM แทบหมดแล้ว
      เพราะอย่างนั้นกรณีนี้จึงดูเหมือนเป็นหลักฐานว่าโมเดลแข็งแกร่งขึ้นจริง
      เนื่องจาก LLM รุ่นก่อนหน้านี้แก้ปัญหานี้ไม่ได้
    • ตามที่ Tao พูดไว้ แนวทางมาตรฐานเดิม สำหรับปัญหานี้ดูเหมือนจะตัน แต่ในขณะเดียวกันก็ obvious มากจนเป็นขั้นแรกที่ใคร ๆ ก็ลองก่อน
      เลยทำให้ผลลัพธ์ครั้งนี้ดูมีความหวังมากขึ้น
      เพราะมันทำให้เกิดแนวทางใหม่ที่ควรค่าแก่การประเมินกับปัญหาคล้ายกันต่อไป
  • ถึงจุดนี้แล้วน่าจะดีถ้ามี GitHub repo สักอัน เอาปัญหา dry lab ที่ยังไม่ถูกแก้เข้าไปกองไว้เยอะ ๆ แล้วทำ harness สำหรับรันทั้งหมดซ้ำทุกครั้งที่มีโมเดลใหม่ออกมา

    • มีอยู่จริง โดย Terence Tao และนักคณิตศาสตร์คนอื่น ๆ กำลังดูแลรีโพแบบนั้นอยู่ และใช้งานมันอย่างจริงจังเพื่อหาแนวทางแก้ด้วย LLM
      [1] https://github.com/teorth/erdosproblems
    • ซึ่งนั่นก็คือ Erdős problems ตามตัวอักษรเลย
      และโพสต์นี้ก็คือเรื่องที่หนึ่งในนั้นถูกแก้ได้แล้ว
  • พอเห็นประโยคที่ว่า ต้นฉบับบทพิสูจน์ของ ChatGPT จริง ๆ ค่อนข้างแย่ และต้องให้ผู้เชี่ยวชาญช่วยกรองเพื่อทำความเข้าใจว่ามันพยายามจะพูดอะไร ก็ให้ความรู้สึกเดียวกับเวลาที่ฉันอ่านงานวิจัยคณิตศาสตร์อยู่เสมอ

  • ถ้านี่เป็น ปัญหาอายุ 60 ปี ก็อดคิดไม่ได้ว่าจริง ๆ แล้วมันอาจถูกแก้ทางอ้อมไปแล้ว และโมเดลแค่ข้ามเชื่อมข้อมูลหลายชิ้นเข้าหากันจนเจอหรือเปล่า
    พอเข้าไปดูในเว็บไซต์ก็แทบไม่เห็นร่องรอยว่ามนุษย์เคยถกกันมาก่อน มีแต่คอมเมนต์ล่าสุดที่พูดว่า GPT เป็นคนพบ เลยยิ่งทำให้รู้สึกแบบนั้น
    ถ้าเป็นปัญหาอายุ 60 ปี ฉันคงคาดว่าจะมีการถกเถียงที่เก่ากว่านี้ เลยสงสัยว่าตัวเองกำลังมองข้ามอะไรไปหรือไม่
    ถึงอย่างนั้นก็ยังเป็นการค้นพบที่ยอดเยี่ยม และน่าจะยังมีปัญหาแบบเดียวกันที่ควรลองให้ GPT ตรวจสอบใหม่อีก

  • ทั้งมนุษย์และเครื่องจักรที่มนุษย์สร้างขึ้น โดยมากแล้วแก้ปัญหาแบบ สะสมต่อยอด
    เมื่อคอยต่อเติมบนรากฐานเดิมไปเรื่อย ๆ ก็เลยติดกรอบทางความคิดได้ง่าย เพราะไม่อยากประดิษฐ์ล้อขึ้นมาใหม่
    เพราะอย่างนั้น ถึง LLM ที่ค่อนข้างไร้เดียงสาจะเสนอแนวทางที่ผู้เชี่ยวชาญไม่เคยลองมาก่อน ก็ไม่ได้ชวนให้ตกใจนัก
    ในกรณีจำกัดแบบนี้ LLM อาจมีประโยชน์มากในฐานะตัวโยน แนวทางอื่น เข้ามา และไม่จำเป็นต้องเป็นคำตอบที่ถูกต้องด้วยซ้ำ แค่เสนอทางเลือกเพื่อเขย่ากระดานก็พอ
    เพียงแต่ฉันก็ไม่ค่อยแน่ใจว่าปัญหา Erdős ข้อนี้มีคุณค่าเชิงปฏิบัติอย่างไร
    ถ้าจะถามว่านี่เป็นหลักฐานว่า LLM ไม่ใช่ของไร้ประโยชน์หรือไม่ มันก็ฟังคล้ายกับการถามในปี 1928 ว่าควรลงทุนหลายล้านดอลลาร์ในทฤษฎีจำนวนหรือเปล่า
    คำตอบในตอนนั้นคงเป็น ไม่ และกรุณาออกไปจากออฟฟิศของฉัน