7 คะแนน โดย GN⁺ 28 일 전 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • TimesFM คือ โมเดลขนาดใหญ่ที่ผ่านการพรีเทรนสำหรับการพยากรณ์อนุกรมเวลา ที่พัฒนาโดย Google Research และใช้สถาปัตยกรรมแบบ decoder-only
  • เวอร์ชันล่าสุด 2.5 รองรับ พารามิเตอร์ 200 ล้านตัว, ความยาวคอนเท็กซ์ 16k และ การพยากรณ์ horizon สูงสุด 1k
  • มีฟีเจอร์หลากหลาย เช่น การพยากรณ์ควอนไทล์แบบต่อเนื่อง, อินพุตตัวแปรร่วม (XReg) และ แบ็กเอนด์ Flax·PyTorch
  • โมเดลเปิดเผยผ่าน Hugging Face และสามารถใช้งานได้ผ่านการผสานรวมกับ BigQuery
  • ในฐานะ โมเดลพื้นฐานอเนกประสงค์สำหรับการพยากรณ์ข้อมูลอนุกรมเวลา จึงมอบทั้งความสามารถในการขยายและประสิทธิภาพสำหรับทั้งงานวิจัยและการใช้งานจริง

ภาพรวมของ TimesFM

  • TimesFM(Time Series Foundation Model) คือ โมเดลที่ผ่านการพรีเทรนสำหรับการพยากรณ์อนุกรมเวลา ที่พัฒนาโดย Google Research
  • อ้างอิงจากงานวิจัย ICML 2024 “A decoder-only foundation model for time-series forecasting”
  • โมเดลเช็กพอยต์ให้ใช้งานผ่าน คอลเลกชันบน Hugging Face และมีการผสานรวมอย่างเป็นทางการกับ BigQuery
  • เวอร์ชันโอเพนไม่ใช่ ผลิตภัณฑ์ทางการของ Google

เวอร์ชันของโมเดลและการอัปเดตสำคัญ

  • เวอร์ชันล่าสุดคือ TimesFM 2.5 ส่วนเวอร์ชันก่อนหน้า (1.0, 2.0) ถูกเก็บไว้ในไดเรกทอรี v1 และติดตั้งได้ด้วย timesfm==1.3.0
  • อัปเดตวันที่ 15 กันยายน 2025

    • เปิดตัวโมเดล TimesFM 2.5
    • ลดขนาดเหลือ 200M พารามิเตอร์ (น้อยกว่าครึ่งจากเดิม 500M)
    • ขยาย ความยาวคอนเท็กซ์เป็น 16k (เพิ่มจาก 2048 เดิม)
    • รองรับ การพยากรณ์ควอนไทล์แบบต่อเนื่อง (continuous quantile forecast) ได้สูงสุดถึง 1k horizon พร้อม 30M quantile head แบบเลือกใช้
    • นำตัวบ่งชี้ frequency ออก
    • เพิ่ม forecasting flags ชุดใหม่
    • อัปเกรด inference API
    • รายการที่มีแผนเพิ่มในอนาคต
      1. รองรับ โมเดลเวอร์ชัน Flax (อนุมานได้เร็วขึ้น)
      2. นำการรองรับ covariate กลับมา
      3. เสริม docstring, เอกสาร, โน้ตบุ๊ก
  • อัปเดตวันที่ 29 ตุลาคม 2025

    • เพิ่มการรองรับ อินพุต covariate ผ่าน XReg กลับมาใน TimesFM 2.5

วิธีติดตั้ง

  • โคลนที่เก็บ GitHub และใช้ uv เพื่อสร้างสภาพแวดล้อมเสมือนพร้อมติดตั้งแพ็กเกจ
    • สามารถติดตั้งแบ็กเอนด์เสริมจาก torch, flax, xreg ได้
    • สามารถเลือก PyTorch หรือ JAX(Flax) ตามระบบปฏิบัติการและตัวเร่งความเร็ว (CPU, GPU, TPU, Apple Silicon)

ตัวอย่างโค้ด

  • มีตัวอย่างการโหลดโมเดล TimesFM 2.5 แบบ PyTorch (200M พารามิเตอร์)
    • ใช้ timesfm.TimesFM_2p5_200M_torch.from_pretrained("google/timesfm-2.5-200m-pytorch")
    • สามารถตั้งค่าผ่าน ForecastConfig เช่น normalize_inputs, การใช้ continuous quantile head, infer_is_positive, fix_quantile_crossing เป็นต้น
    • เมื่อเรียก forecast() จะคืนผลลัพธ์ 2 แบบคือ point forecast และ quantile forecast
      • point_forecast.shape: (2, 12)
      • quantile_forecast.shape: (2, 12, 10) — รวมค่าเฉลี่ยและควอนไทล์ 10~90

1 ความคิดเห็น

 
GN⁺ 28 일 전
ความคิดเห็นจาก Hacker News
  • แนวคิดของ โมเดลอนุกรมเวลา แบบทั่วไปฟังดูแปลกอยู่พอสมควร
    เลยสงสัยว่าโมเดลเดียวกันจะพยากรณ์ทั้งราคาฟองไข่ในอิตาลีและเงินเฟ้อทั่วโลกได้อย่างน่าเชื่อถือพร้อมกันได้อย่างไร
    อีกทั้งถ้าอธิบายเหตุผลของการพยากรณ์ไม่ได้ ก็ยิ่งเป็นปัญหาว่า ยากที่จะเชื่อถือผลลัพธ์

    • ที่จริงแล้วโมเดลพวกนี้ไม่ได้พยากรณ์ราคาฟองไข่หรือเงินเฟ้อโดยตรง แต่เป็นการแยกข้อมูลอนุกรมเวลาออกเป็น แนวโน้ม·ฤดูกาล·ส่วนตกค้าง
      เหตุการณ์ที่ไม่เป็นไปตามฤดูกาลอย่างสงครามในตะวันออกกลางที่กระทบเงินเฟ้อนั้น โมเดลอาจจับไม่ได้
    • เท่าที่เข้าใจ โครงสร้างนี้ใช้ ข้อมูลฝึกแบบสังเคราะห์ เพื่อช่วยจับแพตเทิร์นอนุกรมเวลาเชิงนามธรรมที่พบร่วมกันในหลายโดเมน
      ตามภาคผนวก 8 ของงานวิจัย มีการสร้างข้อมูลสังเคราะห์ด้วยโมเดลสถิติแบบดั้งเดิม เช่น linear trend, ARMA, และแพตเทิร์นฤดูกาลแบบ sine·cosine เพื่อนำมาฝึก
      ท้ายที่สุดมันก็เป็นสถาปัตยกรรม Transformer จึงค้นหาแพตเทิร์นเฉพาะปัญหาจากบริบทอินพุตได้เหมือน LLM
    • ตอนทำงานที่ Google Ads เคยใช้การพยากรณ์อนุกรมเวลาเพื่อคาดการณ์ความน่าจะเป็นที่แคมเปญโฆษณาจะบรรลุเป้าหมาย
      ผู้ลงโฆษณาหลายรายแค่ลากเส้นตรงจากค่าปัจจุบันเพื่อพยากรณ์ แต่ไม่สะท้อน วันในสัปดาห์·ฤดูกาล จึงไม่แม่นยำ
      ในทางกลับกัน โมเดลอนุกรมเวลามีความแม่นยำกว่ามาก และเมื่อฝึกด้วยข้อมูลทั้งแคมเปญก็สามารถให้ช่วงความเชื่อมั่น 95% ได้
    • อาจนำกฎของ Benford (Benford’s law) มาใช้ได้ด้วย
      เครื่องหมายและเลขชี้กำลังเปลี่ยนช้า จึงคาดการณ์ส่วนนั้นได้ แล้วประมาณส่วนแมนทิสซาด้วยกฎของ Benford
    • ในแง่แนวทางนั้น
      • decomposition: หา generalized form ของการแปลง Fourier เพื่อแยกปัจจัยพื้นฐานออกมา
      • memorization: เรียนรู้แพตเทิร์นที่เกิดซ้ำในหลายโดเมน (เช่น power law)
      • multitask: ใช้ประโยชน์จากความเชื่อมโยงข้ามโดเมน เช่น สภาพอากาศกับไฟฟ้า
  • น่าจะใส่ (2024) ไว้ในชื่อเรื่อง
    เพราะเป็นเนื้อหาที่เคยมีใน Google Research blog แล้ว จึงไม่ใช่ข่าวใหม่ล่าสุด

    • แต่มีอัปเดตใหญ่ช่วงปลายปี 2025
  • บล็อกโพสต์ที่เกี่ยวข้องดูได้จาก หน้า TimesFM บน GitHub

    • คิดว่าน่าจะตั้งใจลิงก์ไปยัง บทความใน Google Research บทนี้
    • สงสัยว่าปริมาณเวลาฝึกบน GPU รวมทั้งหมดเท่าไร
      ดูเหมือนจะน้อยกว่า LLM มาก เลยอยากรู้ว่า นักวิจัยเดี่ยวหรือแล็บมหาวิทยาลัยก็ฝึกได้หรือไม่
    • บน iOS Chrome มันเปิดเป็นเนื้อหาเดียวกับรีโพซิทอรี GitHub ที่ส่งมา
  • เผื่อใครสนใจ ยังมีโปรเจ็กต์คล้ายกันอย่าง Nixtla และ Prophet

  • มีคนถามว่า “ช่วยอธิบายแบบ ELI5 ได้ไหม? แล้วมันอ่านข้อมูลได้กี่จุด?”

  • สงสัยว่าอนุกรมเวลาถูกป้อนให้เป็นแค่ชุดตัวเลขที่ไม่มีบริบทหรือไม่
    ดูเหมือนโครงสร้างจะเป็นแบบที่โมเดลดูข้อมูลแล้วเดาว่าเป็นหมวดไหน (เช่น ราคาหุ้น, เทรนด์การค้นหา) จากนั้นจึงให้การพยากรณ์ที่เหมาะกับหมวดนั้น
    แต่ก็น่าจะอ่อนกับหมวดหมู่ที่ไม่มีอยู่ในข้อมูลฝึก
    โดยส่วนตัวชอบโมเดลง่าย ๆ อย่าง ARIMA หรือโมเดลที่อิงทฤษฎีมากกว่า

    • แต่ถ้า LLM ทำนายโทเคนถัดไปในสตรีมโทเคนยาว ๆ ได้ โมเดลนี้ก็อาจทำงานได้เช่นกัน
      ประเด็นสำคัญคือ สถาปัตยกรรมและวิธีฝึกจะ generalize ได้มากแค่ไหน
  • โมเดลนี้เปิดให้ใช้มาตั้งแต่หลายเดือนก่อนแล้ว เลยสงสัยว่ามีใครสร้างอะไรบนมันจริง ๆ บ้างหรือยัง

  • ถ้ามีอนุกรมเวลาของรังสีดวงอาทิตย์ในอดีตกับพยากรณ์อากาศอยู่ จะใช้พยากรณ์อากาศของช่วงเวลาอนาคตเพื่อ คาดการณ์ราคาไฟฟ้า ได้หรือไม่
    หรือก็คือถามว่าสามารถใช้ข้อมูลของอนุกรมเวลาหนึ่ง ณ เวลา X เพื่อทำนายอีกอนุกรมเวลาที่เวลา X ได้ไหม หรือมันจัดการได้แค่แพตเทิร์นภายในอนุกรมเวลาเดียว

    • ในงานวิจัยระบุว่าโฟกัสที่ forecasting
      แต่ถ้าข้อมูลฝึกมีน้อย มันก็อาจเรียนรู้แค่แพตเทิร์นแบบ “พุ่งขึ้นไปทางขวา” ได้ จึงน่าจะมีข้อจำกัด
  • พลาดโปรเจ็กต์นี้ไป เลยสงสัยว่ามี การแข่งขัน ที่เกี่ยวข้องบ้างไหม
    อนุกรมเวลากับ ML เป็นเรื่องยากเสมอ แต่อยากลองทำเองดู

    • มีคนแนะนำ บล็อก Datadog, โปรเจ็กต์ Moment, และ บทความ arXiv
      เพื่อนร่วมงานคนหนึ่งใช้โมเดลนี้ทำนายเวลาที่ CEO จะโพสต์ใน Slack แล้วบอกว่าค่อนข้างสนุกดี
    • บน GIFT leaderboard ของ Hugging Face ก็มีโมเดลสาย Transformer อยู่ด้วย
    • อีกโปรเจ็กต์หนึ่งคือ OpenTSLM
    • TabPFN ก็รองรับความสามารถด้านอนุกรมเวลาด้วย
  • โดยส่วนตัวคิดว่าแค่รัน LLM + pandas + ลูปทดลองของตัวเอง ก็น่าจะให้ผลดีกว่าโมเดลนี้ได้

    • ถ้าอย่างนั้นก็ลองทำเองได้เลย
      มันไม่ได้มีขีดจำกัดตายตัว และจริง ๆ แล้วก็คิดว่ามีโอกาสสูงที่คำกล่าวนั้นจะไม่ถูกต้อง