- TimesFM คือ โมเดลขนาดใหญ่ที่ผ่านการพรีเทรนสำหรับการพยากรณ์อนุกรมเวลา ที่พัฒนาโดย Google Research และใช้สถาปัตยกรรมแบบ decoder-only
- เวอร์ชันล่าสุด 2.5 รองรับ พารามิเตอร์ 200 ล้านตัว, ความยาวคอนเท็กซ์ 16k และ การพยากรณ์ horizon สูงสุด 1k
- มีฟีเจอร์หลากหลาย เช่น การพยากรณ์ควอนไทล์แบบต่อเนื่อง, อินพุตตัวแปรร่วม (XReg) และ แบ็กเอนด์ Flax·PyTorch
- โมเดลเปิดเผยผ่าน Hugging Face และสามารถใช้งานได้ผ่านการผสานรวมกับ BigQuery
- ในฐานะ โมเดลพื้นฐานอเนกประสงค์สำหรับการพยากรณ์ข้อมูลอนุกรมเวลา จึงมอบทั้งความสามารถในการขยายและประสิทธิภาพสำหรับทั้งงานวิจัยและการใช้งานจริง
ภาพรวมของ TimesFM
- TimesFM(Time Series Foundation Model) คือ โมเดลที่ผ่านการพรีเทรนสำหรับการพยากรณ์อนุกรมเวลา ที่พัฒนาโดย Google Research
- อ้างอิงจากงานวิจัย ICML 2024 “A decoder-only foundation model for time-series forecasting”
- โมเดลเช็กพอยต์ให้ใช้งานผ่าน คอลเลกชันบน Hugging Face และมีการผสานรวมอย่างเป็นทางการกับ BigQuery
- เวอร์ชันโอเพนไม่ใช่ ผลิตภัณฑ์ทางการของ Google
เวอร์ชันของโมเดลและการอัปเดตสำคัญ
- เวอร์ชันล่าสุดคือ TimesFM 2.5 ส่วนเวอร์ชันก่อนหน้า (1.0, 2.0) ถูกเก็บไว้ในไดเรกทอรี
v1 และติดตั้งได้ด้วย timesfm==1.3.0
-
อัปเดตวันที่ 15 กันยายน 2025
- เปิดตัวโมเดล TimesFM 2.5
- ลดขนาดเหลือ 200M พารามิเตอร์ (น้อยกว่าครึ่งจากเดิม 500M)
- ขยาย ความยาวคอนเท็กซ์เป็น 16k (เพิ่มจาก 2048 เดิม)
- รองรับ การพยากรณ์ควอนไทล์แบบต่อเนื่อง (continuous quantile forecast) ได้สูงสุดถึง 1k horizon พร้อม 30M quantile head แบบเลือกใช้
- นำตัวบ่งชี้
frequency ออก
- เพิ่ม forecasting flags ชุดใหม่
- อัปเกรด inference API
- รายการที่มีแผนเพิ่มในอนาคต
- รองรับ โมเดลเวอร์ชัน Flax (อนุมานได้เร็วขึ้น)
- นำการรองรับ covariate กลับมา
- เสริม docstring, เอกสาร, โน้ตบุ๊ก
-
อัปเดตวันที่ 29 ตุลาคม 2025
- เพิ่มการรองรับ อินพุต covariate ผ่าน XReg กลับมาใน TimesFM 2.5
วิธีติดตั้ง
- โคลนที่เก็บ GitHub และใช้
uv เพื่อสร้างสภาพแวดล้อมเสมือนพร้อมติดตั้งแพ็กเกจ
- สามารถติดตั้งแบ็กเอนด์เสริมจาก
torch, flax, xreg ได้
- สามารถเลือก PyTorch หรือ JAX(Flax) ตามระบบปฏิบัติการและตัวเร่งความเร็ว (CPU, GPU, TPU, Apple Silicon)
ตัวอย่างโค้ด
- มีตัวอย่างการโหลดโมเดล TimesFM 2.5 แบบ PyTorch (200M พารามิเตอร์)
- ใช้
timesfm.TimesFM_2p5_200M_torch.from_pretrained("google/timesfm-2.5-200m-pytorch")
- สามารถตั้งค่าผ่าน
ForecastConfig เช่น normalize_inputs, การใช้ continuous quantile head, infer_is_positive, fix_quantile_crossing เป็นต้น
- เมื่อเรียก
forecast() จะคืนผลลัพธ์ 2 แบบคือ point forecast และ quantile forecast
point_forecast.shape: (2, 12)
quantile_forecast.shape: (2, 12, 10) — รวมค่าเฉลี่ยและควอนไทล์ 10~90
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
แนวคิดของ โมเดลอนุกรมเวลา แบบทั่วไปฟังดูแปลกอยู่พอสมควร
เลยสงสัยว่าโมเดลเดียวกันจะพยากรณ์ทั้งราคาฟองไข่ในอิตาลีและเงินเฟ้อทั่วโลกได้อย่างน่าเชื่อถือพร้อมกันได้อย่างไร
อีกทั้งถ้าอธิบายเหตุผลของการพยากรณ์ไม่ได้ ก็ยิ่งเป็นปัญหาว่า ยากที่จะเชื่อถือผลลัพธ์
เหตุการณ์ที่ไม่เป็นไปตามฤดูกาลอย่างสงครามในตะวันออกกลางที่กระทบเงินเฟ้อนั้น โมเดลอาจจับไม่ได้
ตามภาคผนวก 8 ของงานวิจัย มีการสร้างข้อมูลสังเคราะห์ด้วยโมเดลสถิติแบบดั้งเดิม เช่น linear trend, ARMA, และแพตเทิร์นฤดูกาลแบบ sine·cosine เพื่อนำมาฝึก
ท้ายที่สุดมันก็เป็นสถาปัตยกรรม Transformer จึงค้นหาแพตเทิร์นเฉพาะปัญหาจากบริบทอินพุตได้เหมือน LLM
ผู้ลงโฆษณาหลายรายแค่ลากเส้นตรงจากค่าปัจจุบันเพื่อพยากรณ์ แต่ไม่สะท้อน วันในสัปดาห์·ฤดูกาล จึงไม่แม่นยำ
ในทางกลับกัน โมเดลอนุกรมเวลามีความแม่นยำกว่ามาก และเมื่อฝึกด้วยข้อมูลทั้งแคมเปญก็สามารถให้ช่วงความเชื่อมั่น 95% ได้
เครื่องหมายและเลขชี้กำลังเปลี่ยนช้า จึงคาดการณ์ส่วนนั้นได้ แล้วประมาณส่วนแมนทิสซาด้วยกฎของ Benford
น่าจะใส่ (2024) ไว้ในชื่อเรื่อง
เพราะเป็นเนื้อหาที่เคยมีใน Google Research blog แล้ว จึงไม่ใช่ข่าวใหม่ล่าสุด
บล็อกโพสต์ที่เกี่ยวข้องดูได้จาก หน้า TimesFM บน GitHub
ดูเหมือนจะน้อยกว่า LLM มาก เลยอยากรู้ว่า นักวิจัยเดี่ยวหรือแล็บมหาวิทยาลัยก็ฝึกได้หรือไม่
เผื่อใครสนใจ ยังมีโปรเจ็กต์คล้ายกันอย่าง Nixtla และ Prophet
มีคนถามว่า “ช่วยอธิบายแบบ ELI5 ได้ไหม? แล้วมันอ่านข้อมูลได้กี่จุด?”
สงสัยว่าอนุกรมเวลาถูกป้อนให้เป็นแค่ชุดตัวเลขที่ไม่มีบริบทหรือไม่
ดูเหมือนโครงสร้างจะเป็นแบบที่โมเดลดูข้อมูลแล้วเดาว่าเป็นหมวดไหน (เช่น ราคาหุ้น, เทรนด์การค้นหา) จากนั้นจึงให้การพยากรณ์ที่เหมาะกับหมวดนั้น
แต่ก็น่าจะอ่อนกับหมวดหมู่ที่ไม่มีอยู่ในข้อมูลฝึก
โดยส่วนตัวชอบโมเดลง่าย ๆ อย่าง ARIMA หรือโมเดลที่อิงทฤษฎีมากกว่า
ประเด็นสำคัญคือ สถาปัตยกรรมและวิธีฝึกจะ generalize ได้มากแค่ไหน
โมเดลนี้เปิดให้ใช้มาตั้งแต่หลายเดือนก่อนแล้ว เลยสงสัยว่ามีใครสร้างอะไรบนมันจริง ๆ บ้างหรือยัง
ถ้ามีอนุกรมเวลาของรังสีดวงอาทิตย์ในอดีตกับพยากรณ์อากาศอยู่ จะใช้พยากรณ์อากาศของช่วงเวลาอนาคตเพื่อ คาดการณ์ราคาไฟฟ้า ได้หรือไม่
หรือก็คือถามว่าสามารถใช้ข้อมูลของอนุกรมเวลาหนึ่ง ณ เวลา X เพื่อทำนายอีกอนุกรมเวลาที่เวลา X ได้ไหม หรือมันจัดการได้แค่แพตเทิร์นภายในอนุกรมเวลาเดียว
แต่ถ้าข้อมูลฝึกมีน้อย มันก็อาจเรียนรู้แค่แพตเทิร์นแบบ “พุ่งขึ้นไปทางขวา” ได้ จึงน่าจะมีข้อจำกัด
พลาดโปรเจ็กต์นี้ไป เลยสงสัยว่ามี การแข่งขัน ที่เกี่ยวข้องบ้างไหม
อนุกรมเวลากับ ML เป็นเรื่องยากเสมอ แต่อยากลองทำเองดู
เพื่อนร่วมงานคนหนึ่งใช้โมเดลนี้ทำนายเวลาที่ CEO จะโพสต์ใน Slack แล้วบอกว่าค่อนข้างสนุกดี
โดยส่วนตัวคิดว่าแค่รัน LLM + pandas + ลูปทดลองของตัวเอง ก็น่าจะให้ผลดีกว่าโมเดลนี้ได้
มันไม่ได้มีขีดจำกัดตายตัว และจริง ๆ แล้วก็คิดว่ามีโอกาสสูงที่คำกล่าวนั้นจะไม่ถูกต้อง