"git@developer.sourcefind.cn:wqshmzh/ktransformers.git" did not exist on "5d194c5db0da8eeb591bfcf5e946b79e6efd6853"
Commit 5d3ba8f4 authored by suily's avatar suily
Browse files

第一次写入README

parent 69dcb844
...@@ -3,7 +3,7 @@ ...@@ -3,7 +3,7 @@
`A decoder-only foundation model for time-series forecasting` `A decoder-only foundation model for time-series forecasting`
- https://arxiv.org/abs/2310.10688 - https://arxiv.org/abs/2310.10688
## 模型结构 ## 模型结构
TimesFM是一种基于区块的decoder-only的模型,基于自注意力机制和传统的位置编码,主要由三个组件组成:输入层、Transformer层和输出层。 TimesFM是一种基于区块的decoder-only的模型,应用了自注意力机制和传统的位置编码,主要由三个组件组成:输入层、Transformer层和输出层。
<div align=center> <div align=center>
<img src="./doc/timesfm.png"/> <img src="./doc/timesfm.png"/>
...@@ -11,7 +11,9 @@ TimesFM是一种基于区块的decoder-only的模型,基于自注意力机制 ...@@ -11,7 +11,9 @@ TimesFM是一种基于区块的decoder-only的模型,基于自注意力机制
## 算法原理 ## 算法原理
1、输入层:将时间序列数据分割成相等长度的时序数据块(patch),然后通过残差块对每个时序数据块进行线性变化,进而得到Token。 1、输入层:将时间序列数据分割成相等长度的时序数据块(patch),然后通过残差块对每个时序数据块进行线性变化,进而得到Token。
2、Transformer层:应用了位置编码和自注意力机制。位置编码将时间信息注入Token(令牌)序列;自注意力允许模型学习序列中不同标记之间的依赖关系和关系:位置编码介入自注意力的构造意味着模型可以适应数据中不同的时间粒度和频率。 2、Transformer层:应用了位置编码和自注意力机制。位置编码将时间信息注入Token(令牌)序列;自注意力允许模型学习序列中不同标记之间的依赖关系和关系:位置编码介入自注意力的构造意味着模型可以适应数据中不同的时间粒度和频率。
3、输出层:使用层归一化和残差连接,将输出Token映射到最终预测。 3、输出层:使用层归一化和残差连接,将输出Token映射到最终预测。
TimesFM在真实世界的大型时间序列语料库上进行了预训练,可以为未见过的数据集生成可变长度的预测。 TimesFM在真实世界的大型时间序列语料库上进行了预训练,可以为未见过的数据集生成可变长度的预测。
......
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment