Skip to content
GitLab
Menu
Projects
Groups
Snippets
Loading...
Help
Help
Support
Community forum
Keyboard shortcuts
?
Submit feedback
Contribute to GitLab
Sign in / Register
Toggle navigation
Menu
Open sidebar
OpenDAS
ktransformers
Commits
19fd24f4
Unverified
Commit
19fd24f4
authored
Feb 18, 2025
by
Azure
Committed by
GitHub
Feb 18, 2025
Browse files
Merge pull request #412 from haojiubujian1985/delete-unused-link
Update README_ZH.md
parents
1c1769a5
49c6e2fc
Changes
1
Hide whitespace changes
Inline
Side-by-side
Showing
1 changed file
with
1 addition
and
0 deletions
+1
-0
README_ZH.md
README_ZH.md
+1
-0
No files found.
README_ZH.md
View file @
19fd24f4
...
@@ -21,6 +21,7 @@ KTransformers 是一个以 Python 为中心的灵活框架,其核心是可扩
...
@@ -21,6 +21,7 @@ KTransformers 是一个以 Python 为中心的灵活框架,其核心是可扩
<h2 id="Updates">
🔥 更新
</h2>
<h2 id="Updates">
🔥 更新
</h2>
*
**2025 年 2 月 15 日**
:KTransformers V0.2.1: 长上下文(从4K到8K,24GB VRAM) & 稍快的速度(+15%)(最快 16 Tokens/s),文档请参见
[
这里
](
./doc/en/DeepseekR1_V3_tutorial.md
)
和
[
在线指南
](
https://kvcache-ai.github.io/ktransformers/
)
。
*
**2025 年 2 月 10 日**
:支持 Deepseek-R1 和 V3 在单个(24GB VRAM)/多 GPU 和 382G DRAM 上运行,速度提升高达 3~28 倍。详细教程请参见
[
这里
](
./doc/en/DeepseekR1_V3_tutorial.md
)
。
*
**2025 年 2 月 10 日**
:支持 Deepseek-R1 和 V3 在单个(24GB VRAM)/多 GPU 和 382G DRAM 上运行,速度提升高达 3~28 倍。详细教程请参见
[
这里
](
./doc/en/DeepseekR1_V3_tutorial.md
)
。
*
**2024 年 8 月 28 日**
:支持 InternLM2.5-7B-Chat-1M 模型下的 1M 上下文,使用 24GB 的 VRAM 和 150GB 的 DRAM。详细教程请参见
[
这里
](
./doc/en/long_context_tutorial.md
)
。
*
**2024 年 8 月 28 日**
:支持 InternLM2.5-7B-Chat-1M 模型下的 1M 上下文,使用 24GB 的 VRAM 和 150GB 的 DRAM。详细教程请参见
[
这里
](
./doc/en/long_context_tutorial.md
)
。
*
**2024 年 8 月 28 日**
:将 DeepseekV2 所需的 VRAM 从 21G 降低到 11G。
*
**2024 年 8 月 28 日**
:将 DeepseekV2 所需的 VRAM 从 21G 降低到 11G。
...
...
Write
Preview
Markdown
is supported
0%
Try again
or
attach a new file
.
Attach a file
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Cancel
Please
register
or
sign in
to comment