Skip to content
GitLab
Menu
Projects
Groups
Snippets
Loading...
Help
Help
Support
Community forum
Keyboard shortcuts
?
Submit feedback
Contribute to GitLab
Sign in / Register
Toggle navigation
Menu
Open sidebar
xuwx1
LightX2V
Commits
719fdfa4
Commit
719fdfa4
authored
Jul 11, 2025
by
helloyongyang
Browse files
update readme
parent
34df26f6
Changes
3
Hide whitespace changes
Inline
Side-by-side
Showing
3 changed files
with
5 additions
and
71 deletions
+5
-71
README.md
README.md
+1
-1
README_ja.md
README_ja.md
+0
-69
README_zh.md
README_zh.md
+4
-1
No files found.
README.md
View file @
719fdfa4
...
@@ -9,7 +9,7 @@
...
@@ -9,7 +9,7 @@
[

](https://lightx2v-zhcn.readthedocs.io/zh-cn/latest)
[

](https://lightx2v-zhcn.readthedocs.io/zh-cn/latest)
[

](https://hub.docker.com/r/lightx2v/lightx2v/tags)
[

](https://hub.docker.com/r/lightx2v/lightx2v/tags)
**\[ English | [中文](README_zh.md)
| [日本語](README_ja.md)
\]**
**\[ English | [中文](README_zh.md) \]**
</div>
</div>
...
...
README_ja.md
deleted
100644 → 0
View file @
34df26f6
<div
align=
"center"
style=
"font-family: charter;"
>
<h1>
⚡️ LightX2V:
<br>
軽量ビデオ生成推論フレームワーク
</h1>
<img
alt=
"logo"
src=
"assets/img_lightx2v.png"
width=
75%
></img>
[

](https://opensource.org/licenses/Apache-2.0)
[

](https://deepwiki.com/ModelTC/lightx2v)
[

](https://lightx2v-en.readthedocs.io/en/latest)
[

](https://lightx2v-zhcn.readthedocs.io/zh-cn/latest)
[

](https://hub.docker.com/r/lightx2v/lightx2v/tags)
**\[ [English](README.md) | [中文](README_zh.md) | 日本語 \]**
</div>
--------------------------------------------------------------------------------
**LightX2V**
は、複数の先進的なビデオ生成推論技術を組み合わせた 軽量ビデオ生成推論フレームワーク です。単一のプラットフォームで テキストからビデオ (T2V)、画像からビデオ (I2V) など多様な生成タスクとモデルをサポートします。
**X2V は「さまざまな入力モダリティ(テキスト・画像など)をビデオに変換する」ことを意味します。**
## 💡 はじめに
詳細手順はドキュメントをご覧ください:
**[English Docs](https://lightx2v-en.readthedocs.io/en/latest/)**
|
**[中文文档](https://lightx2v-zhcn.readthedocs.io/zh-cn/latest/)**
## 🤖 対応モデル一覧
-
✅
[
HunyuanVideo-T2V
](
https://huggingface.co/tencent/HunyuanVideo
)
-
✅
[
HunyuanVideo-I2V
](
https://huggingface.co/tencent/HunyuanVideo-I2V
)
-
✅
[
Wan 2.1-T2V
](
https://huggingface.co/Wan-AI/Wan2.1-T2V-1.3B
)
-
✅
[
Wan 2.1-I2V
](
https://huggingface.co/Wan-AI/Wan2.1-I2V-14B-480P
)
-
✅
[
Wan 2.1-T2V-StepDistill-CfgDistill
](
https://huggingface.co/lightx2v/Wan2.1-T2V-14B-StepDistill-CfgDistill
)
(
おすすめ
🚀🚀🚀)
-
✅
[
Wan 2.1-T2V-CausVid
](
https://huggingface.co/lightx2v/Wan2.1-T2V-14B-CausVid
)
-
✅
[
SkyReels-V2-DF
](
https://huggingface.co/Skywork/SkyReels-V2-DF-14B-540P
)
-
✅
[
CogVideoX 1.5-5B-T2V
](
https://huggingface.co/THUDM/CogVideoX1.5-5B
)
## 🧾 コントリビューションガイドライン
プロジェクト全体でコードフォーマットを統一するため、
`pre-commit`
フックを用意しています。
> [!Tip]
> 1. 依存パッケージをインストール
> ```bash
> pip install ruff pre-commit
> ```
> 2. コミット前に実行
> ```bash
> pre-commit run --all-files
> ```
ご協力ありがとうございます!
## 🤝 謝辞
本リポジトリの実装は、上記すべてのモデル関連リポジトリを参考にしています。
## 🌟 Star 推移
[

](https://star-history.com/#ModelTC/lightx2v&Timeline)
## ✏️ 引用
本フレームワークが研究に役立った場合は、以下を引用してください。
```
bibtex
@misc
{
lightx2v
,
author
=
{lightx2v contributors}
,
title
=
{LightX2V: Light Video Generation Inference Framework}
,
year
=
{2025}
,
publisher
=
{GitHub}
,
howpublished
=
{\url{https://github.com/ModelTC/lightx2v}}
,
}
README_zh.md
View file @
719fdfa4
...
@@ -9,9 +9,12 @@
...
@@ -9,9 +9,12 @@
[

](https://lightx2v-zhcn.readthedocs.io/zh-cn/latest)
[

](https://lightx2v-zhcn.readthedocs.io/zh-cn/latest)
[

](https://hub.docker.com/r/lightx2v/lightx2v/tags)
[

](https://hub.docker.com/r/lightx2v/lightx2v/tags)
**\[ [English](README.md) | 中文 | [日本語](README_ja.md) \]**
**\[ [English](README.md) | 中文 \]**
</div>
</div>
--------------------------------------------------------------------------------
**LightX2V**
是一个轻量级的视频生成推理框架,集成多种先进的视频生成推理技术,统一支持 文本生成视频 (T2V)、图像生成视频 (I2V) 等多种生成任务及模型。
**X2V 表示将不同的输入模态(X,如文本或图像)转换(to)为视频输出(V)。**
**LightX2V**
是一个轻量级的视频生成推理框架,集成多种先进的视频生成推理技术,统一支持 文本生成视频 (T2V)、图像生成视频 (I2V) 等多种生成任务及模型。
**X2V 表示将不同的输入模态(X,如文本或图像)转换(to)为视频输出(V)。**
## 💡 快速开始
## 💡 快速开始
...
...
Write
Preview
Markdown
is supported
0%
Try again
or
attach a new file
.
Attach a file
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Cancel
Please
register
or
sign in
to comment