Skip to content
GitLab
Menu
Projects
Groups
Snippets
Loading...
Help
Help
Support
Community forum
Keyboard shortcuts
?
Submit feedback
Contribute to GitLab
Sign in / Register
Toggle navigation
Menu
Open sidebar
wangsen
MinerU
Commits
afdab285
Unverified
Commit
afdab285
authored
Jul 14, 2025
by
Xiaomeng Zhao
Committed by
GitHub
Jul 14, 2025
Browse files
Merge pull request #3019 from myhloli/dev
Dev
parents
86526614
a7602a56
Changes
3
Hide whitespace changes
Inline
Side-by-side
Showing
3 changed files
with
11 additions
and
6 deletions
+11
-6
docs/zh/quick_start/docker_deployment.md
docs/zh/quick_start/docker_deployment.md
+5
-2
docs/zh/usage/advanced_cli_parameters.md
docs/zh/usage/advanced_cli_parameters.md
+2
-0
docs/zh/usage/index.md
docs/zh/usage/index.md
+4
-4
No files found.
docs/zh/quick_start/docker_deployment.md
View file @
afdab285
...
@@ -18,6 +18,7 @@ docker build -t mineru-sglang:latest -f Dockerfile .
...
@@ -18,6 +18,7 @@ docker build -t mineru-sglang:latest -f Dockerfile .
Mineru的docker使用了
`lmsysorg/sglang`
作为基础镜像,因此在docker中默认集成了
`sglang`
推理加速框架和必需的依赖环境。因此在满足条件的设备上,您可以直接使用
`sglang`
加速VLM模型推理。
Mineru的docker使用了
`lmsysorg/sglang`
作为基础镜像,因此在docker中默认集成了
`sglang`
推理加速框架和必需的依赖环境。因此在满足条件的设备上,您可以直接使用
`sglang`
加速VLM模型推理。
> [!NOTE]
> [!NOTE]
> 使用`sglang`加速VLM模型推理需要满足的条件是:
> 使用`sglang`加速VLM模型推理需要满足的条件是:
>
> - 设备包含Turing及以后架构的显卡,且可用显存大于等于8G。
> - 设备包含Turing及以后架构的显卡,且可用显存大于等于8G。
> - 物理机的显卡驱动应支持CUDA 12.6或更高版本,`Blackwell`平台应支持CUDA 12.8及更高版本,可通过`nvidia-smi`命令检查驱动版本。
> - 物理机的显卡驱动应支持CUDA 12.6或更高版本,`Blackwell`平台应支持CUDA 12.8及更高版本,可通过`nvidia-smi`命令检查驱动版本。
> - docker中能够访问物理机的显卡设备。
> - docker中能够访问物理机的显卡设备。
...
@@ -58,9 +59,11 @@ wget https://gcore.jsdelivr.net/gh/opendatalab/MinerU@master/docker/compose.yaml
...
@@ -58,9 +59,11 @@ wget https://gcore.jsdelivr.net/gh/opendatalab/MinerU@master/docker/compose.yaml
```
bash
```
bash
docker compose
-f
compose.yaml
--profile
mineru-api up
-d
docker compose
-f
compose.yaml
--profile
mineru-api up
-d
```
```
在浏览器中访问
`http://<server_ip>:8000/docs`
查看API文档。
>[!TIP]
>在浏览器中访问 `http://<server_ip>:8000/docs` 查看API文档。
-
启动 Gradio WebUI 服务:
-
启动 Gradio WebUI 服务:
```
bash
```
bash
docker compose
-f
compose.yaml
--profile
mineru-gradio up
-d
docker compose
-f
compose.yaml
--profile
mineru-gradio up
-d
```
```
在浏览器中访问
`http://<server_ip>:7860`
使用 Gradio WebUI 或访问
`http://<server_ip>:7860/?view=api`
使用 Gradio API。
>[!TIP]
\ No newline at end of file
>在浏览器中访问 `http://<server_ip>:7860` 使用 Gradio WebUI 或访问 `http://<server_ip>:7860/?view=api` 使用 Gradio API。
\ No newline at end of file
docs/zh/usage/advanced_cli_parameters.md
View file @
afdab285
...
@@ -46,10 +46,12 @@
...
@@ -46,10 +46,12 @@
> [!TIP]
> [!TIP]
> 以下是一些可能的使用场景:
> 以下是一些可能的使用场景:
>
> - 如果您有多张显卡,需要指定卡0和卡1,并使用多卡并行来启动'sglang-server',可以使用以下命令:
> - 如果您有多张显卡,需要指定卡0和卡1,并使用多卡并行来启动'sglang-server',可以使用以下命令:
> ```bash
> ```bash
> CUDA_VISIBLE_DEVICES=0,1 mineru-sglang-server --port 30000 --dp-size 2
> CUDA_VISIBLE_DEVICES=0,1 mineru-sglang-server --port 30000 --dp-size 2
> ```
> ```
>
> - 如果您有多张显卡,需要在卡0和卡1上启动两个`fastapi`服务,并分别监听不同的端口,可以使用以下命令:
> - 如果您有多张显卡,需要在卡0和卡1上启动两个`fastapi`服务,并分别监听不同的端口,可以使用以下命令:
> ```bash
> ```bash
> # 在终端1中
> # 在终端1中
...
...
docs/zh/usage/index.md
View file @
afdab285
...
@@ -15,15 +15,15 @@ MinerU内置了命令行工具,用户可以通过命令行快速使用MinerU
...
@@ -15,15 +15,15 @@ MinerU内置了命令行工具,用户可以通过命令行快速使用MinerU
# 默认使用pipeline后端解析
# 默认使用pipeline后端解析
mineru
-p
<input_path>
-o
<output_path>
mineru
-p
<input_path>
-o
<output_path>
```
```
-
`<input_path>`
:本地 PDF/图片 文件或目录
> [!TIP]
-
`<output_path>`
:输出目录
> - `<input_path>`:本地 PDF/图片 文件或目录
> - `<output_path>`:输出目录
> 更多关于输出文件的信息,请参考[输出文件说明](./output_file.md)。
> [!NOTE]
> [!NOTE]
> 命令行工具会在Linux和macOS系统自动尝试cuda/mps加速。Windows用户如需使用cuda加速,
> 命令行工具会在Linux和macOS系统自动尝试cuda/mps加速。Windows用户如需使用cuda加速,
> 请前往 [Pytorch官网](https://pytorch.org/get-started/locally/) 选择适合自己cuda版本的命令安装支持加速的`torch`和`torchvision`。
> 请前往 [Pytorch官网](https://pytorch.org/get-started/locally/) 选择适合自己cuda版本的命令安装支持加速的`torch`和`torchvision`。
> [!TIP]
> 更多关于输出文件的信息,请参考[输出文件说明](./output_file.md)。
```
bash
```
bash
# 或指定vlm后端解析
# 或指定vlm后端解析
...
...
Write
Preview
Markdown
is supported
0%
Try again
or
attach a new file
.
Attach a file
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Cancel
Please
register
or
sign in
to comment