diff --git a/docker/china/mlu.Dockerfile b/docker/china/mlu.Dockerfile
index cf679f1c..f9dd9382 100644
--- a/docker/china/mlu.Dockerfile
+++ b/docker/china/mlu.Dockerfile
@@ -1,6 +1,6 @@
# 基础镜像配置 vLLM 或 LMDeploy ,请根据实际需要选择其中一个,要求 amd64(x86-64) CPU + Cambricon MLU.
# Base image containing the LMDEPLOY inference environment, requiring amd64(x86-64) CPU + Cambricon MLU.
-FROM crpi-4crprmm5baj1v8iv.cn-hangzhou.personal.cr.aliyuncs.com/lmdeploy_dlinfer/camb:qwen_vl2.5
+FROM crpi-4crprmm5baj1v8iv.cn-hangzhou.personal.cr.aliyuncs.com/lmdeploy_dlinfer/camb:qwen2.5_vl
ARG BACKEND=lmdeploy
# Base image containing the vLLM inference environment, requiring amd64(x86-64) CPU + Cambricon MLU.
# FROM crpi-vofi3w62lkohhxsp.cn-shanghai.personal.cr.aliyuncs.com/opendatalab-mineru/mlu:vllm0.8.3-torch2.6.0-torchmlu1.26.1-ubuntu22.04-py310
diff --git a/docs/zh/usage/acceleration_cards/Ascend.md b/docs/zh/usage/acceleration_cards/Ascend.md
index 739cb319..0ae863ff 100644
--- a/docs/zh/usage/acceleration_cards/Ascend.md
+++ b/docs/zh/usage/acceleration_cards/Ascend.md
@@ -175,4 +175,5 @@ docker run -u root --name mineru_docker --privileged=true \
🔴: 不支持,无法运行,或精度存在较大差异
>[!TIP]
->NPU加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[ASCEND_RT_VISIBLE_DEVICES](https://www.hiascend.com/document/detail/zh/CANNCommunityEdition/850alpha001/maintenref/envvar/envref_07_0028.html)
\ No newline at end of file
+> - NPU加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[ASCEND_RT_VISIBLE_DEVICES](https://www.hiascend.com/document/detail/zh/CANNCommunityEdition/850alpha001/maintenref/envvar/envref_07_0028.html)
+> - 在Ascend平台可以通过`npu-smi info`命令查看加速卡的使用情况,并根据需要指定空闲的加速卡ID以避免资源冲突。
\ No newline at end of file
diff --git a/docs/zh/usage/acceleration_cards/Cambricon.md b/docs/zh/usage/acceleration_cards/Cambricon.md
index e13af1d4..254c5291 100644
--- a/docs/zh/usage/acceleration_cards/Cambricon.md
+++ b/docs/zh/usage/acceleration_cards/Cambricon.md
@@ -36,24 +36,11 @@ docker run --name mineru_docker \
--privileged \
--ipc=host \
--network=host \
- --cap-add SYS_PTRACE \
- --device=/dev/mem \
- --device=/dev/dri \
- --device=/dev/infiniband \
- --device=/dev/cambricon_ctl \
- --device=/dev/cambricon_dev0 \
- --device=/dev/cambricon_dev1 \
- --device=/dev/cambricon_dev2 \
- --device=/dev/cambricon_dev3 \
- --device=/dev/cambricon_dev4 \
- --device=/dev/cambricon_dev5 \
- --device=/dev/cambricon_dev6 \
- --device=/dev/cambricon_dev7 \
- --group-add video \
--shm-size=400g \
--ulimit memlock=-1 \
- --security-opt seccomp=unconfined \
- --security-opt apparmor=unconfined \
+ -v /dev:/dev \
+ -v /lib/modules:/lib/modules:ro \
+ -v /usr/bin/cnmon:/usr/bin/cnmon \
-e MINERU_MODEL_SOURCE=local \
-e MINERU_LMDEPLOY_DEVICE=camb \
-it mineru:mlu-lmdeploy-latest \
@@ -86,7 +73,7 @@ docker run --name mineru_docker \
不同环境下,MinerU对Cambricon加速卡的支持情况如下表所示:
>[!TIP]
-> - `lmdeploy`黄灯问题为不能批量输出文件夹,单文件输入正常
+> - `lmdeploy`黄灯问题为不能输入文件夹使用批量解析功能,输入单个文件时表现正常。
> - `vllm`黄灯问题为在精度未对齐,在部分场景下可能出现预期外结果。
@@ -168,5 +155,6 @@ docker run --name mineru_docker \
🔴: 不支持,无法运行,或精度存在较大差异
>[!TIP]
->Cambricon加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[使用指定GPU设备](https://opendatalab.github.io/MinerU/zh/usage/advanced_cli_parameters/#cuda_visible_devices)章节说明,
+> - Cambricon加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[使用指定GPU设备](https://opendatalab.github.io/MinerU/zh/usage/advanced_cli_parameters/#cuda_visible_devices)章节说明,
>将环境变量`CUDA_VISIBLE_DEVICES`替换为`MLU_VISIBLE_DEVICES`即可。
+> - 在Cambricon平台可以通过`cnmon`命令查看加速卡的使用情况,并根据需要指定空闲的加速卡ID以避免资源冲突。
\ No newline at end of file
diff --git a/docs/zh/usage/acceleration_cards/Enflame.md b/docs/zh/usage/acceleration_cards/Enflame.md
index c92e1e16..fdd86c06 100644
--- a/docs/zh/usage/acceleration_cards/Enflame.md
+++ b/docs/zh/usage/acceleration_cards/Enflame.md
@@ -105,5 +105,6 @@ docker run -u root --name mineru_docker \
🔴: 不支持,无法运行,或精度存在较大差异
>[!TIP]
->GCU加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[使用指定GPU设备](https://opendatalab.github.io/MinerU/zh/usage/advanced_cli_parameters/#cuda_visible_devices)章节说明,
->将环境变量`CUDA_VISIBLE_DEVICES`替换为`TOPS_VISIBLE_DEVICES`即可。
\ No newline at end of file
+> - GCU加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[使用指定GPU设备](https://opendatalab.github.io/MinerU/zh/usage/advanced_cli_parameters/#cuda_visible_devices)章节说明,
+>将环境变量`CUDA_VISIBLE_DEVICES`替换为`TOPS_VISIBLE_DEVICES`即可。
+> - 在Enflame平台可以通过`efsmi`命令查看加速卡的使用情况,并根据需要指定空闲的加速卡ID以避免资源冲突。
\ No newline at end of file
diff --git a/docs/zh/usage/acceleration_cards/Hygon.md b/docs/zh/usage/acceleration_cards/Hygon.md
index 9b3e2da3..286bedcf 100644
--- a/docs/zh/usage/acceleration_cards/Hygon.md
+++ b/docs/zh/usage/acceleration_cards/Hygon.md
@@ -2,7 +2,7 @@
以下为本指南测试使用的平台信息,供参考:
```
os: Ubuntu 22.04.3 LTS
-cpu: Hygon Hygon C86-4G(x86-64)
+cpu: Hygon C86-4G(x86-64)
dcu: BW200
driver: 6.3.13-V1.12.0a
docker: 20.10.24
@@ -112,4 +112,5 @@ docker run -u root --name mineru_docker \
🔴: 不支持,无法运行,或精度存在较大差异
>[!TIP]
->DCU加速卡指定可用加速卡的方式与AMD GPU类似,请参考[GPU isolation techniques](https://rocm.docs.amd.com/en/docs-6.2.4/conceptual/gpu-isolation.html)
\ No newline at end of file
+> - DCU加速卡指定可用加速卡的方式与AMD GPU类似,请参考[GPU isolation techniques](https://rocm.docs.amd.com/en/docs-6.2.4/conceptual/gpu-isolation.html)
+> - 在Hygon平台可以通过`hy-smi`命令查看加速卡的使用情况,并根据需要指定空闲的加速卡ID以避免资源冲突。
\ No newline at end of file
diff --git a/docs/zh/usage/acceleration_cards/IluvatarCorex.md b/docs/zh/usage/acceleration_cards/IluvatarCorex.md
index 58566bfd..9c550a87 100644
--- a/docs/zh/usage/acceleration_cards/IluvatarCorex.md
+++ b/docs/zh/usage/acceleration_cards/IluvatarCorex.md
@@ -119,4 +119,5 @@ docker run --name mineru_docker \
🔴: 不支持,无法运行,或精度存在较大差异
>[!TIP]
->Iluvatar加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[使用指定GPU设备](https://opendatalab.github.io/MinerU/zh/usage/advanced_cli_parameters/#cuda_visible_devices)章节说明
\ No newline at end of file
+> - Iluvatar加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[使用指定GPU设备](https://opendatalab.github.io/MinerU/zh/usage/advanced_cli_parameters/#cuda_visible_devices)章节说明
+> - 在Iluvatar平台可以通过`ixsmi`命令查看加速卡的使用情况,并根据需要指定空闲的加速卡ID以避免资源冲突。
\ No newline at end of file
diff --git a/docs/zh/usage/acceleration_cards/METAX.md b/docs/zh/usage/acceleration_cards/METAX.md
index 95c46eec..e61b2547 100644
--- a/docs/zh/usage/acceleration_cards/METAX.md
+++ b/docs/zh/usage/acceleration_cards/METAX.md
@@ -148,4 +148,5 @@ docker run --ipc host \
🔴: 不支持,无法运行,或精度存在较大差异
>[!TIP]
->MACA加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[使用指定GPU设备](https://opendatalab.github.io/MinerU/zh/usage/advanced_cli_parameters/#cuda_visible_devices)章节说明。
\ No newline at end of file
+> - MACA加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[使用指定GPU设备](https://opendatalab.github.io/MinerU/zh/usage/advanced_cli_parameters/#cuda_visible_devices)章节说明。
+> - 在METAX平台可以通过`mx-smi`命令查看加速卡的使用情况,并根据需要指定空闲的加速卡ID以避免资源冲突。
\ No newline at end of file
diff --git a/docs/zh/usage/acceleration_cards/MooreThreads.md b/docs/zh/usage/acceleration_cards/MooreThreads.md
index 53dbdfa2..981fc26c 100644
--- a/docs/zh/usage/acceleration_cards/MooreThreads.md
+++ b/docs/zh/usage/acceleration_cards/MooreThreads.md
@@ -112,4 +112,5 @@ docker run -u root --name mineru_docker \
🔴: 不支持,无法运行,或精度存在较大差异
>[!TIP]
->MooreThreads加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[GPU 枚举](https://docs.mthreads.com/cloud-native/cloud-native-doc-online/install_guide/#gpu-%E6%9E%9A%E4%B8%BE)
\ No newline at end of file
+> - MooreThreads加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[GPU 枚举](https://docs.mthreads.com/cloud-native/cloud-native-doc-online/install_guide/#gpu-%E6%9E%9A%E4%B8%BE)
+> - 在MooreThreads平台可以通过`mthreads-gmi`命令查看加速卡的使用情况,并根据需要指定空闲的加速卡ID以避免资源冲突。
\ No newline at end of file
diff --git a/docs/zh/usage/acceleration_cards/THead.md b/docs/zh/usage/acceleration_cards/THead.md
index e1ca16e3..ac916095 100644
--- a/docs/zh/usage/acceleration_cards/THead.md
+++ b/docs/zh/usage/acceleration_cards/THead.md
@@ -139,4 +139,5 @@ docker run --privileged=true \
🔴: 不支持,无法运行,或精度存在较大差异
>[!TIP]
->PPU加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[使用指定GPU设备](https://opendatalab.github.io/MinerU/zh/usage/advanced_cli_parameters/#cuda_visible_devices)章节说明。
\ No newline at end of file
+> - PPU加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[使用指定GPU设备](https://opendatalab.github.io/MinerU/zh/usage/advanced_cli_parameters/#cuda_visible_devices)章节说明。
+> - 在T-Head平台可以通过`ppu-smi`命令查看加速卡的使用情况,并根据需要指定空闲的加速卡ID以避免资源冲突。
\ No newline at end of file