diff --git a/docker/china/mlu.Dockerfile b/docker/china/mlu.Dockerfile index cf679f1c..f9dd9382 100644 --- a/docker/china/mlu.Dockerfile +++ b/docker/china/mlu.Dockerfile @@ -1,6 +1,6 @@ # 基础镜像配置 vLLM 或 LMDeploy ,请根据实际需要选择其中一个,要求 amd64(x86-64) CPU + Cambricon MLU. # Base image containing the LMDEPLOY inference environment, requiring amd64(x86-64) CPU + Cambricon MLU. -FROM crpi-4crprmm5baj1v8iv.cn-hangzhou.personal.cr.aliyuncs.com/lmdeploy_dlinfer/camb:qwen_vl2.5 +FROM crpi-4crprmm5baj1v8iv.cn-hangzhou.personal.cr.aliyuncs.com/lmdeploy_dlinfer/camb:qwen2.5_vl ARG BACKEND=lmdeploy # Base image containing the vLLM inference environment, requiring amd64(x86-64) CPU + Cambricon MLU. # FROM crpi-vofi3w62lkohhxsp.cn-shanghai.personal.cr.aliyuncs.com/opendatalab-mineru/mlu:vllm0.8.3-torch2.6.0-torchmlu1.26.1-ubuntu22.04-py310 diff --git a/docs/zh/usage/acceleration_cards/Ascend.md b/docs/zh/usage/acceleration_cards/Ascend.md index 739cb319..0ae863ff 100644 --- a/docs/zh/usage/acceleration_cards/Ascend.md +++ b/docs/zh/usage/acceleration_cards/Ascend.md @@ -175,4 +175,5 @@ docker run -u root --name mineru_docker --privileged=true \ 🔴: 不支持,无法运行,或精度存在较大差异 >[!TIP] ->NPU加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[ASCEND_RT_VISIBLE_DEVICES](https://www.hiascend.com/document/detail/zh/CANNCommunityEdition/850alpha001/maintenref/envvar/envref_07_0028.html) \ No newline at end of file +> - NPU加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[ASCEND_RT_VISIBLE_DEVICES](https://www.hiascend.com/document/detail/zh/CANNCommunityEdition/850alpha001/maintenref/envvar/envref_07_0028.html) +> - 在Ascend平台可以通过`npu-smi info`命令查看加速卡的使用情况,并根据需要指定空闲的加速卡ID以避免资源冲突。 \ No newline at end of file diff --git a/docs/zh/usage/acceleration_cards/Cambricon.md b/docs/zh/usage/acceleration_cards/Cambricon.md index e13af1d4..254c5291 100644 --- a/docs/zh/usage/acceleration_cards/Cambricon.md +++ b/docs/zh/usage/acceleration_cards/Cambricon.md @@ -36,24 +36,11 @@ docker run --name mineru_docker \ --privileged \ --ipc=host \ --network=host \ - --cap-add SYS_PTRACE \ - --device=/dev/mem \ - --device=/dev/dri \ - --device=/dev/infiniband \ - --device=/dev/cambricon_ctl \ - --device=/dev/cambricon_dev0 \ - --device=/dev/cambricon_dev1 \ - --device=/dev/cambricon_dev2 \ - --device=/dev/cambricon_dev3 \ - --device=/dev/cambricon_dev4 \ - --device=/dev/cambricon_dev5 \ - --device=/dev/cambricon_dev6 \ - --device=/dev/cambricon_dev7 \ - --group-add video \ --shm-size=400g \ --ulimit memlock=-1 \ - --security-opt seccomp=unconfined \ - --security-opt apparmor=unconfined \ + -v /dev:/dev \ + -v /lib/modules:/lib/modules:ro \ + -v /usr/bin/cnmon:/usr/bin/cnmon \ -e MINERU_MODEL_SOURCE=local \ -e MINERU_LMDEPLOY_DEVICE=camb \ -it mineru:mlu-lmdeploy-latest \ @@ -86,7 +73,7 @@ docker run --name mineru_docker \ 不同环境下,MinerU对Cambricon加速卡的支持情况如下表所示: >[!TIP] -> - `lmdeploy`黄灯问题为不能批量输出文件夹,单文件输入正常 +> - `lmdeploy`黄灯问题为不能输入文件夹使用批量解析功能,输入单个文件时表现正常。 > - `vllm`黄灯问题为在精度未对齐,在部分场景下可能出现预期外结果。 @@ -168,5 +155,6 @@ docker run --name mineru_docker \ 🔴: 不支持,无法运行,或精度存在较大差异 >[!TIP] ->Cambricon加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[使用指定GPU设备](https://opendatalab.github.io/MinerU/zh/usage/advanced_cli_parameters/#cuda_visible_devices)章节说明, +> - Cambricon加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[使用指定GPU设备](https://opendatalab.github.io/MinerU/zh/usage/advanced_cli_parameters/#cuda_visible_devices)章节说明, >将环境变量`CUDA_VISIBLE_DEVICES`替换为`MLU_VISIBLE_DEVICES`即可。 +> - 在Cambricon平台可以通过`cnmon`命令查看加速卡的使用情况,并根据需要指定空闲的加速卡ID以避免资源冲突。 \ No newline at end of file diff --git a/docs/zh/usage/acceleration_cards/Enflame.md b/docs/zh/usage/acceleration_cards/Enflame.md index c92e1e16..fdd86c06 100644 --- a/docs/zh/usage/acceleration_cards/Enflame.md +++ b/docs/zh/usage/acceleration_cards/Enflame.md @@ -105,5 +105,6 @@ docker run -u root --name mineru_docker \ 🔴: 不支持,无法运行,或精度存在较大差异 >[!TIP] ->GCU加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[使用指定GPU设备](https://opendatalab.github.io/MinerU/zh/usage/advanced_cli_parameters/#cuda_visible_devices)章节说明, ->将环境变量`CUDA_VISIBLE_DEVICES`替换为`TOPS_VISIBLE_DEVICES`即可。 \ No newline at end of file +> - GCU加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[使用指定GPU设备](https://opendatalab.github.io/MinerU/zh/usage/advanced_cli_parameters/#cuda_visible_devices)章节说明, +>将环境变量`CUDA_VISIBLE_DEVICES`替换为`TOPS_VISIBLE_DEVICES`即可。 +> - 在Enflame平台可以通过`efsmi`命令查看加速卡的使用情况,并根据需要指定空闲的加速卡ID以避免资源冲突。 \ No newline at end of file diff --git a/docs/zh/usage/acceleration_cards/Hygon.md b/docs/zh/usage/acceleration_cards/Hygon.md index 9b3e2da3..286bedcf 100644 --- a/docs/zh/usage/acceleration_cards/Hygon.md +++ b/docs/zh/usage/acceleration_cards/Hygon.md @@ -2,7 +2,7 @@ 以下为本指南测试使用的平台信息,供参考: ``` os: Ubuntu 22.04.3 LTS -cpu: Hygon Hygon C86-4G(x86-64) +cpu: Hygon C86-4G(x86-64) dcu: BW200 driver: 6.3.13-V1.12.0a docker: 20.10.24 @@ -112,4 +112,5 @@ docker run -u root --name mineru_docker \ 🔴: 不支持,无法运行,或精度存在较大差异 >[!TIP] ->DCU加速卡指定可用加速卡的方式与AMD GPU类似,请参考[GPU isolation techniques](https://rocm.docs.amd.com/en/docs-6.2.4/conceptual/gpu-isolation.html) \ No newline at end of file +> - DCU加速卡指定可用加速卡的方式与AMD GPU类似,请参考[GPU isolation techniques](https://rocm.docs.amd.com/en/docs-6.2.4/conceptual/gpu-isolation.html) +> - 在Hygon平台可以通过`hy-smi`命令查看加速卡的使用情况,并根据需要指定空闲的加速卡ID以避免资源冲突。 \ No newline at end of file diff --git a/docs/zh/usage/acceleration_cards/IluvatarCorex.md b/docs/zh/usage/acceleration_cards/IluvatarCorex.md index 58566bfd..9c550a87 100644 --- a/docs/zh/usage/acceleration_cards/IluvatarCorex.md +++ b/docs/zh/usage/acceleration_cards/IluvatarCorex.md @@ -119,4 +119,5 @@ docker run --name mineru_docker \ 🔴: 不支持,无法运行,或精度存在较大差异 >[!TIP] ->Iluvatar加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[使用指定GPU设备](https://opendatalab.github.io/MinerU/zh/usage/advanced_cli_parameters/#cuda_visible_devices)章节说明 \ No newline at end of file +> - Iluvatar加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[使用指定GPU设备](https://opendatalab.github.io/MinerU/zh/usage/advanced_cli_parameters/#cuda_visible_devices)章节说明 +> - 在Iluvatar平台可以通过`ixsmi`命令查看加速卡的使用情况,并根据需要指定空闲的加速卡ID以避免资源冲突。 \ No newline at end of file diff --git a/docs/zh/usage/acceleration_cards/METAX.md b/docs/zh/usage/acceleration_cards/METAX.md index 95c46eec..e61b2547 100644 --- a/docs/zh/usage/acceleration_cards/METAX.md +++ b/docs/zh/usage/acceleration_cards/METAX.md @@ -148,4 +148,5 @@ docker run --ipc host \ 🔴: 不支持,无法运行,或精度存在较大差异 >[!TIP] ->MACA加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[使用指定GPU设备](https://opendatalab.github.io/MinerU/zh/usage/advanced_cli_parameters/#cuda_visible_devices)章节说明。 \ No newline at end of file +> - MACA加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[使用指定GPU设备](https://opendatalab.github.io/MinerU/zh/usage/advanced_cli_parameters/#cuda_visible_devices)章节说明。 +> - 在METAX平台可以通过`mx-smi`命令查看加速卡的使用情况,并根据需要指定空闲的加速卡ID以避免资源冲突。 \ No newline at end of file diff --git a/docs/zh/usage/acceleration_cards/MooreThreads.md b/docs/zh/usage/acceleration_cards/MooreThreads.md index 53dbdfa2..981fc26c 100644 --- a/docs/zh/usage/acceleration_cards/MooreThreads.md +++ b/docs/zh/usage/acceleration_cards/MooreThreads.md @@ -112,4 +112,5 @@ docker run -u root --name mineru_docker \ 🔴: 不支持,无法运行,或精度存在较大差异 >[!TIP] ->MooreThreads加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[GPU 枚举](https://docs.mthreads.com/cloud-native/cloud-native-doc-online/install_guide/#gpu-%E6%9E%9A%E4%B8%BE) \ No newline at end of file +> - MooreThreads加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[GPU 枚举](https://docs.mthreads.com/cloud-native/cloud-native-doc-online/install_guide/#gpu-%E6%9E%9A%E4%B8%BE) +> - 在MooreThreads平台可以通过`mthreads-gmi`命令查看加速卡的使用情况,并根据需要指定空闲的加速卡ID以避免资源冲突。 \ No newline at end of file diff --git a/docs/zh/usage/acceleration_cards/THead.md b/docs/zh/usage/acceleration_cards/THead.md index e1ca16e3..ac916095 100644 --- a/docs/zh/usage/acceleration_cards/THead.md +++ b/docs/zh/usage/acceleration_cards/THead.md @@ -139,4 +139,5 @@ docker run --privileged=true \ 🔴: 不支持,无法运行,或精度存在较大差异 >[!TIP] ->PPU加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[使用指定GPU设备](https://opendatalab.github.io/MinerU/zh/usage/advanced_cli_parameters/#cuda_visible_devices)章节说明。 \ No newline at end of file +> - PPU加速卡指定可用加速卡的方式与NVIDIA GPU类似,请参考[使用指定GPU设备](https://opendatalab.github.io/MinerU/zh/usage/advanced_cli_parameters/#cuda_visible_devices)章节说明。 +> - 在T-Head平台可以通过`ppu-smi`命令查看加速卡的使用情况,并根据需要指定空闲的加速卡ID以避免资源冲突。 \ No newline at end of file