服务分主服务和 AI 引擎两部分,运行环境要求如下:
主服务:
- 系统要求:
-
- Linux: x86_64 + ARM64 架构,建议 Ubuntu 22.04 及以上 LTS 版本
-
- Windows: WSL2 下 x86_64 + ARM64 架构,建议 Windows11 22H2 及以上版本
-
- macOS: x86_64 + ARM64 架构
AI 引擎:
- 系统要求:
-
- Linux: x86_64 架构,建议 Ubuntu 22.04 及以上 LTS 版本
-
- Windows: WSL2 下 x86_64 架构,建议 Windows11 22H2 及以上版本
-
- macOS: 暂不支持
- 显卡要求:
-
- NVIDIA:建议30系及以上显卡,显存8G及以上;显卡驱动版本527.41及以上;CUDA版本12.5.1及以上
-
- AMD:暂不支持
-
- Intel:暂不支持
-
- MThreads:暂不支持
软件要求
- Python: Python 3.10及以上
- Docker: 20.10 及以上版本,要求支持
docker compose
📄NOTICE:
采用 Docker 方法运行,请按照下述步骤安装环境,如果环境已安装且验证无问题,可跳过环境配置步骤,否则可能导致程序无法运行
Windows 环境需要注意:
- 摄像头只允许局域网拉流,Windows 下需要将 WSL2 的网络模式设置为 Mirrored
- WSL2 网络设置为 Mirrored 模式后,注意配置Hyper-V防火墙允许入站连接;重新刷新摄像头列表,如果还是离线状态,可以尝试关闭Windows防火墙
macOS 环境需要注意:
- macOS 使用 Docker 运行本服务,需要配置好虚拟机网络为桥接模式(可参考下述教程),否则无法拉流;
- Docker Desktop 的网络模式默认为 NAT 模式,通过 Docker Desktop 运行服务将无法拉流,可自行配置为桥接模式或者参考下述教程配置
- 建议使用有线网卡桥接,原因是macOS 的 Wi-Fi 硬件驱动(以及大多数无线接入点)不允许同一个 Wi-Fi 链接上有两个不同的 MAC 地址(一个是你的 Mac,一个是虚拟机)
Windows 环境配置可参考:English | 简体中文
下述所有操作都在models文件下进行。
小米自研的多模态模型,用于图像的本地推理。
模型下载地址:
-
huggingface: -
modelscope:
在models文件夹下,新建目录MiMo-VL-Miloco-7B,然后打开modelspace量化模型下载链接:
- 下载
MiMo-VL-Miloco-7B_Q4_0.gguf放到MiMo-VL-Miloco-7B目录下 - 下载
mmproj-MiMo-VL-Miloco-7B_BF16.gguf放到MiMo-VL-Miloco-7B目录下
如果机器显存够,也可以继续下载本地的规划模型,规划模型可以使用Qwen-8B模型,通过修改配置文件,也可以使用其它模型。
模型下载地址:
huggingface:https://huggingface.co/Qwen/Qwen3-8Bmodelscope: https://modelscope.cn/models/Qwen/Qwen3-8B-GGUF/files
在models文件夹下,新建Qwen3-8B目录,然后打开上述下载链接,下载 Q4 量化版本即可:
- 下载
Qwen3-8B-Q4_K_M.gguf放到Qwen3-8B目录下
使用docker compose运行程序,复制.env.example,命名为.env,端口根据实际环境修改。
运行程序:
# Pull 镜像
docker compose pull
# 卸载
docker compose down
# 启动
docker compose up -d通过https://<your ip>:8000访问服务,如果是本机访问, IP 为127.0.0.1;
📄NOTICE:
- 请使用 https 访问,而不是 http
- Windows 下,在 Windows 中可以尝试直接访问 WSL 的 IP 地址,如
https://<wsl ip>:8000- macOS 环境下,如果网络模式配置为桥接模式,访问时请使用 Docker 所在虚拟机的 IP。