- Qwen2.5-72B-Instruct-mlx(4bit/8bit):模型名称中包含
mlx后缀,是专为 MLX 框架优化的版本,原生支持 MLX,可直接在 MLX 环境中加载使用。 - Qwen2.5-32B-Instruct-mlx:同样带
mlx后缀,原生支持 MLX。 - M2.1-8B-Instruct:模型名称无
mlx后缀,是通用版本(主要适配 PyTorch/TensorFlow),不直接支持 MLX;若要在 MLX 中使用,需自行转换模型格式(如转为 MLX 支持的.safetensors并适配权重结构)。
通过 ModelScope 命令行下载(无需写 Python 代码)
ModelScope 提供了 modelscope download 命令行工具,可直接下载模型,无需编写 Python 脚本,步骤如下:
1. 先安装 ModelScope(确保环境就绪)
运行
# 安装/升级modelscope(命令行工具依赖该库)
pip install modelscope==1.11.0 --upgrade
2. 命令行下载单个模型(核心命令)
格式:modelscope download --model 模型ID --local-dir 保存路径
(1)下载 Qwen2.5-72B-Instruct-mlx(4bit 量化)
运行
# 保存路径可自定义,例如 ./models/qwen72b-4bit-mlx
modelscope download --model qwen/Qwen2.5-72B-Instruct-mlx-4bit --local-dir ./models/qwen72b-4bit-mlx
(2)下载 Qwen2.5-72B-Instruct-mlx(8bit 量化)
运行
modelscope download --model qwen/Qwen2.5-72B-Instruct-mlx-8bit --local-dir ./models/qwen72b-8bit-mlx
(3)下载 Qwen2.5-32B-Instruct-mlx
运行
modelscope download --model qwen/Qwen2.5-32B-Instruct-mlx --local-dir ./models/qwen32b-mlx
(4)下载 M2.1-8B-Instruct
运行
modelscope download --model alibaba/M2.1-8B-Instruct --local-dir ./models/m2.1-8b

发表回复