如何通过modelscope下载模型

  1. Qwen2.5-72B-Instruct-mlx(4bit/8bit):模型名称中包含 mlx 后缀,是专为 MLX 框架优化的版本,原生支持 MLX,可直接在 MLX 环境中加载使用。
  2. Qwen2.5-32B-Instruct-mlx:同样带 mlx 后缀,原生支持 MLX
  3. M2.1-8B-Instruct:模型名称无 mlx 后缀,是通用版本(主要适配 PyTorch/TensorFlow),不直接支持 MLX;若要在 MLX 中使用,需自行转换模型格式(如转为 MLX 支持的 .safetensors 并适配权重结构)。

通过 ModelScope 命令行下载(无需写 Python 代码)

ModelScope 提供了 modelscope download 命令行工具,可直接下载模型,无需编写 Python 脚本,步骤如下:

1. 先安装 ModelScope(确保环境就绪)

运行

# 安装/升级modelscope(命令行工具依赖该库)
pip install modelscope==1.11.0 --upgrade

2. 命令行下载单个模型(核心命令)

格式:modelscope download --model 模型ID --local-dir 保存路径

(1)下载 Qwen2.5-72B-Instruct-mlx(4bit 量化)

运行

# 保存路径可自定义,例如 ./models/qwen72b-4bit-mlx
modelscope download --model qwen/Qwen2.5-72B-Instruct-mlx-4bit --local-dir ./models/qwen72b-4bit-mlx
(2)下载 Qwen2.5-72B-Instruct-mlx(8bit 量化)

运行

modelscope download --model qwen/Qwen2.5-72B-Instruct-mlx-8bit --local-dir ./models/qwen72b-8bit-mlx
(3)下载 Qwen2.5-32B-Instruct-mlx

运行

modelscope download --model qwen/Qwen2.5-32B-Instruct-mlx --local-dir ./models/qwen32b-mlx
(4)下载 M2.1-8B-Instruct

运行

modelscope download --model alibaba/M2.1-8B-Instruct --local-dir ./models/m2.1-8b

评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注