-
操作系统

- Linux (Ubuntu 20.04 / 22.04 推荐): 这是最主流、支持最好的环境,社区问题也最容易找到解决方案。
- Windows (WSL2): 可以通过 Windows Subsystem for Linux 2 获得接近原生Linux的体验,是Windows用户的最佳选择。
- macOS (Apple Silicon 或 Intel): 可以运行,但GPU加速训练/推理主要依赖Apple的Metal Performance Shaders,与主流的CUDA生态有差异。
-
Python
- Python 3.8 - 3.11: 这是PyTorch等主流深度学习框架稳定支持的版本范围,建议使用 10。
-
包管理与环境隔离
- Conda 或 Miniconda: 强烈推荐,可以轻松创建独立的Python环境,管理不同版本的Python和依赖包,避免冲突。
- pip: Python自带的包管理器,用于安装具体的Python包。
-
CUDA 和 cuDNN
- NVIDIA GPU 用户必备: OpenCLAW 的底层依赖 PyTorch 需要它们来进行GPU加速。
- CUDA Toolkit: 版本需与PyTorch官方预编译版本匹配(如 PyTorch 2.x 常对应 CUDA 11.8 或 12.1)。
- cuDNN: NVIDIA深度神经网络加速库,CUDA的配套组件。
- 驱动: 确保NVIDIA显卡驱动版本足够新以支持你安装的CUDA版本。
-
Docker
- 可选但高度推荐: 如果你希望环境完全可复现、免去复杂的配置过程,或者需要在不同机器间迁移,Docker是最佳选择,OpenCLAW项目通常会提供官方的
Dockerfile或推荐的基础镜像。
- 可选但高度推荐: 如果你希望环境完全可复现、免去复杂的配置过程,或者需要在不同机器间迁移,Docker是最佳选择,OpenCLAW项目通常会提供官方的
主要Python库(通过 pip/conda 安装)
在你的Conda虚拟环境或Python环境中,必须安装以下核心库:
-
PyTorch: 深度学习框架的核心,安装时务必去 官网 根据你的CUDA版本选择正确的命令。
# 对于CUDA 11.8 pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
-
Transformers: Hugging Face 的 Transformers 库是构建和使用大模型的基石,OpenCLAW必然重度依赖。
pip install transformers
-
OpenCLAW 项目本体
# 从GitHub克隆 git clone https://github.com/open-mmlab/OpenCLAW.git cd OpenCLAW pip install -v -e . # `-e` 表示以可编辑模式安装,方便你修改源码。
-
视觉与多模态处理库
torchvision: 通常与PyTorch一同安装,用于图像处理和数据增强。Pillow (PIL): 基础的图像处理库。opencv-python (cv2): 强大的计算机视觉库,用于更复杂的图像/视频处理。decord或av: 高效的视频解码库,用于处理视频数据。
-
训练与实用工具库
accelerate: Hugging Face 出品的库,简化分布式训练和混合精度训练。bitsandbytes: 实现 8-bit/4-bit 量化,对于在消费级显卡上运行大模型至关重要。deepspeed: Microsoft 的深度学习优化库,用于极大规模的模型训练(如ZeRO-3优化)。wandb或tensorboard: 实验跟踪和可视化工具,用于记录损失、指标等。scikit-learn: 用于评估指标计算(如准确率、F1分数)。tqdm: 显示进度条。
可选但强大的工具
-
模型量化与加速
- AWQ / GPTQ: 更先进的量化算法,能在精度损失极小的情况下,大幅提升推理速度、降低显存占用。
- vLLM 或 TGI: 专为LLaMA等大模型设计的高吞吐量推理和服务框架,如果你需要部署API服务,它们是不二之选。
-
开发与调试
- Jupyter Lab / Notebook: 用于交互式开发和演示。
- VS Code / PyCharm: 强大的IDE,提供代码补全、调试、Git集成等功能。
-
数据管理
- Git LFS: 如果你的项目需要管理大型数据文件或模型文件,Git LFS是必须的。
硬件建议
-
GPU: 这是最大的瓶颈。
- 训练: 建议 显存 >= 24GB(如RTX 3090/4090, A5000, A100等),训练完整模型可能需要多卡。
- 微调 (Fine-tuning): 显存 >= 16GB 是较为理想的门槛(如RTX 4080, A4000),使用LoRA/QLoRA等技术可以降低要求。
- 推理/评估: 显存 >= 12GB 可以运行较大模型(如RTX 3060 12G, RTX 4060 Ti 16G),同样可借助量化技术(bitsandbytes, GPTQ)在8GB甚至更小的卡上运行。
-
CPU & RAM:
- CPU: 现代多核CPU(如 Intel i7/i9 或 AMD Ryzen 7/9),用于数据预处理。
- 内存: 建议 >= 32GB,处理大型数据集时,内存越大越好。
-
存储:
- 硬盘: 使用 NVMe SSD,模型文件(动辄数十GB)的加载速度和数据集的读取速度会得到巨大提升。
总结清单与快速开始建议
最简快速配置(以Ubuntu + NVIDIA GPU为例):
- 安装基础: 安装 Miniconda 和 合适的 NVIDIA 驱动。
- 创建环境:
conda create -n openclaw python=3.10 conda activate openclaw
- 安装PyTorch: 去 PyTorch 官网复制与你的CUDA版本匹配的命令。
- 获取OpenCLAW并安装:
git clone https://github.com/open-mmlab/OpenCLAW.git cd OpenCLAW pip install -v -e .
- 安装核心依赖:
pip install transformers accelerate bitsandbytes scikit-learn tqdm wandb pip install opencv-python pillow decord
最后提示: 务必查阅 OpenCLAW 官方 GitHub 仓库的 README.md 和 requirements.txt 文件,这是最权威、最准确的依赖说明,可能会随着版本更新而变化。