Phi-3.5-Mini-Instruct部署教程:离线环境(无pip源)下的全量依赖打包方案
Phi-3.5-Mini-Instruct部署教程离线环境无pip源下的全量依赖打包方案1. 项目背景与挑战在离线环境中部署AI模型往往面临依赖包缺失的难题。本文将详细介绍如何为Phi-3.5-Mini-Instruct模型创建完整的离线部署包解决无网络环境下的依赖问题。Phi-3.5-Mini-Instruct作为微软推出的轻量级大模型具有7-8GB的显存占用和高效的推理性能。但在实际部署中我们发现以下典型问题离线服务器无法通过pip安装依赖不同Linux发行版的兼容性问题CUDA版本与PyTorch的匹配问题依赖包之间的版本冲突2. 准备工作2.1 硬件要求显卡NVIDIA GPU显存≥8GB存储空间至少20GB可用空间操作系统Ubuntu 18.04/CentOS 72.2 基础环境搭建在有网络的环境中准备以下工具# 安装必要工具 sudo apt-get update sudo apt-get install -y python3-pip python3-venv wget3. 全量依赖打包方案3.1 创建虚拟环境python3 -m venv phi3_env source phi3_env/bin/activate3.2 下载核心依赖包在有网络的环境中执行pip download \ torch2.1.0 \ transformers4.36.0 \ streamlit1.25.0 \ accelerate0.24.1 \ --platform manylinux2014_x86_64 \ --only-binary:all: \ -d phi3_dependencies关键参数说明--platform指定Linux平台兼容性--only-binary确保下载预编译的wheel文件-d指定下载目录3.3 模型文件准备下载Phi-3.5-Mini-Instruct模型文件wget https://huggingface.co/microsoft/Phi-3-mini-128k-instruct/resolve/main/model.safetensors -P model_files/ wget https://huggingface.co/microsoft/Phi-3-mini-128k-instruct/raw/main/config.json -P model_files/4. 离线部署步骤4.1 传输文件到离线环境将以下文件/目录打包传输phi3_dependencies/依赖包目录phi3_env/虚拟环境目录model_files/模型文件目录4.2 离线安装依赖在离线环境中执行source phi3_env/bin/activate pip install --no-index --find-linksphi3_dependencies \ torch transformers streamlit accelerate4.3 验证安装创建测试脚本test_phi3.pyfrom transformers import AutoModelForCausalLM, AutoTokenizer model_path model_files tokenizer AutoTokenizer.from_pretrained(model_path) model AutoModelForCausalLM.from_pretrained(model_path, torch_dtypeauto) input_text 解释量子计算的基本原理 inputs tokenizer(input_text, return_tensorspt) outputs model.generate(**inputs, max_new_tokens100) print(tokenizer.decode(outputs[0]))运行测试python test_phi3.py5. 常见问题解决5.1 CUDA版本不匹配如果遇到CUDA错误可以尝试pip install --no-index --find-linksphi3_dependencies torch2.1.0cu1185.2 缺少系统库可能需要安装的系统库sudo apt-get install -y libgl1-mesa-glx libsm6 libxrender15.3 模型加载失败确保模型文件完整config.jsonmodel.safetensors或pytorch_model.bintokenizer.json6. 总结与建议通过本方案我们实现了完整依赖打包所有Python依赖离线可用跨平台兼容预编译wheel文件支持主流Linux一键部署简化离线环境安装流程后续优化建议定期更新依赖包版本针对不同CUDA版本准备多个包考虑使用Docker容器化部署获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。