人工智能|从部署开源模型Llama2认识机器学习
引言
Llama2
是Meta AI开源的大模型。截止目前,它算是比较好的开源大模型。
但是,从部署的效果来看,比ChatGPT
的推理能力、写作能力还有一些小差距。
部署后的试用效果:
以上只是我个人短暂试用的结果, 你可以在完成部署后使用自己的测试会话来测试Llama2
。
Llama2 Chinese
模型介绍
Llama中文社区是一个专注于Llama模型在中文方面的优化和上层建设的高级技术社区。 基于大规模中文数据,从预训练开始对Llama2模型进行中文能力的持续迭代升级。
我们部署的Llama2-Chinese-7b-Chat模型可以在huggingface
找到。
需要注意https://huggingface.co在国内无法打开,需要科学上网。
Docker文件
我们的部署案例使用的Dockerfile
文件在Fork
项目里,点击这里直接查看。
将项目clone
到你本地查看Dockerfile
。
~ git clone https://github.com/kongh/Llama2-Chinese.git
~ git checkout kh
使用Aliyun部署模型
整个部署大概耗时1个小时,所以,费用一般就20元左右。
购买机器
在这里我们选择阿里云的GPU服务器, 优先选择配置GPU: 24G
的服务器。
- 选购机器
- 镜像和存储
- 网络和登录凭证
启动模型
- 登录服务器
~ ssh root@your server ip
- 查看GPU驱动
~ nvidia-smi
- 安装docker
你可以直接参考https://docs.docker.com/engine/install/ubuntu/安装, 也可以直接使用如下命令。
# Add Docker's official GPG key:
sudo apt-get update
sudo apt-get install ca-certificates curl gnupg
sudo install -m 0755 -d /etc/apt/keyrings
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg
sudo chmod a+r /etc/apt/keyrings/docker.gpg
# Add the repository to Apt sources:
echo \
"deb [arch="$(dpkg --print-architecture)" signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu \
"$(. /etc/os-release && echo "$VERSION_CODENAME")" stable" | \
sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
sudo apt-get update
# Install docker
sudo apt-get install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin
# Verify
docker info
- 构建镜像
由于模型约10G,大约需要40分钟才能构建完成,请耐心等待。
# 创建目录
~ mkdir ai && cd ai
# 克隆项目
~ git clone https://github.com/kongh/Llama2-Chinese.git
# 切换分支
~ git checkout kh
# 构建镜像
~ docker build -f docker/Dockerfile -t flagalpha/llama2-chinese-7b:gradio .
- 安装
NVIDIA Container Toolkit
# Configure the repository
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
&& curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list \
&& \
sudo apt-get update
# Install the NVIDIA Container Toolkit packages:
sudo apt-get install -y nvidia-container-toolkit
# Configure the container runtime by using the nvidia-ctk command:
sudo nvidia-ctk runtime configure --runtime=docker
# Restart the Docker daemon:
sudo systemctl restart docker
# Option, restart the server
sudo reboot
参考链接:https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html
- 启动/停止/删除容器
# 启动容器
docker run -d --name llama2 --gpus all -p 7860:7860 flagalpha/llama2-chinese-7b:gradio
# 查看日志
docker logs llama2 -f
# 停止容器
docker stop llama2
# 删除容器
docker rm llama2
- 配置安全组,开放端口
7860
- 试用Llama2
http://yourserverip:7860
哈哈哈,开始畅快的玩耍吧!!!
释放服务器
没有办法因为穷!!!
在服务器列表,点击停止
按钮停止服务器,最后点击释放设置
彻底释放服务器。