hqbsh.com 运行时间
HQBSH.com的whois记录显示注册于2013年1月18日,至今已经持续运营了:0年0个月0天零0小时0分钟0秒

最新报价
 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 18|回复: 0

Thinkpad服务器Ollama部署指南:Docker+GPU加速

[复制链接]

9

主题

1

回帖

6

银子

超级版主

积分
197
发表于 2026-2-9 14:40 | 显示全部楼层 |阅读模式
引言
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
随着AI技术的快速发展,越来越多的开发者开始关注本地AI部署方案。Ollama作为目前最流行的本地大语言模型运行工具,以其简洁易用的特点赢得了广泛好评。本文将手把手教你在Thinkpad服务器上部署Ollama,实现本地AI自由。<br><br>一、Thinkpad服务器选择建议
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
Thinkpad作为服务器运行AI工作负载具有独特优势:<br><br>1. 硬件配置推荐
   | 型号 | 内存 | 存储 | 适用场景 |
   |------|------|------|----------|
   | T14 | 32GB | 1TB SSD | 个人开发 |
   | P1 | 64GB | 2TB SSD | 团队共享 |
   | P53 | 128GB | 4TB SSD | 中小规模部署 |<br><br>2. 系统选择
   - Ubuntu 22.04 LTS(推荐)
   - CentOS 9 Stream
   - Debian 12<br><br>3. 网络配置
   - 固定IP地址
   - 开放防火墙端口:11434
   - 配置SSL证书(可选)<br><br>二、Docker环境安装
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
【安装Docker】
1. 更新系统:
   apt update && apt upgrade -y<br><br>2. 安装必要依赖:
   apt install -y apt-transport-https ca-certificates curl software-properties-common<br><br>3. 添加Docker官方GPG密钥:
   curl -fsSL https://download.docker.com/linux/ubuntu/gpg | gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg<br><br>4. 添加Docker仓库:
   echo "deb [arch=$(dpkg --print-architecture) signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" | tee /etc/apt/sources.list.d/docker.list > /dev/null<br><br>5. 安装Docker:
   apt update && apt install -y docker-ce docker-ce-cli containerd.io docker-compose-plugin<br><br>6. 启动Docker:
   systemctl start docker
   systemctl enable docker<br><br>【验证安装】
docker --version
docker compose version<br><br>三、Ollama Docker部署
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
【方法一:Docker直接运行】
1. 拉取镜像:
   docker pull ollama/ollama<br><br>2. 运行容器:
   docker run -d \
     --name ollama \
     -p 11434:11434 \
     -v ollama:/root/.ollama \
     -restart unless-stopped \
     ollama/ollama<br><br>3. 验证运行:
   curl http://localhost:11434/api/version<br><br>【方法二:Docker Compose部署】
创建 docker-compose.yml:<br><br>version: '3.8'
services:
  ollama:
    image: ollama/ollama:latest
    container_name: ollama
    ports:
      - "11434:11434"
    volumes:
      - ollama_data:/root/.ollama
    restart: unless-stopped
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: all
              capabilities: [gpu]<br><br>启动服务:
docker compose up -d<br><br>【配置GPU支持(NVIDIA)】
1. 安装NVIDIA驱动:
   apt install -y nvidia-driver-525<br><br>2. 安装NVIDIA Container Toolkit:
   distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
   curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
   curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
   apt update && apt install -y nvidia-container-toolkit<br><br>3. 重启Docker:
   systemctl restart docker<br><br>4. 验证GPU:
   docker run --rm --gpus all nvidia/cuda:12.0-base-ubuntu22.04 nvidia-smi<br><br>四、模型管理与使用
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
【常用模型列表】
| 模型名称 | 参数量 | 显存占用 | 适用场景 |
|----------|--------|----------|----------|
| qwen2.5 | 7B | 4GB | 日常对话 |
| llama3.2 | 3B | 2GB | 轻量使用 |
| codellama | 7B | 4GB | 代码辅助 |
| deepseek-r1 | 14B | 8GB | 复杂推理 |<br><br>【拉取模型】
curl http://localhost:11434/api/pull -d '{"name":"qwen2.5:7b"}'<br><br>【删除模型】
curl http://localhost:11434/api/delete -d '{"name":"qwen2.5:7b"}'<br><br>【查看已下载模型】
curl http://localhost:11434/api/tags<br><br>【API调用示例】
curl http://localhost:11434/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen2.5:7b",
    "messages": [
      {"role": "user", "content": "你好,请介绍一下你自己"}
    ],
    "temperature": 0.7,
    "max_tokens": 1000
  }'<br><br>五、Web界面配置
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
【安装WebUI】
1. 安装AnythingLLM:
   docker pull mintplexlabs/anythingllm<br><br>2. 运行容器:
   docker run -d \
     --name anythingllm \
     -p 3001:3001 \
     -v anythingllm_data:/app/storage \
     -e STORAGE_DIR=/app/storage \
     mintplexlabs/anythingllm<br><br>3. 访问地址:http://服务器IP:3001<br><br>【配置Ollama连接】
1. 在AnythingLLM中设置:
   - LLM Provider: Ollama
   - Ollama Base URL: http://localhost:11434
   - 选择模型:qwen2.5:7b<br><br>【安装OpenWebUI】
1. 克隆项目:
   git clone https://github.com/open-webui/open-webui.git
   cd open-webui<br><br>2. Docker部署:
   docker build -t open-webui .
   docker run -d \
     --name open-webui \
     -p 8080:8080 \
     -e OLLAMA_BASE_URL=http://localhost:11434 \
     -v open-webui:/app/backend/data \
     open-webui<br><br>3. 访问地址:http://服务器IP:8080<br><br>六、性能优化配置
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
【内存优化】
1. 设置模型内存上限:
   OLLAMA_NUM_PARALLEL=4<br><br>2. 模型缓存设置:
   OLLAMA_KEEP_ALIVE=5m<br><br>3. 查看内存使用:
   docker stats ollama<br><br>【并发配置】
{
  "ollama": {
    "num_parallel": 4,
    "keep_alive": "5m",
    "memory_lock": true
  }
}<br><br>【GPU加速配置】
1. 设置GPU使用:
   NVIDIA_VISIBLE_DEVICES=all<br><br>2. CUDA配置:
   CUDA_VISIBLE_DEVICES=0<br><br>【监控配置】
1. 安装Prometheus:
   docker run -d \
     --name prometheus \
     -p 9090:9090 \
     -v prometheus_data:/prometheus \
     prom/prometheus<br><br>2. 添加Grafana:
   docker run -d \
     --name grafana \
     -p 3000:3000 \
     -v grafana_data:/var/lib/grafana \
     grafana/grafana<br><br>七、安全配置
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
【防火墙设置】
1. Ubuntu UFW:
   ufw allow 22/tcp
   ufw allow 11434/tcp
   ufw allow 3001/tcp
   ufw enable<br><br>2. 只允许内网访问:
   ufw allow from 192.168.1.0/24 to any port 11434<br><br>【Nginx反向代理】
server {
    listen 80;
    server_name ollama.yourdomain.com;<br><br>    location / {
        proxy_pass http://localhost:11434;
        proxy_http_version 1.1;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
    }
}<br><br>【添加HTTPS(Let's Encrypt)】
apt install -y certbot python3-certbot-nginx
certbot --nginx -d ollama.yourdomain.com<br><br>【访问控制】
1. 设置API密钥:
   OLLAMA_API_KEY=your_secret_key<br><br>2. 请求时携带密钥:
   curl -H "Authorization: Bearer your_secret_key" \
     http://localhost:11434/v1/chat/completions<br><br>八、备份与恢复
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
【备份模型数据】
1. 停止容器:
   docker stop ollama<br><br>2. 打包数据:
   tar -czvf ollama_backup_$(date +%Y%m%d).tar.gz /var/lib/docker/volumes/ollama/_data/<br><br>【恢复数据】
1. 解压备份:
   tar -xzvf ollama_backup_20260209.tar.gz -C /tmp/<br><br>2. 恢复数据:
   docker cp /tmp/ollama/. ollama:/root/.ollama/<br><br>3. 重启容器:
   docker start ollama<br><br>【定时备份脚本】
#!/bin/bash
DATE=$(date +%Y%m%d)
BACKUP_DIR="/backup/ollama"
docker stop ollama
tar -czvf $BACKUP_DIR/ollama_$DATE.tar.gz /var/lib/docker/volumes/ollama/_data/
docker start ollama
echo "Backup completed: ollama_$DATE.tar.gz"<br><br>添加到crontab:
0 3 * * * /opt/scripts/backup_ollama.sh<br><br>九、常见问题解决
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
【模型加载失败】
❌ 表现:Error loading model
✅ 解决:
   1. 检查磁盘空间:df -h
   2. 清理缓存:docker exec ollama ollama rm <model_name>
   3. 重启容器:docker restart ollama<br><br>【GPU不可用】
❌ 表现:No GPU detected
✅ 解决:
   1. 检查驱动:nvidia-smi
   2. 重新安装NVIDIA Container Toolkit
   3. 重启Docker服务<br><br>【内存不足】
❌ 表现:OOM (Out of Memory)
✅ 解决:
   1. 使用更小的模型
   2. 减少并发数
   3. 增加Swap空间<br><br>【访问超时】
❌ 表现:Connection timeout
✅ 解决:
   1. 检查防火墙设置
   2. 验证端口是否开放
   3. 检查网络连接<br><br>十、总结
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
通过本文的介绍,读者已经掌握在Thinkpad服务器上通过Docker部署Ollama的完整方法。从环境准备到模型部署,从Web界面配置到安全加固,每个步骤都提供了详细指导。<br><br>【核心要点回顾】
1. Docker容器化部署,环境隔离
2. GPU加速配置,性能优化
3. Web界面管理,用户友好
4. 安全配置,生产可用
5. 备份恢复,数据安全<br><br>【下一步建议】
1. 尝试更多本地模型
2. 配置RAG知识库
3. 集成到开发工作流
4. 搭建团队共享平台<br><br>标签
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
Ollama部署, Docker, Thinkpad服务器, 本地大语言模型, AI服务器, Ollama配置, GPU加速, WebUI, OpenWebUI, AnythingLLM, 华强北, 选购指南
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

 
 
加好友78950405
QQ臨時會話
華強北商行笔记本,手機
淘宝阿里旺旺
沟通交流群:
水货thinkpad笔记本
工作时间:
11:00-22:00
电话:
18938079527
微信联系我们

QQ|手机版|华强北商行 ( 粤ICP备17062346号 )

JS of wanmeiff.com and vcpic.com Please keep this copyright information, respect of, thank you!JS of wanmeiff.com and vcpic.com Please keep this copyright information, respect of, thank you!

|网站地图 手机端 公司简介 联系方式 版权所有@

GMT+8, 2026-2-10 06:34 , Processed in 0.047909 second(s), 22 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表