ollama
什么是 ollama ?
Ollama 是一个开源工具,专注于在本地运行、部署和管理大型语言模型(LLMs)。它简化了下载、运行和与各种开源 AI 模型交互的过程,特别适合开发者和研究人员在本地环境中快速体验和测试模型。
主要特点:
本地运行:无需依赖云服务,直接在个人计算机或服务器上运行模型,保障数据隐私。
模型支持:支持多种开源模型(如 LLaMA、Mistral、Gemma、Phi 等),通过简单命令即可下载和切换。
跨平台:支持 macOS、Linux 和 Windows(需通过 WSL 或 Docker)。
易用性:通过命令行工具提供直观的交互方式,例如:
ollama pull <模型名>
:下载模型。ollama run <模型名>
:运行模型并开始对话。
自定义模型:允许用户基于现有模型微调(fine-tune)并创建自己的模型变体。
常见用途:
本地开发测试:快速验证模型效果,无需云 API 费用。
隐私敏感场景:处理不希望上传到云端的数据(如医疗、金融信息)。
离线环境:在没有网络连接时仍能使用 AI 模型。
ollama 安装
参考官网 https://ollama.com 或 github https://github.com/ollama/ollama
此处以docker安装为例
- 拉取镜像
docker pull ollama/ollama:latest
- 运行容器
docker run -d \
--name ollama \
-p 11434:11434 \
-v your_data_dir:/root/.ollama \
ollama/ollama:latest
进入容器拉取模型
进入容器
docker exec -it ollama bash
拉取模型:
ollama pull <模型名称>
测试结果
curl "http://localhost:11434/api/generate" -d '{"model": "<模型名称>","prompt": "你好","stream": false}'