Skip to content

ollama

一、什么是ollama

Ollama(通常写作 Ollama)是一个开源项目,专注于在本地计算机上运行、部署和管理大型语言模型(LLMs)。它旨在简化本地大模型的下载、配置和交互过程,特别适合开发者、研究人员和AI爱好者进行本地实验和开发。

二、下载安装及基本使用示例

1、安装 Ollama 官网(https://ollama.com)提供一键安装包,支持多平台。

2、下载模型

cmd
ollama pull qwen2.5:1.5b  # 下载 Meta 的 LLaMA 2 模型

3、运行模型

cmd
ollama run qwen2.5:1.5b  # 启动交互式对话

4、适用场景

本地开发与测试:快速验证模型效果,无需申请API或支付云服务费用。

隐私敏感场景:数据完全本地处理,避免上传到第三方。

教育/研究:学习大模型的工作原理,进行二次开发。

三、AIFlowy 中 ollama 的使用

1、配置 ollama, 参考如下图, aiflowy.ollama.host 配置您的 ollama 的地址

yml
aiflowy:
  ollama:
    host: http://127.0.0.1:11434

ollama_config.png

2、在 AiOllamaServiceImpl 类中注入 ollama 的地址

ollama_service.png

3、打开大模型商店,这里下载的模型都是基于您在 application.yml 文件中配置的 ollama 地址下载模型的

ollama_install.png