接入 Ollama 部署的本地模型

Ollama 是一个本地推理框架客户端,可一键部署如 Llama 2, Mistral, Llava 等大型语言模型。 Dify 支持接入 Ollama 部署的大型语言模型推理和 embedding 能力。

快速接入

下载并启动 Ollama

  1. 下载 Ollama

    访问 https://ollama.ai/download,下载对应系统 Ollama 客户端。

  2. 运行 Ollama 并与 Llava 聊天

    复制

    ollama run llava
    

    启动成功后,ollama 在本地 11434 端口启动了一个 API 服务,可通过 http://localhost:11434 访问。

    其他模型可访问 Ollama Models 了解详情。

  3. 在 Dify 中接入 Ollama

    设置 > 模型供应商 > Ollama 中填入:

    点击 "保存" 校验无误后即可在应用中使用该模型。

    Embedding 模型接入方式与 LLM 类似,只需将模型类型改为 Text Embedding 即可。

  4. 使用 Ollama 模型

    进入需要配置的 App 提示词编排页面,选择 Ollama 供应商下的 llava 模型,配置模型参数后即可使用。

FAQ

⚠️ 如果您使用Docker部署Dify和Ollama,您可能会遇到以下错误:

复制

httpconnectionpool(host=127.0.0.1, port=11434): max retries exceeded with url:/cpi/chat (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7f8562812c20>: fail to establish a new connection:[Errno 111] Connection refused'))

httpconnectionpool(host=localhost, port=11434): max retries exceeded with url:/cpi/chat (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7f8562812c20>: fail to establish a new connection:[Errno 111] Connection refused'))

这个错误是因为 Docker 容器无法访问 Ollama 服务。localhost 通常指的是容器本身,而不是主机或其他容器。要解决此问题,您需要将 Ollama 服务暴露给网络。

在Mac上设置环境变量

如果 Ollama 作为 macOS 应用程序运行,则应使用以下命令设置环境变量launchctl

  1. 通过调用launchctl setenv设置环境变量:

    复制

    launchctl setenv OLLAMA_HOST "0.0.0.0"
    
  2. 重启Ollama应用程序。

  3. 如果以上步骤无效,可以使用以下方法:

    问题是在docker内部,你应该连接到host.docker.internal,才能访问docker的主机,所以将localhost替换为host.docker.internal服务就可以生效了:

    复制

    <http://host.docker.internal:11434>
    

在Linux上设置环境变量