如何安装配置Ollama以本地部署大语言模型

人工智能彻底改变了我们的工作方式,帮助我们完成从编码创意写作的所有工作。然而,这些工具中的许多都依赖于互联网接入和第三方服务,从而引发了人们对离线时隐私和可靠性的担忧。

如何安装配置Ollama以本地部署大语言模型

这就需要一种本地优先的方法,比如 Ollama 。它可以让你在计算机上直接使用各种 LLM 运行人工智能,而无需互联网连接。

无论您是寻求代码帮助的开发人员,还是探索人工智能功能的人,Ollama 都是您工具包中的好帮手。它支持多种模型,并提供了一个应用程序接口(API),可用于与模型进行编程交互。

安装Ollama

要开始使用 Ollama,你需要在电脑上安装它。

前往下载页面,为你的电脑选择合适的安装程序。它支持 macOS、Windows 和 Linux,还附带了官方 Docker 镜像

如果你使用的是 macOS,也可以通过运行下面的命令用 Homebrew 安装:

brew install ollama

安装完成后,你可以在终端运行 ollama --version 来验证,查看当前安装的版本。

检测Ollama版本

运行Ollama

现在我们已经安装了 Ollama,可以开始用它运行 LLM。我们可以从 Ollama 的模型库中选择一个 LLM。

在本例中,我们将运行 llama3.2 模型。

运行 llama3.2 模型

llama3.2 是 Meta 公司专为内容创建、摘要和检索增强生成(RAG)等任务而设计的模型。它支持多种语言,包括英语、西班牙语和法语,而且结构紧凑,非常适合轻量级应用。如果您需要更强大的功能,可以选择像 llama3.3 这样拥有 700 亿个参数的大型模型。不过,较大的型号需要更多的计算资源,因此在更换之前,请确保您的系统能够承受。

要在 Ollama 中使用 llama3.2,我们可以键入

ollama run llama3.2

如果这是您第一次运行此模型,Ollama 会下载模型文件并将其缓存到您的计算机上。根据网速,这个过程可能需要几分钟。

下载完成后,我们就可以在终端上开始与它交互了。它将为您提供一个输入提示,然后模型将根据您的输入生成响应。

Ollama提示词交互

要在终端中退出与当前模型的交互,可以键入 /bye 或按键盘上的 Ctrl/Cmd + D

Ollama API

Ollama 提供了一个 API,允许您以编程方式与其模型交互,您可以用它将其集成到您的应用程序、网站或其他项目中。

默认情况下,API 的访问地址是 http://127.0.0.1:11434 ,下面是您可以用于这些目的的一些关键端点:

端点 说明
POST /api/generate 使用提供的模型为给定提示生成回复。
POST /api/embed 使用提供的模型为给定文本生成嵌入。
GET /api/tags 列出本地机器上可用的模型。
GET /api/ps 列出当前正在运行的模型。

Ollama 还提供了 PythonJavaScript SDK,以便更轻松地与 API 交互。

与OpenAI兼容

除了自己的 API 之外,Ollama 还为 OpenAI 的 API 提供了一个兼容性层。这样,您就可以在 Ollama 中重复使用为 OpenAI API 设计的代码和 SDK,从而更轻松地在两者之间进行转换。

不过,到目前为止,兼容层还处于测试阶段,某些功能可能还不能完美运行。为了获得最佳体验,建议直接使用 Ollama 的 API。

小结

Ollama 是一款强大而灵活的本地运行人工智能的工具,它提供了隐私性、可靠性和对运行模型的完全控制。

借助其 API 和工具,Ollama 为将人工智能集成到项目中提供了无限可能。从生成快速响应到解决复杂问题,它都能提供无缝、私密的体验。

敬请关注更多教程,我们将探索更多高级功能和用例!

评论留言