人工智能彻底改变了我们的工作方式,帮助我们完成从编码到创意写作的所有工作。然而,这些工具中的许多都依赖于互联网接入和第三方服务,从而引发了人们对离线时隐私和可靠性的担忧。
这就需要一种本地优先的方法,比如 Ollama 。它可以让你在计算机上直接使用各种 LLM 运行人工智能,而无需互联网连接。
无论您是寻求代码帮助的开发人员,还是探索人工智能功能的人,Ollama 都是您工具包中的好帮手。它支持多种模型,并提供了一个应用程序接口(API),可用于与模型进行编程交互。
安装Ollama
要开始使用 Ollama,你需要在电脑上安装它。
前往下载页面,为你的电脑选择合适的安装程序。它支持 macOS、Windows 和 Linux,还附带了官方 Docker 镜像。
如果你使用的是 macOS,也可以通过运行下面的命令用 Homebrew 安装:
brew install ollama
安装完成后,你可以在终端运行 ollama --version
来验证,查看当前安装的版本。
运行Ollama
现在我们已经安装了 Ollama,可以开始用它运行 LLM。我们可以从 Ollama 的模型库中选择一个 LLM。
在本例中,我们将运行 llama3.2 模型。
llama3.2 是 Meta 公司专为内容创建、摘要和检索增强生成(RAG)等任务而设计的模型。它支持多种语言,包括英语、西班牙语和法语,而且结构紧凑,非常适合轻量级应用。如果您需要更强大的功能,可以选择像 llama3.3 这样拥有 700 亿个参数的大型模型。不过,较大的型号需要更多的计算资源,因此在更换之前,请确保您的系统能够承受。
要在 Ollama 中使用 llama3.2,我们可以键入
ollama run llama3.2
如果这是您第一次运行此模型,Ollama 会下载模型文件并将其缓存到您的计算机上。根据网速,这个过程可能需要几分钟。
下载完成后,我们就可以在终端上开始与它交互了。它将为您提供一个输入提示,然后模型将根据您的输入生成响应。
要在终端中退出与当前模型的交互,可以键入 /bye
或按键盘上的 Ctrl/Cmd + D
。
Ollama API
Ollama 提供了一个 API,允许您以编程方式与其模型交互,您可以用它将其集成到您的应用程序、网站或其他项目中。
默认情况下,API 的访问地址是 http://127.0.0.1:11434
,下面是您可以用于这些目的的一些关键端点:
端点 | 说明 |
---|---|
POST /api/generate |
使用提供的模型为给定提示生成回复。 |
POST /api/embed |
使用提供的模型为给定文本生成嵌入。 |
GET /api/tags |
列出本地机器上可用的模型。 |
GET /api/ps |
列出当前正在运行的模型。 |
Ollama 还提供了 Python 和 JavaScript SDK,以便更轻松地与 API 交互。
与OpenAI兼容
除了自己的 API 之外,Ollama 还为 OpenAI 的 API 提供了一个兼容性层。这样,您就可以在 Ollama 中重复使用为 OpenAI API 设计的代码和 SDK,从而更轻松地在两者之间进行转换。
不过,到目前为止,兼容层还处于测试阶段,某些功能可能还不能完美运行。为了获得最佳体验,建议直接使用 Ollama 的 API。
小结
Ollama 是一款强大而灵活的本地运行人工智能的工具,它提供了隐私性、可靠性和对运行模型的完全控制。
借助其 API 和工具,Ollama 为将人工智能集成到项目中提供了无限可能。从生成快速响应到解决复杂问题,它都能提供无缝、私密的体验。
敬请关注更多教程,我们将探索更多高级功能和用例!
评论留言