新闻动态

【实用工具】使用ollama和anythingLLM快速搭建本地知识库

接上文ollama实现本地化大模型部署。或许小伙伴们并不能满足使用命令行对话的交互方式,那么,可以选择搭配anythingLLM进行功能拓展。

本文将介绍如何使用ollama和anythingLLM快速搭建部署本地知识库,全程零代码、仅需要个人笔记本电脑即可实现。工具简介

图片

AnythingLLM是一款由Mintplex Labs, Inc开发的开源的一体化AI工具,可实现 RAG(Retrieval-Augmented Generation,检索增强生成)、AI 代理等功能。简单易用,功能强大,全程零代码配置,对硬件要求不高。

👉Windows 桌面端下载地址:

https://useanything.com/download

下面将详细讲解搭建过程,其中,ollama桌面端的安装和模型下载方法可参考上篇文章,在此不过多赘述。

👉ollama入门教程传送门:

https://mp.weixin.qq.com/s/cryo65AXAdeTlfQHWaNu5A具体步骤

01

按照默认配置安装anythingLLM

图片

图片

跳过初始化配置,进入主页。

02

选取和配置大模型,连接使用ollama

图片

图片

图片

图片

当然,也可直接anythingLLM中直接下载和使用可提供支持的大模型,这里选择使用ollama负责模型的下载管理。需要注意的是,在连接ollama之前,需要先运行和启动ollama服务,并提前下载好大模型,这里事先已经拉取了llama2-chinese、llama3和qwen,因此出现在下拉列表中。在这里,我们选择使用llama2-chinese模型。

03

选择配置embedding模型

图片

在Embedding Provider中,选择默认的AnythingLLM Embedder。

图片

备注:也可用ollama自行选择拉取embedding模型。

04

选择向量数据库

图片

图片

05

返回主页,新建工作区

图片

图片

06

配置知识库

图片

图片

为便于知识库分类管理,建立一个新的文件夹。

图片

图片

点击文件上传。当然,anythingLLM也支持在线网页解析,在此不做细表。

图片

点击刚上传的文档,选择“Move to Workspace”,并选择“Save and Embed”。

图片

图片

功能测试

图片

图片

对比可以看到,回答结果基本正确。结语以上就是使用ollama+anythingLLM快速搭建部署本地知识库的方法,欢迎大家选取自己感兴趣的大模型进行尝试。总体来说,anythingLLM功能全面、强大,可以满足大部分用户的需求,上手简单,交互友好。

END

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报。