一文学会:用DeepSeek R1/V3 + AnythingLLM + Ollama 打造本地化部署的个人/企业知识库,无须担心数据上传云端的泄露问题

ops/2025/2/11 19:56:12/

文章目录

    • 前言
    • 一、AnythingLLM 简介&基础应用
      • 1.主要特性
      • 2.下载与安装
      • 3.配置 LLM 提供商
      • 4.AnythingLLM 工作区&对话
    • 二、AnythingLLM 进阶应用:知识增强使用
    • 三、AnythingLLM 的 API 访问
    • 四、小结
      • 1.聊天模式
      • 2.本地存储&向量数据库

前言

如果你不知道Ollama是什么,以及想知道如何安装并使用Ollama,请先移步本人的这篇文章:
《只看这篇就够了:本地电脑部署DeepSeek R1大模型,实现AI自由保姆级教程,从此妈妈再也不用担心服务器繁忙啦》(文章里的Chatbox可不用装)

本篇教程,咱就接着这篇文章,继续探索:

一、AnythingLLM 简介&基础应用

AnythingLLM 是一款开箱即用的一体化 AI 应用,支持 RAG(检索增强生成)、AI 代理等功能。
它无需编写代码或处理复杂的基础设施问题,适合快速搭建私有知识库和智能问答系统,并提供api方式调用。

1.主要特性

  • 多种部署方式:支持云端、本地和自托管部署。
  • 多用户协作:支持团队协作,适用于企业知识管理和客户支持。
  • 多模型支持:兼容 OpenAI、Anthropic、LocalAI 等主流大模型。
  • 多向量数据库支持:支持 Pinecone、Weaviate 等向量数据库。
  • 多文件格式处理:支持 PDF、TXT、DOCX 等文件格式。
  • 实时网络搜索:结合 LLM 响应缓存与对话标记功能,提供高效的文档管理和智能问答能力。

2.下载与安装

AnythingLLM 提供了 Mac、Windows 和 Linux 的安装包,用户可以直接从官网下载并安装。

官网地址:https://anythingllm.com

在这里插入图片描述

根据需要,下载自己对应的操作系统的版本。我这里以Windows版为例

安装完成后,首次启动时会提示配置偏好设置。用户可以根据需求进行设置,后续也可以随时修改。

3.配置 LLM 提供商

在 AnythingLLM 的设置页面,可以通过 LLM 首选项 修改 LLM 提供商。

本文使用本地部署的 Ollamadeepseek-r1:14b 模型。
配置完成后,务必点击 Save changes 按钮保存设置。

在这里插入图片描述

4.AnythingLLM 工作区&对话

我们新建一个工作区,取名为“xxx系统智能客服”,然后点击保存

在这里插入图片描述

工作区聊天设置,设置好默认的参数后,点击下方的“Update workspace”。

在这里插入图片描述

接下来就可以自由地对话啦:

在这里插入图片描述

在聊天界面中,用户可以创建多个工作区。
每个工作区可以独立管理文档和 LLM 设置,并支持多个会话(Thread),每个会话的上下文也是独立的。

二、AnythingLLM 进阶应用:知识增强使用

点击“上传”图标,上传一个文档,支持的格式多样,txt、csv、word等基本都涵盖了。

在这里插入图片描述

上传完成后,选择一个或多个文档,点击“Move to Workspace

在这里插入图片描述

点击右下角的“Save and Embed”,如弹出成功提示,就说明我们就配置完成啦。

在这里插入图片描述
在这里插入图片描述

现在你可以开始你的任意提问了,LLM会结合自己的知识,以及文档的内容,生成你提问的相应回答。

提示:保存成功后,请新开Thread哦,不然知识可能没有更新~

三、AnythingLLM 的 API 访问

AnythingLLM也是提供了对外api访问的,使得我们的其他程序,可以接入进来。

在这里插入图片描述在这里插入图片描述

创建好api密钥,打开api文档,根据你实际情况,用相应的语言,接入即可,就能达到上述我们图形化界面上的一系列操作。

四、小结

这里总结一些容易产生歧义的概念,以及个性化的配置。

1.聊天模式

我们可以看到,在“聊天设置”里,有2种模式:聊天查询

  • 聊天:将提供LLM的一般知识和找到的文档上下文的答案。
  • 查询:将提供找到的文档上下文的答案。

在这里插入图片描述

可以根据自己的实际情况,选择不同的聊天模式。

2.本地存储&向量数据库

由于我们的初衷是:打造个性化的本地知识库,所以对于向量数据库,推荐LanceDB,它是100%保存在本地的,无需担心会联网上传敏感数据,使得数据更安全。

同时,LanceDB也是默认配置,无需额外配置。

在这里插入图片描述


都看到这里了,各位帅哥/美女,不管有用没用,都帮忙点个赞呗,❤️谢谢~


Author
吴所畏惧 2025.02.10

http://www.ppmy.cn/ops/157599.html

相关文章

Go语言构建微服务:从入门到实战

引言 在云原生时代,微服务架构已成为构建复杂分布式系统的首选方案。Go语言凭借其卓越的并发支持、简洁的语法和高效的运行时,成为微服务开发的利器。本文将深入探讨如何用Go构建健壮的微服务系统,并通过完整案例演示关键实现细节。 一、微…

DeepSeek深度思考:客户端(Android/iOS)架构设计指南

目标读者:中高级开发者、架构师 适用场景:大型复杂应用开发、跨团队协作、长期维护迭代 一、架构设计核心原则 1.模块化(Modularization) 横向拆分:按功能边界划分(如登录、支付、消息模块)纵向…

【Linux】深入理解linux权限

🌟🌟作者主页:ephemerals__ 🌟🌟所属专栏:Linux 目录 前言 一、权限是什么 二、用户和身份角色 三、文件属性 1. 文件属性表示 2. 文件类型 3. 文件的权限属性 四、修改文件的权限属性和角色 1. …

苹果笔记本安装jmeter

下载并安装jmeter即可,jmeter官网下载地址:Apache JMeter - Download Apache JMeter 参考以下文章:“https://blog.csdn.net/weixin_51664828/article/details/145008755”

在微服务中,如何使用feign在各个微服务中进行远程调用

在微服务中&#xff0c;如何使用feign在不同微服务中进行远程调用 在微服务中&#xff0c;如何使用feign在不同微服务中进行远程调用 步骤&#xff1a; 第一步&#xff1a; 引入feign依赖 <dependency><groupId>org.springframework.cloud</groupId><…

11vue3实战-----封装缓存工具

11vue3实战-----封装缓存工具 1.背景2.pinia的持久化思路3.以localStorage为例解决问题4.封装缓存工具 1.背景 在上一章节&#xff0c;实现登录功能时候&#xff0c;当账号密码正确&#xff0c;身份验证成功之后&#xff0c;把用户信息保存起来&#xff0c;是用的pinia。然而p…

Axios 的原理

&#x1f90d; 前端开发工程师、技术日更博主、已过CET6 &#x1f368; 阿珊和她的猫_CSDN博客专家、23年度博客之星前端领域TOP1 &#x1f560; 牛客高级专题作者、打造专栏《前端面试必备》 、《2024面试高频手撕题》 &#x1f35a; 蓝桥云课签约作者、上架课程《Vue.js 和 E…

未来科技趋势浅析

基因编辑技术在农业育种上越来越火。这技术能改植物的基因&#xff0c;让它长得更好。比如&#xff0c;科学家用它来培育抗病虫害的作物。这样&#xff0c;农民就不必喷那么多农药了。还有&#xff0c;这种技术还能让作物适应不同的气候条件&#xff0c;这样即使天气不好&#…