LLM(Large Language Model,大型语言模型)是一个功能强大的新平台,但它们并不总是使用与我们的任务相关的数据或者是最新的数据进行训练。

RAG(Retrieval Augmented Generation,检索增强生成)是一种将 LLM 与外部数据源(例如私有数据或最新数据)连接的通用方法。它允许 LLM 使用外部数据来生成其输出。

要想真正掌握 RAG,我们需要学习下图所示的技术(技巧):

我们已经学习了 Query TranslationRAG从入门到精通系列2:Query Translation(查询翻译)》、RoutingRAG从入门到精通系列3:Routing(路由)》和 Query ConstructionRAG从入门到精通系列4:Query Construction(查询构造)》。

现在我们又要按照上图的节点顺序回到《RAG从入门到精通系列1:基础RAG》中介绍过的 Indexing(索引)。

许多 RAG 方法侧重于将文档拆分成多个块,并在检索时返回一定数量的块给 LLM。但块大小和块数量是容易出错的参数,许多用户发现这些参数很难设置,如果它们没有包含足够的上下文来回答问题,都会显著影响结果。

Multi-representation

通过结合多种表示(例如,文档的摘要、块或完整内容),来在检索和生成过程中取得最佳效果。它通过使用不同层次和粒度的表示(简洁的摘要与详细的文档)来弥补单一表示可能存在的不足。

Proposition Indexing 是 Multi-representation 的一种实现方法:

  1. 我们使用 LLM 对原始文本进行总结形成摘要(Summary);

  2. 对摘要进行嵌入处理,保存到 Vector Store 中;同时也将原始文本保存到 Doc Store 中;

  3. 检索时,根据用户的 Question 嵌入去 Vector Store 中检索对应的摘要,然后返回原始的文本;

不过这种方法对长上下文的 LLM 来说更加友好。

首先我们加载两篇博客文章并利用 LLM 进行总结:

然后我们:

  1. 将原始文档存在内存数据中(借助于 InMemoryByteStore);

  2. 将摘要的嵌入向量存储到 vectorstore 中;

  3. 原始文档和对应的摘要嵌入向量通过 doc_id 关联。

如果我们通过 retriever 执行查询,那我们可以获得摘要及原始文档:

RAPTOR

RAPTOR(Recursive Abstractive Processing for Tree-Organized Retrieval)是一种将文档组织成分层结构的索引技术,它能够有效地实现递归式的信息抽象和检索。这种方法以“树”的形式组织文档数据,叶节点代表原始文档或者文档块,树的高层节点则代表这些文档经过抽象后的总结。RAPTOR 的目标是通过分层的方式,提升信息检索的效率,同时能够适应不同粒度的查询需求。

  1. 叶节点初始化

最底层(叶节点)的输入可以是:

  1. 嵌入与聚类
  • 生成每个叶节点内容的嵌入向量。

  • 根据文档内容的相似性,将嵌入的结果聚类,例如使用 K-means 或层次聚类算法。

  1. 聚类摘要
  • 对每个聚类中的文档或文本块进行信息整合和总结,生成一个高层的摘要。这一步可以使用 LLM 进行总结。
  1. 递归构建树状结构

RAPTOR的优点

  • 高效的层次化信息检索:通过分层组织,用户可以快速定位到感兴趣的层级(从概览到细节)。

  • 灵活的扩展性:可以处理不同粒度的数据(从段落到文档再到更大的集合)。

  • 适配 LLM:尤其是上下文窗口更大的模型(如 GPT-4 或 Claude)可以进一步增强其性能。

假设我们有一组关于“机器学习”领域的论文,目标是帮助用户快速检索相关信息并获取概要。

  1. 叶节点:初始论文集合
  1. 嵌入与聚类
  • 使用一个嵌入模型,将论文的各个部分转化为向量。

  • 使用聚类算法(如 K-means)将这些块分为主题类别,例如“神经网络优化”、“强化学习应用”和“机器学习模型解释性”。

  1. 摘要生成
  1. 递归摘要
  1. 最终树状结构
  • 顶层总结可以帮助用户快速了解整个论文集合的主题框架,而底层叶节点保留详细信息供深度查询。

实际应用场景

  1. 文档搜索引擎
    构建分层索引,帮助用户从概览快速定位到具体内容。

  2. 学术研究平台
    提供主题概览,同时允许深入阅读相关的论文章节。

  3. 企业知识管理系统
    在公司内部知识库中,通过 RAPTOR 整理文档,帮助员工快速获取有用的总结和细节。

  4. 法律文档处理
    针对长篇法律文件或案例库,通过 RAPTOR 分层构建法律条文及其解释的索引。

建立索引树

建立索引树的过程利用了高斯混合模型(GMM)UMAP 降维以及多尺度聚类方法。这些技术协同工作,可以高效地组织和抽象数据,形成树状结构。下面逐步讲解它们在索引树构建中的具体作用:

1. 高斯混合模型(Gaussian Mixture Model)

GMM 是一种基于概率的聚类算法,可以通过拟合多维数据的高斯分布来发现不同类别的聚类中心。

  • 建模数据分布:假设数据点的分布由若干个高斯分布组成,每个高斯分布对应一个聚类。

  • 确定最优聚类数:通过计算模型的贝叶斯信息准则(Bayesian Information Criterion,BIC),可以自动选择适合数据的最佳聚类数量(即高斯分布的数量)。

在索引树中的应用

  • 用于将数据(如文档嵌入向量)划分为多个簇,每个簇表示一组相似的文档。

  • 簇的中心可以进一步抽象为一个高层节点的摘要。

例子
假设输入是 1000 篇技术论文,每篇通过嵌入模型生成向量。

  • 使用 GMM 对这些向量进行聚类后,可能分成 5 个主题簇,如“计算机视觉”、“自然语言处理”、“强化学习”等。

  • 这些主题作为树的第一层节点。

2. UMAP降维

UMAP(Uniform Manifold Approximation and Projection)是一种流行的降维技术,可以将高维数据嵌入到低维空间,同时保留数据的局部和全局结构。

  • 支持聚类:UMAP 将相似的数据点投影到更接近的位置,从而有利于后续的聚类任务。

  • 自然分组:在低维空间中,数据的自然分组更加明显,便于识别不同的类别或主题。

在索引树中的应用

  • 在处理高维嵌入向量时,UMAP 可以先将数据降到低维空间(例如,从 768 维降到 10 维),提高聚类算法的效率和效果。

  • 它也可以用来直观地展示数据的分布,帮助理解数据的整体结构。

例子
在 1000 篇技术论文的嵌入向量(原始 768 维)上应用 UMAP 降维后,你可能会发现低维空间中的数据点聚集成若干组,这些组在语义上可能分别代表不同的研究领域。

3. 多尺度聚类(Local and Global Clustering)

为了捕获数据的细粒度(局部模式)和粗粒度(全局模式)特性,索引树的构建会结合多尺度聚类方法:

在索引树中的应用

例子
论文集合可能首先被分为领域(如“机器学习”与“计算机视觉”),这是全局聚类的结果;然后“机器学习”类别中的内容可以细分为更具体的主题(如“强化学习”与“模型优化”)。

4. 阈值处理(Thresholding)

在使用 GMM 聚类时,数据点的归属是基于概率的,而非确定的。

  • 阈值的设置:通过设定一个概率阈值,判断某个数据点是否属于某个簇。

  • 多重归属:对于某些边界点,可以允许其同时归属到多个簇,以确保信息不丢失。

在索引树中的应用

  • 确保模糊或多主题的数据点不会被过早剔除,而是允许它们在不同的主题中共享信息。

  • 增强了索引树的灵活性,使其可以适应更复杂的数据分布。

例子
某篇论文同时探讨了“自然语言处理”和“计算机视觉”,在 GMM 的聚类概率中,这篇论文可能被分配到这两个主题中,并在索引树中出现在两个分支下。

我加载了三篇 LangChain 文档,每篇文档中的 token 计数如下:

然后我们利用 RAPTOR 方法,将这 3 篇文档组织成一个索引树,由于我们的文档比较少且主题都比较集中,所以我最终只有一个簇群:

我们将这唯一一个簇群对应的摘要和这 3 篇文档一起存到 vector store 中:

然后就可以执行 RAG 管道了:

我这里因为每篇文档的长度都在 LLM 的上下文窗口长度上限内,所以我的叶子节点就是原始的文档,我也直接对原始文档进行嵌入并存入了 vector store。如果原始文档长度非常大,那么我们可以将原始文档切块,将文档块当作叶子节点:

ColBERT

到目前为止,我们所学的各种 RAG 技巧都是基于匹配文档(块)和问题的语义相似度来实现的,更具体地说:我们直接对整篇文档或者文档块与用户问题进行嵌入处理,比较处理之后的嵌入向量之间的相似程度。

但是有人说用户提出的问题可能是各种各样的,如果仅仅将整篇文档或者文档块压缩成一个向量表示,那么这未免太过于笼统了。

于是便有了有基于细粒度的 token 级嵌入相似性计算,即 ColBERT(Contextualized Late Interaction over BERT),看名字就知道它基于 BERT。

以下是具体的步骤和原理:

1. Token 级别相似度计算

2. 最大池化(MaxSim)操作

3. 选择最相关的文档

为什么这种方式有效?

  1. 关注细粒度匹配
  • 通过 token 级别的最大相似度,确保了即使查询中只有部分 token 能与文档匹配,这些匹配也能显著影响最终得分。
  1. 兼顾上下文信息
  • ColBERT 的 token 嵌入是基于上下文生成的,能够捕捉到更丰富的语义信息。
  1. 鲁棒性
  • 不依赖于查询和文档的严格字面匹配,能够处理词法变体、同义词或句子结构的变化。

ColBERT 的开源实现:

https://github.com/stanford-futuredata/ColBERT

关于具体的代码案例,可以参考:

https://python.langchain.com/docs/integrations/retrievers/ragatouille

零基础入门AI大模型

今天贴心为大家准备好了一系列AI大模型资源,包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

有需要的小伙伴,可以点击下方链接免费领取【保证100%免费

点击领取 《AI大模型&人工智能&入门进阶学习资源包》

1.学习路线图

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

2.视频教程

网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己整理的大模型视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。

在这里插入图片描述

在这里插入图片描述

(都打包成一块的了,不能一一展开,总共300多集)

3.技术文档和电子书

这里主要整理了大模型相关PDF书籍、行业报告、文档,有几百本,都是目前行业最新的。
在这里插入图片描述

4.LLM面试题和面经合集

这里主要整理了行业目前最新的大模型面试题和各种大厂offer面经合集。
在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

5.免费获取

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码或者点击以下链接都可以免费领取【保证100%免费】

点击领取 《AI大模型&人工智能&入门进阶学习资源包》

在这里插入图片描述

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。