玉林社区   玉林商家自荐   说一说有凭有据!先查资料,再答题,Facebo
返回列表
查看: 583|回复: 0

说一说有凭有据!先查资料,再答题,Facebo

[复制链接]

2万

主题

2万

帖子

8万

积分

论坛元老

Rank: 8Rank: 8

积分
81502
发表于 2021-10-19 16:20:43 | 显示全部楼层 |阅读模式

马上注册玉林红豆网会员,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有帐号?立即注册

x

专业背景知识,也可以写出专业文案。据悉,[url=http:///reachtheworldonfacebook.com/news/insights/future-ar-vr]Facebook 增强现实技术[/url]的数据表现越来越好,极具参考价值,很可能成为行业的风向标。[align=center]

                               
登录/注册后可看大图
[/align]
这就是NLP可以辅助人类做的事,它通过预训练模型查找相关内容,并解释上下文来完成一系列文本任务。
目前,诸如GPT-等通用NLP模型已经在文本生成领域展现出强大的性能,它表明预训练模型可以在参数中储备大量知识,在执行特定任务时,只需调用和微调即可得到SOTA结果。
但这款被称为“暴力美学”的超大模型,以及普遍的通用NLP,在预训练成本、处理知识密集型(K-I T,)任务等方面仍然存在一定的局限性。
对此,F提出了一种检索增强生成(R-A G,RAG)模型的解决方法。

这篇为《检索增强生成处理知识密集型NLP任务》的论文表明,RAG预训练模型在微调下游任务时,同样可以达到最佳结果。
不同的是,与其他如预训练模型相比,它可以对内部知识进行随时补充和调整,需浪费时间或因计算能力重新训练整个模型。
检索增强型语言模型,更高效、更灵活检索增强生成(RAG)架构,是一个端到端的可微模型,主要由问题编码器、神经检索器、生成器模型个部分构成。
其中生成器采用的是S2S模型,神经检索器访问的是维基百科密集向量索引,二者通过结合预训练的参数存储(P M)与非参数存储(N M)来生成语言。

采用标准S2S模型,意味着RAG需考虑序列长度和顺序,每个输入对应一个输出序列,但不同的是,RAG不会直接将输入结果直接传递给生成器,而是使用输入来检索一组相关文档,这也让RAG在性能比传统S2S模型有所提升。
举个例子,在以下问题编码器中,输入“第一个哺乳动物是什么时候出现在地球上”

RAG会先从W之类的数据库中检索一组相关文档。如与“哺乳动物”,“地球历史”和“哺乳动物进化”相关的内容,然后将这些内容作为上下文与输入串联起来,一起馈入到模型以产生最终的输出文本。
因此,RAG具有两种知识来源。一是2模型存储在其参数中的知识,即参数存储;二是检索语料库中存储的知识,也就是非参数存储。
这种两种知识来源是相辅相成的。F在博客中表明,
RAG使用非参数内存来“提示” S2S模型生成正确的响应,这种方式相当于将“仅参数存储”方法的灵活性与“基于检索”方法的性能结合在了一起。

RAG采用后期融合(L F)的形式来整合所有检索到的文档中的知识,这意味着它会根据文档内容提前进行答案预测,然后再汇总最终的预测结果。这种后期融合的形式可以让输出中的错误信号反向传播到检索机制中,这可以大大提高端到端系统的性能。
另外,F研究团队表示,RAG最大的一个优势在于它的灵活性。更改预先训练的语言模型所知道的内容需要使用新文档对整个模型进行重新训练,而这对于RAG而言,只需交换掉用于知识检索的文档即可,相比较而言,它更速且高效。
基于精准的文档输入,参数存储与非参数存储结合的方法,RAG在文本生成方面表现出了很高的性能,在某些情况下,它甚至可以自己生成答案,而这些答案不包含在任何检索到的文档中。
开放域问答测试,擅长知识密集型任务论文中,研究人员在NQ(NQ),CT(CT),TQA(TQA)以及WQ(WQ)四个开放域问答(O-QA)中,对RAG的性能进行了基准测试。O-QA是用于知识密集任务测试的常用应用程序。
在标准问答任务中,诸如“等边角形一角是多少度“之类的问题,模型只需从输入的文档找查找答案即可,但O-QA并不会提供特定文档,需要模型自主查找知识。由此,O-QA是检测RAG性能非常好的工具。
论文中,研究人员采用了J的问题形式,它是一种精确的、事性的陈述,如“世界杯”,J问题的回答是“1986年墨西哥成为第一个举办世界杯的”。
结果显示,RAG在知识密集型自然语言问题上表现出色,与其他模型相比,RAG产生的J问题更为具体,多样且真,这可能是由于RAG能够使用从多个来源获取的不同信息合成响应的能力有关。
C-B代表“仅参数化”,O-B代表“检索方法”
如图,RAG结合仅参数化和基于检索方法,在各个O-QA中,其性能非常显著。另外,与REALM和T5+SSM不同的是,RAG需高成本的“S S M”预培训,只依靠现成的组件就可以获得如此效果。
F在博客中也表明,RAG可以帮助研究人员速开发和部署,以解决知识密集型任务。他们表示,未来对知识密集型任务的处理将是NLP主要的研究方向之一,而RAG通过引入检索的方法,“允许NLP模型绕过再培训步骤,直接访问和提取最新信息,最后使用生成器输出结果”的方式表现出了良好的性能。
目前,这项研究已经在G开源,感兴趣的朋友的来体验一下~
G地址:_--README
W 语料库:
论文地址:202111401

引用链接:
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

收藏:1 | 帖子:5万



侵权举报:本页面所涉内容均为用户发表并上传,岭南都会网仅提供存储服务,岭南都会网不承担相应的法律责任;如存在侵权问题,请权利人与岭南都会网联系删除!