- N +

谷歌推出DataGemma,解决“幻觉”问题并提升AI模型数据可靠性

谷歌推出DataGemma,解决“幻觉”问题并提升AI模型数据可靠性原标题:谷歌推出DataGemma,解决“幻觉”问题并提升AI模型数据可靠性

导读:

每经记者苗诗雨每经编辑孙磊月日大雨过后的北京天空浓云密布小米汽车工厂旁边的一处地块悄然进入施工阶段图片来源每经记者苗诗雨摄根据北京经济技术开发区开发建设局月日消息亦庄新城街区地...

每经记者:苗诗雨    每经编辑:孙磊7月26日,大雨过后的北京天空浓云密布,小米汽车工厂旁边的一处地块悄然进入施工阶段。图片来源:每经记者 苗诗雨 摄根据北京经济技术开发区开发建设局7月25日消息,亦庄新城YZ00-0606街区0106地块工业项目国有建设用地使用权挂牌出让工作于近日结束,由...

近日,谷歌推出了一项名为 D aGemma 的创新技术,旨在 大型语言模型在处理统计数据时容易产生“幻觉”的问题。

这一技术的出现,是 AI 领域在提高模型准确性和可靠性方面的新尝试。

大模型作为近年来 AI 领域的重大突破之一,已经在代码生成、内容生成等多个领域得到广泛应用,为个人和企业节省了宝贵的时间和资源。

即便取得了显著的进展,这些模型在处理涉及数值、统计数据或其他事实相关的问题时,仍然存在产生“幻觉”的倾向。所谓“幻觉”,是指模型有时会呈现不准确的信息。

谷歌的研究人员指出:“(我们)已经识别出造成这些现象的几个原因,包括大模型生成的本质上具有概率性,以及训练数据中缺乏足够的事实覆盖等。”

即便是传统的事实验证方法,在处理涉及逻辑、算术或比较操作的统计查询时,效果也往往不佳。这是因为统计数据分布在各种不同的模式和格式中,需要相当多的背景(上下文)知识才能正确解释。

为了 这些问题,谷歌研究人员用到了 D a Commons 。该 是公开可用的知识图谱,共包括 2400 亿多个可信组织丰富数据点,它们来自联合国、世界卫生组织、疾病控制与预防中心和人口普查局等。

他们通过两种不同的方法将其与 Gemma 系列语言模型结合,从而开发出了新的 D aGemma 模型。

该模型采用两种独特的方法,来提高其在处理统计数据时的准确性:检索交错生成(RIG,Ret eval Interleaving Gener ion)方法和检索增强生成(RAG,Ret eval Au ented Gener ion)方法。

RIG 方法通过比较模型的原始生成结果与存储在 D a Commons 中的相关统计数据,来提高事实准确性。

具体来说,经过微调的大模型会生成描述性的自然语言查询。

然后,一个多模型后处理管道将这个查询转换为结构化数据查询,执行后就能从 D a Commons 中检索相关的统计 ,从而支持或纠正大模型的生成结果,并提供相关引用(证据)。

另一种 RAG 方法是许多公司已经在使用的技术,用于帮助模型整合训练数据之外的相关信息。

在 D aGemma 中,经过微调的 Gemma 模型使用原始统计问题来提取相关变量,并为 D a Commons 数据库生成自然语言查询。执行这个查询指令,就会得到相关的统计数据或表格。

一旦提取了这些值,它们就会与原始用户查询一起被当做提示的一部分,输入到一个长上下文大模型(在这种情况下是 Gemini 1.5 Pro)中,进而生成具有高度准确性的最终 。

在对 101 个人工生成的查询进行 时,使用 RIG 方法微调的 D aGemma 将基线模型 17% 的事实准确率提高到了约 58%。虽然使用 RAG 方法的结果略显逊色,但仍然比基线模型有所改进。

D aGemma 模型能够回答 24-29% 的查询,提供来自 D a Commons 的统计响应。对于这些响应中的大多数,大模型在数字方面的回应通常是准确的(99%)。

在正确推断这些数字的含义时,它仍然有 6% 到 20% 的失误率。

尽管如此,RIG 和 RAG 都能有效地提高模型在处理统计查询时的准确性,特别是与研究和决策相关的查询。

它们各有优缺点,RIG 速度更快但细节较少(因为它检索单个统计数据并验证),而 RAG 提供更 的数据,但受到数据可用性和处理大量上下文能力的限制。

通过公开发布 D aGemma 及其 RIG 和 RAG 方法,谷歌希望推动这两种方法的进一步研究,并为构建更强大、更有根据的模型开辟道路。

该公司对媒体表示:“我们的研究正在进行中,我们致力于在扩大这项工作规模、对其进行严格 ,并最终将这种增强功能整合到 Gemma 和 Gemini 模型中时进一步完善这些方法,最初将通过分阶段的限制访问方式推出。”

通过将这一 的 Gemma 模型变体再次作为开放模型共享,谷歌希望促进这些技术的广泛采用,并在事实数据基础上对大模型进行验证,更好地应对大模型的“幻觉”问题。

总体来说,提高大模型的可靠性和可信度是确保它们成为每个人不可或缺工具的关键,也为 AI 能够提供准确信息、促进明智决策和加深对周围世界的理解建立基础。

参考资料:

https://blog.google/technology/ai/google-d agemma-ai-llm/

谷歌推出DataGemma,解决“幻觉”问题并提升AI模型数据可靠性

https://vent ebe .com/ai/d agemma-googles-open-ai-models-mitig e-hallucin ion-on-st istical-que es/

运营/排版:何晨龙

返回列表
上一篇:
下一篇: