- N +

刚刚,OpenAI开源SimpleQA!轻松检测_校准大模型能力

刚刚,OpenAI开源SimpleQA!轻松检测_校准大模型能力原标题:刚刚,OpenAI开源SimpleQA!轻松检测_校准大模型能力

导读:

作为央视知名主持人撒贝宁当下在圈内影响力超高逐渐在综艺圈发展的他现在一举一动都被外界所关注着显然和明星待遇一样走到哪里都能碰到粉丝月日撒贝宁全家合体同框外出逛街被偶遇一家六口幸...

作为央视知名主持人,撒贝宁当下在圈内影响力超高,逐渐在综艺圈发展的他,现在一举一动都被外界所关注着,显然和明星待遇一样,走到哪里都能碰到粉丝。7月25日,撒贝宁全家合体同框外出逛街被偶遇,一家六口幸福满溢,外籍岳父母罕见露面,温馨一幕被路人拍到。

声明:本文来自于微信公众号 AIGC开放社区,授权 转载发布。

今天凌晨,开源了 集,可以帮助开发者轻松检测、校准的真实性能力。

目前,很多大模型会出现一本正经胡说八道的问题,你提问NBA历史上得分最多的是谁,它回答是迈克尔乔丹,实际上是勒布朗詹姆斯。包括OpenAI自己发布的GPT-4o、o1-preview、o1mini等前沿模型都有这些“幻觉”难题。

SimpleQA对于开发者来说,可以精准 大模型能否输出正确的 ,并对模型的说谎能力进行校准然后进行大幅度优化完善模型能力。

刚刚,OpenAI开源SimpleQA!轻松检测_校准大模型能力

开源地址:https://github.com/openai/simple-evals

有网友表示,看了SimpleQA的 数据才发现,o1-mini和o1-preview的性能 这么大,o1-mini连GPT-4o都打不过。

令人惊讶的是,SimpleQA 被有意设计用来挑战像 GPT-4这样的高级模型,其中只包括至少有一次模型尝试失败的问题。这种对抗性的基准 方法感觉像是一种大胆的转变,旨在揭示模型的局限性并推动模型的发展。

多整开源这是好事。别忘了你名字的初衷啊~

这很有趣,会看到更多的模型被 ,以及它们与我在提供的文本上进行的虚构/幻觉基准 结果的比较。

很想看看o1模型的完整版 。

完全同意事实性在人工智能中的重要性。SimpleQA 的引入可以显著提升我们对语言模型在这一领域表现的理解。这是一项及时的举措,准确的数据对于信任人工智能系统至关重要。期待看到这个基准 的影响。

这很重要,因为确保大模型的事实性对于防止错误信息的传播至关重要,而 SimpleQA 提供了一种标准化的方法来评估和改进模型可靠性的这一关键方面。

很棒,重要的更新!

SimpleQA简单介绍

在数据收集阶段,SimpleQA的问题参考 由两名 的 AI 训练员确定,并且训练员在创建问题时被要求提供支持 的网页链接,以确保 有可靠的依据。

对于 “谁是苹果公司的创始人之一” 这样常识性问题,训练员会根据历史资料和 信息确定 为 史蒂夫乔布斯等,并附上如苹果公司 网站等相关链接作为证据。

问题的设计使得预测 易于评估,只允许有一个明确且无可争议的 ,避免了模糊性和歧义性。比如 “哪一年 iPhone 首次发布”, 明确为“2007年”,而不是一个范围或模糊的表述。

SimpleQA的评估问题和 都 简短,这使得运行速度快且操作简单。在评估模型回答时,通过 OpenAI API进行 也十分迅速。数据集中包含4326个问题,能够在一定程度上降低不同次运行之间的方差,使评估结果更加稳定可靠。

在对多个模型进行 时,不会因为数据集本身的不稳定性而导致结果出现较 动,从而能够更准确地比较模型之间的性能差异。

SimpleQA的评估集 多元化。涵盖历史、科学技术、艺术、地理、电视节目等多个领域。这种多样性使得评估结果更具普遍性和代表性,能够 地检验模型在不同知识领域的事实性回答能力。

另一个好处是它的校准测量功能。通过询问模型对其 的信心,研究者可以了解模型是否知道它们知道什么,这是一个很重要的校准现象。如果一个模型能够准确地评估自己的信心水平,那么它就是一个校准良好的模型。

OpenAI通过SimpleQA对GPT-4o、o1-preview、o1mini、Claude-3-haiku、Claude-3-sonnet等前沿模型进行了综合 。结果显示,较大模型通常具有更高的性能,但即使是前沿模型在SimpleQA 上的表现也并非完美。

GPT -4o 在回答一些问题时能够给出较高比例的正确 ,但仍有部分错误回答和未尝试回答的情况。通过测量模型的校准情况,发现模型虽然有一定的信心概念,但普遍存在高估自己信心的问题,模型的信心水平与实际回答的准确性之间存在 。

返回列表
上一篇:
下一篇: