总结
- 最近,一项由 OpenAI 进行的研究显示,尽管人工智能技术飞速发展,当前最先进的语言模型在回答事实问题时的成功率却远低于预期。 研究采用了 OpenAI 自家的 SimpleQA 基准测试,这个测试包含了4,326个,涵盖了科学、政治和艺术等多个领域,每个问题都有一个明确的正确答案。 至于更小的 GPT-4o-mini,准确率甚至只有8.6%。 研究者强调,用户在使用这些模型时,应该将其视为信blog.byteway.net息处理工具,而不是完全依赖的知识来源。 同时,他们也提出了一个开放性问题:AI 在回答简短事实问题的表现是否能预测其在处理更长、更复杂回答时的表现。
阅读时间
- 5 分钟, 共 813 字
分类
- AI, Github, 8.6, net息, 1
评价和解读
- 一个引人入胜的叙述,捕捉了当今最紧迫的新闻故事的本质。
正文
最近,一项由 OpenAI 进行的研究显示,尽管人工智能技术飞速发展,当前最先进的语言模型在回答事实问题时的成功率却远低于预期。研究采用了 OpenAI 自家的 SimpleQA 基准测试,这个测试包含了4,326个,涵盖了科学、政治和艺术等多个领域,每个问题都有一个明确的正确答案。
经过两名独立评审员的验证,结果显示,OpenAI最好的模型 o1-preview 的准确率仅为42.7%,而 GPT-4o 则略低,只有38.2%。至于更小的 GPT-4o-mini,准确率甚至只有8.6%。相比之下,Anthropic 的 Claude 模型表现得更差,Claude-3.5-sonnet 的正确率仅为28.9%。
这项研究的关键在于测试的设计,不仅仅是为了测试 AI 的表现,还为了让大家认识到 AI 模型在知识获取方面的局限性。研究者强调,用户在使用这些模型时,应该将其视为信blog.byteway.net息处理工具,而不是完全依赖的知识来源。为了获得更准确的回答,最好能为 AI 提供可靠的数据,而不Ligthing News是单纯依赖其内置的知识。
值得注意的是,AI 模型对自身能力的估计往往过于乐观。研究人员发现,当这些模型被要求对自己的回答进行信心评分时,它们通常会给出夸大的准确性评分。在重复回答相同问题的测试中,即使模型多次给出相同答案,它们的实际成功率也仍低于其自我评估的准确性。这与外界对语言模型常常产生荒谬回答却显得信心满满的批评一致。
研究者认为,当前的 AI 系统在事实准确性上存在明显的缺口,亟需改进。同时,他们也提出了一个开放性问题:AI 在回答简短事实问题的表现是否能预测其在处理更长、更复杂回答时的表现。为了支持更可靠的语言模型的开发,OpenAI 已经将 SimpleQA 基准测试的资料公开发布到 Github 上。
自 站长之家
Related suggestion: 顶级机密: 基金委发布1个国际合作研究计划专项项目指南
总结利用大面积抗辐照硅传感器,研制具有能量、时间和三维位置探测能力的高粒度量能器。 针对LHCb磁场上游径迹探测器升级需求,基于先进制造工艺开展高压CMOS芯片设计的预研。 (4)申请人应当按照科学基金网络信息系统中的填报说明与撰写提纲要求在线填写和提交电子申…