“具备检索能力的开源AI超越了ChatGPT:Nvidia论文声称”
Nvidia paper claims open-source AI with search capability surpasses ChatGPT
最近的一项研究发现,使用检索增强的开源AI系统可以胜过OpenAI的GPT-3.5等专有聊天机器人模型。
这篇于10月4日由Nvidia研究人员发表的论文比较了处理大型语言模型(LLMs)中长上下文的不同技术,而这些模型是当今对话式AI的关键算法。一种方法是扩展上下文窗口,允许LLM直接“阅读”更多的文本标记作为输入,并在生成输出时记住它。另一种方法是使用检索,为LLM提供来自大型数据库的最相关上下文。
他们最佳的方法结合了这两种技术——一个70亿参数的开源模型LLaMA,具有扩展的32,000个标记上下文窗口,进一步通过从语料库中检索相关段落进行增强。检索器根据需要提供上下文,而不是LLM必须存储所有内容,这使得它更加高效。
在一组7个长篇问答和摘要评估中,这种混合检索增强的LLaMA取得了平均得分43.6,超过了允许16,000个上下文标记的GPT-3.5-turbo(平均得分42.8)。在4个任务的子集上,它与OpenAI的巨大专有175B参数的Davinci模型相匹配。
作者们认为,即使非常大的LLM已经具有扩展的上下文窗口,检索仍然能够提供显著的好处。他们发现,一个具有4,000个标记的LLaMA与16,000个标记的非检索LLaMA表现相似,但由于输入更少,速度更快。
- ENBLE赠送活动:赢取一台Apple Watch Ultra 2和Southern Straps的尼龙表带
- 想加入Costco吗?立即购买会员并获得一张价值30美元的免费礼品卡
- “Prime Day:你应该购买的10件物品,以及应该避免的4件物品”
研究人员认为,通过将现有的开源模型(如LLaMA)与检索技术相结合,可以实现与ChatGPT等封闭商业系统相媲美的性能。这些研究结果表明,将检索与长上下文结合起来是构建更强大的开源对话式AI的有希望的方向。
该论文提供了证据,表明通过正确的算法,开源AI可以与专有的聊天机器人相匹敌甚至超越。这些结果可能会影响下一代AI系统如何整合能够处理长文本输入并附带额外相关信息的模型,并将检索作为上下文长度扩展的关键要素。
特色图片来源:Markus Winkler; Pexels;谢谢!