准确的电话号码和 WhatsApp 号码提供商。 如果您想要电子邮件营销活动列表或短信营销活动,那么您可以联系我们的团队。 电报: @latestdbs

全球专栏 大规模语言模型(LLM)不是 医生

像 GPT-4 这样的“大规模语言模型”(LLM)的兴起确实令人惊讶,它可以非常流畅和自信地生成文本。然而,过度包装也同样令人惊讶。微软研究人员声称OpenAI 的 GPT-4 模型显示出“通用人工智能 (AGI) 的光芒”。对微软表示抱歉,但事实并非如此。

微软的说法很可能不是指毫不犹豫地发布错误文本的所谓“幻觉现象”。此外,GPT 不擅长象棋或围棋等游戏,也不擅长数学,并且可能会生成充满错误和 bug 的代码。然而,这并不意味着所有 LLM/GPT 都被夸大了。一点也不。然而,这意味着我们在围绕生成式人工智能的讨论中应该有一定的平衡感,并明显消除夸大其词。

 

根据 IEEE Spectrum 的一篇文章

包括 OpenAI 联合创始人兼 希腊 WhatsApp 号码数据 首席科学家 Ilya Sutskever 在内的几位专家认为,通过人类反馈添加强化学习可以消除 LLM 幻觉。但包括 Meta 人工智能研究所首席科学家 Yann LeCun 和最近离开谷歌的深度学习之父 Jeffrey Hinton 在内的其他专家认为,当前的大规模语言模型存在根本缺陷。这两个人认为,大规模语言模型缺乏理解语言描述的现实所必需的非语言知识。

Diffblue 首席执行官 Matthew Lodge 向 Infoworld 表示:“从游戏到编写代码,强化学习模型体积小、速度快、运行成本低,其性能优于拥有数千亿参数的法学硕士。”

那么也许您在错误的地方寻找黄金?

WhatsApp 号码数据

正如洛奇所说,我们可能会 EK 线索 将生成式人工智能推向强化学习可以做得更好的领域。游戏就是一个典型的例子。如果你看国际象棋大师列维·罗斯曼与 ChatGPT下棋的视频,ChatGPT 会做出一些荒唐的举动,比如接住自己的棋子,甚至犯规。此外,完全不使用神经网络的开源国际象棋软件Stockfish仅用了10步就击败了ChatGPT。这是一个很好的例子,表明 LLM 远低于其宣传的水平。

 

Leave a comment

您的电子邮箱地址不会被公开。 必填项已用 * 标注