(资料图片)
IT之家 3 月 21 日消息,谷歌在 2 月份发布了其 Bard 对话式 AI 后,一直在努力改进聊天机器人的回答,因为它在 Twitter 上首次亮相时就传播了错误信息。最近该公司将生成式 AI 功能添加到几乎所有服务中,而对 Bard 聊天机器人的访问仍然是少数人的专属。IT之家注意到,昨天一些 Pixel 用户收到了测试谷歌 Bard 的邀请,今天,该公司表示“开始开放对 Bard 的访问”。
谷歌产品副总裁 Sissie Hsiao 和研究副总裁 Eli Collins 在一篇“由 Bard 帮助我们撰写”的博客文章中邀请大家在 bard.google.com 上加入等待列表。该公司表示,将从今天开始向美国和英国的用户提供访问权限,并且“随着时间的推移将扩展到更多国家和语言”。谷歌称,开放更多用户访问是“改进它的下一个关键步骤”,并指出从更大范围的测试者中获得反馈至关重要。
就像 ChatGPT 或微软的 Bing 聊天一样,用户可以使用自然语言像与朋友交谈一样与 Bard 交谈。“你可以要求 Bard 给你一些提示,以实现你今年阅读更多书籍的目标,用简单的术语解释量子物理学,或者通过概述博客文章来激发你的创造力”,Hsiao 和 Collins 写道。
两人还称,“Bard 是一个 LLM(大型语言模型),我们认为它是对谷歌搜索的一种补充体验。” 根据公告中包含的屏幕截图,Bard 的界面看起来与 Bing AI 相当相似,但有几个关键区别。在每个回答下方,Bard 提供了四个按钮:赞、踩、刷新和一个“Google it”的按钮。Bing AI 没有这些功能,而是使用回答下方的空间作为源引用区域。
虽然 Bing AI 基于 OpenAI 的 GPT-4 运行,但 Bard 是基于谷歌的 LaMDA 的“轻量化和优化版本”,该公司表示它“将随着时间推移更新更强大、更有能力的模型”。
屏幕底部输入栏也有几个区别。Bard 在末尾有一个麦克风符号,表明可能支持语音转文字功能,而 Bing 没有。同时,在文本输入栏左边微软提供了一个扫帚图标来开启新主题 ,谷歌的没有。值得注意的是,Bard 回答下方的细字中写道“Bard 可能会显示不准确或冒犯性的信息,这些信息不代表 Google 的观点。”
在公告中,谷歌也承认像 LaMDA 这样的大型语言模型并不完美,而且会出现错误。“例如,因为它们从反映现实世界偏见和刻板印象的各种信息中学习,所以有时这些信息会出现在它们的输出中”,Hsiao 和 Collins 写道。
他们甚至分享了一个 Bard 之前出错的例子。“当被要求分享一些简单室内植物的建议时,Bard 令人信服地提出了一些想法…… 但它也弄错了一些事情,比如 ZZ 植物的科学名称。”
谷歌表示,知道这样的挑战存在很重要,并指出质量和安全是需要考虑的重大问题。“我们还建立了一些防护措施,比如限制对话次数,以尽量保持交互有用且与主题相关”,Hsiao 和 Collins 写道。不过目前还不清楚对话次数的限制是多少。
尽管存在所有潜在的限制和错误可能性,谷歌仍然相信 Bard 值得付出努力,并补充说将“继续改进 Bard 并增加功能,包括编程、更多语言和多模态体验”。Hsiao 和 Collins 说,在撰写公告文章时,Bard 提供了帮助,包括创建大纲和建议编辑。
关键词: