谷歌终于解决了这些奇怪的人工智能搜索结果
对于那些错过它的人,谷歌本月推出了这些所谓的人工智能概览,将该系统从一个可选的试验性功能升级为从美国用户开始在全球范围内投入生产.
谷歌终于解决了那些看似由其人工智能生成的疯狂网络搜索结果,过去一周,这些结果的截图在社交媒体上广为流传.
简而言之,这位互联网巨头表示,这并不像看起来那么糟糕,尽管他誓言要消除系统令人费解的回应.
基本上,当你使用谷歌在网络上搜索某个东西,或者向它提问时,这家科技巨头可能会使用其双子座AI巨型模型,自动在搜索结果页面的顶部为你的查询生成答案.
这个答案应该是基于网络上关于你试图查找的话题的评论.
不是通过点击搜索结果链接到页面来查找信息,而是在结果页面上为网民提供人工智能制作的信息摘要.
该摘要应该是准确和相关的.
然而,正如一些人发现的那样,谷歌有时会返回荒谬和荒谬的答案.
毫无疑问,至少有一些截图和分享到社交网络上的回复是人类编辑的,以使它看起来像是大G完全失去了情节.
尽管如此,在两个特别引人注目的例子中,如果是真的,人工智能评论说人们“应该每天吃一小块石头”,奶酪不粘披萨可以通过在酱汁中添加“无毒胶水”来修复.
我们认为,这些愚蠢的回复似乎源于Reddit上的笑话和挖苦,这是包括谷歌在内的各种LLM训练数据的来源--Chrome巨头每年向Reddit支付约6000万美元来吸收用户的帖子和评论.
“一些奇怪、不准确或无用的人工智能评论肯定出现了.
”谷歌的搜索老板Liz Reid在周四的更新中证实了这一点.
“虽然这些通常是针对人们不常做的查询,但它突出了一些我们需要改进的具体领域.
”谷歌的立场是,截图中的不可靠建议例子只占人工智能系统总输出的一小部分.
该公司为其基于双子座的结果进行了辩护,并表示,该系统只需进行几次调整,而不是全面返工,就能使其走上正轨.
里德声称,我们所看到的“大量”奇怪的搜索结果都是假的,并否认人工智能评论真的建议怀孕时吸烟、把狗留在车里,或者像社交媒体上的一些人所说的那样,建议跳桥治疗抑郁症.
谷歌表示,人工智能评论的一个关键问题是,它把“荒谬的问题”看得太重了,特别指出,真正吃石头的建议是由搜索引擎吐出来的,因为问题是:“我应该吃多少石头?”我们相信,人工智能评论现在将能够更清楚地识别和恰当地处理讽刺内容.
这将有助于阻止吃石头的建议发生,因为它是基于《洋葱报》的一篇文章.