26 4 月, 2024

Eddiba Sports

从亚洲的Eddiba获取最新的亚洲新闻:重大新闻,专题报道,分析和特别报道以及来自亚洲大陆的音频和视频。

“60 分钟”对谷歌 AI 聊天机器人做了一个非常下流的声明

“60 分钟”对谷歌 AI 聊天机器人做了一个非常下流的声明

自从 OpenAI 将 ChatGPT 推向世界以来,我们已经看到它吸引了您难以置信的人们。 有些人声称聊天机器人有一个觉醒的议程。 美国参议员 Chris Murphy 在推特上表示,ChatGPT 自己“教授”了先进的化学知识。 即使是经验丰富的科技记者也写过关于它如何运作的故事 聊天机器人爱上了他们. 似乎世界对人工智能的反应就像穴居人第一次看到火时的反应:完全混乱和语无伦次的喋喋不休。

最近的一个例子来自 60分钟, 他在哥伦比亚广播公司周日播出的一集中关注人工智能创新的新剧集中发出了自己的声音。 这一集采访了谷歌 CEO 桑达尔·皮查伊 (Sundar Pichai) 等人,并包含有问题的内容 关于公司的大型语言模型 (LLM) 之一的声明。

该部分是关于紧急行为的,它描述了 AI 系统的意外副作用,而模型开发人员不一定有意为之。 我们已经看到其他最近的 AI 项目中出现了新兴行为。 例如,在上周在线发表的一项研究中,研究人员最近使用 ChatGPT 创建了具有目标和背景的数字角色。 他们指出,该系统会执行各种突发行为,例如从一个角色向另一个角色分享新信息,甚至在彼此之间建立关系——这是作者最初没有为系统计划的。

新出现的行为当然是一个值得在新闻节目中讨论的话题。 哪儿是 60分钟 不过,当我们得知有人声称谷歌的聊天机器人实际上能够自学一种它以前不知道的语言后,在被问及该语言后,视频发生了转变。 “例如,一个谷歌人工智能程序在被告知用孟加拉国的语言这样做后自行适应,而孟加拉国的语言没有接受过培训,”哥伦比亚广播公司新闻记者斯科特佩利在视频中说。

人工智能专家说这是一个成熟的学士学位。 机器人不仅无法学习它“从未受过训练知道”的外语,而且也从未自学过新技能。 整个剪辑促使 AI 研究人员和专家批评该新闻节目在 Twitter 上的误导性框架。

“我当然希望一些记者将 Google Bard 上的整个 @60Minute 片段作为一个案例研究,研究如何*不*报道 AI,”圣达菲研究所的 AI 研究员兼教授 Melanie Mitchell 说, 他在推文中写道.

“别再把技术想得太神奇了!#AI 不可能用孟加拉语做出回应,除非训练数据被孟加拉语污染或使用与孟加拉语重叠的语言进行训练,例如阿萨姆语、奥里亚语或印地语,”她说。 亚历克斯·O。 麻省理工学院研究员, 在另一篇文章中添加.

值得注意的是 60分钟 这段视频并没有确切说明他们使用的是什么 AI。 CBS 发言人告诉 The Daily Beast,该片段不是关于巴德的讨论,而是一个关于人工智能的单独节目。 然而,这部分让这些专家如此沮丧的原因是它忽视并玩弄了生成式人工智能实际可以做什么的现实。 如果它一开始就无法使用它,它就无法“教”自己一门语言。 这就像试图自学普通话,但你只是在有人问你一次普通话后才听到。

毕竟,语言非常复杂——其中的细微差别和规则需要非常大的语境才能理解和交流。 即使是最先进的 LLM 也无法通过一些提示来处理和学习所有这些。

而且,人工智能软件可能已经接受过训练,可以识别孟加拉国的主要语言孟加拉语。 AT HuggingFace 创业实验室的研究员、前谷歌的 Margaret Mitchell(无亲属关系)解释了这一点 推文主题 论证为什么 60分钟 这很可能是一个错误。

Mitchell 指出,Bard——谷歌最近推出的公开聊天机器人——包括来自其名为 PaLM 的模型的早期迭代的工作。 在 2022 年的一次演示中,谷歌展示了 PaLM 可以用孟加拉语交流和响应提示。 这 PaLM 背后的论文 它在数据表中显示,该模型实际上是在孟加拉语字母表中使用大约 1.94 亿个符号的语言进行训练的。

虽然我们不知道神秘的独立人工智能程序是什么,但它可能依赖于 PaLM 的相同工作——这可以解释数据集中存在孟加拉语。

目前尚不清楚为什么谷歌 CEO 皮查伊坐下来接受采访,并让这些指控继续存在,无人反对。 (谷歌没有回应置评请求。)自该集播出以来,他一直保持沉默,尽管专家指出剪辑中的误导性和虚假声明。 在推特上玛格丽特米切尔 提议 这背后的原因可能是谷歌领导者不知道他们的产品是如何工作的,而且它允许传播不良信息以解决当前围绕生成人工智能的炒作。

“我猜测 [Google executives] 我真的不明白它是如何工作的,米切尔 唧唧声. “我上面写的东西对他们来说很可能是新闻。他们有动机不去理解(用你的眼睛看着这个数据表!!)。”

视频的后半部分也可以看作是有问题的,因为皮查伊和比利讨论了巴德创作的一个“听起来很人性化”的短篇小说,这让两人有些动摇。

事实上,这些产品并不神奇。 他们无法成为“人”,因为他们不是人。 它们是文本预测器,就像您手机上的文本预测器一样,经过训练可以在短语中的一系列单词之后得出最可能的单词和短语。 说它们存在可能会赋予它们一定程度的权力,这可能是极其危险的。

毕竟,用户可以使用这些生成的 AI 系统来做诸如传播错误信息之类的事情。 我们已经看到这会操纵人们的肖像甚至他们的声音。

如果最终产生有偏见的结果,即使是聊天机器人本身也会造成伤害——我们已经在 ChatGPT 和 Bard 等公司中看到过这种情况。 了解这些聊天机器人产生幻觉和捏造结果的倾向,他们可能会向毫无戒心的用户传播错误信息。

研究也证实了这一点。 最近的一项研究 发表于 科学报告 他发现人类对道德问题的反应很容易受到 ChatGPT 提出的论点的影响——甚至用户大大低估了他们受机器人影响的程度。

关于误导性的说法 60分钟 这实际上只是在我们最需要数字素养的时候对数字素养的更大需求的一个症状。 许多 AI 专家表示,现在比以往任何时候都更需要人们了解 AI 能做什么和不能做什么。 这些关于机器人技术的基本事实也必须有效地传达给更广泛的公众。

这意味着拥有最大平台和最响亮声音的人(例如媒体、政治家和大型科技公司的首席执行官)在确保更安全、更受教育的 AI 未来方面负有最大责任。 如果我们不这样做,我们最终可能会像前面提到的穴居人一样,玩火的魔法——并在这个过程中被烧伤。

编者按:这个故事的前一个版本说 60 分钟片段中讨论的 AI 是 Bard,当时它是一个单独的 Google AI。

READ  Graham's 2021 年 5 款最佳 PS5、PS4 游戏