12 6 月, 2024

Eddiba Sports

从亚洲的Eddiba获取最新的亚洲新闻:重大新闻,专题报道,分析和特别报道以及来自亚洲大陆的音频和视频。

Slack 用户惊讶地发现用于训练人工智能的消息

Slack 用户惊讶地发现用于训练人工智能的消息

发布 Slack AI 二月份,Slack 似乎正在扎根并捍卫其神秘感 政策 默认情况下,它会吸收客户数据(包括消息、内容和文件)来训练 Slack 的世界级人工智能模型。

Slack 工程师 Aaron Maurer 表示,Slack 在一篇文章中解释道 博客 Salesforce 拥有的聊天服务不会根据客户数据训练大型语言模型 (LLM)。 但 Slack 的政策可能需要更新,以“更仔细地解释这些隐私原则如何与 Slack AI 配合使用”,Maurer 在 Threads 上写道,部分原因是该政策“最初是围绕我们一直在做的搜索/推荐工作编写的”。 Slack 之前的几年”。 国际特赦组织。

毛雷尔回应话题 邮件 来自工程师兼作家盖尔盖利·奥罗斯 (Gergely Oros),他呼吁公司选择退出数据共享,直到政策明确,不是通过博客,而是以实际政策的语言。

“Slack 的一位 ML 工程师表示,他们不会使用消息来训练 LLM 模型,”Oros 写道。 “我的回答是,当前的条款允许他们这样做。我认为这是从政的政策。博客文章不是隐私政策:每个认真的公司都知道这一点。”

如果将 Slack 的隐私原则与该公司推广 Slack AI 的方式进行比较,用户的紧张情绪就会变得更加明显。

Slack 的隐私原则特别指出,“机器学习 (ML) 和人工智能 (AI) 是有用的工具,我们以有限的方式使用它们来推进我们产品的使命。为了开发 AI/ML 模型,我们的系统会分析客户数据(例如提供给 Slack 的消息、内容、文件)以及我们的隐私政策和客户协议中定义的其他信息(包括使用信息)。”

尽管, Slack AI 页面 “放心工作,”他说,“你的数据就是你的数据。我们不会用它来训练 Slack AI。”

由于这种差异,用户呼吁 Slack 更新其隐私原则,以明确数据将如何用于 Slack AI 或任何未来的 AI 更新。 据 Salesforce 发言人称,该公司同意需要进行更新。

“昨天,Slack 社区的一些成员要求更清楚地了解我们的隐私原则,”Salesforce 发言人告诉 Ars。 “我们今天将更新这些原则,以更好地解释客户数据与 Slack 中的生成式 AI 之间的关系。”

该发言人告诉 Ars,政策更新将澄清 Slack 不会“使用客户数据开发法学硕士或其他生成模型”、“使用客户数据来训练第三方法学硕士”或“以以下方式构建或训练这些模型:他们可以学习、记忆或复制客户数据。” 此次更新还将澄清“Slack AI 使用现成的 LLM,其中模型不保留客户数据”,确保“客户数据永远不会离开 Slack 的信任范围,并且 LLM 提供商永远无法访问客户数据。”

然而,这些变化似乎并没有解决那些从未明确同意共享聊天和其他 Slack 内容用于人工智能训练的用户的一个关键问题。

用户选择不与 Slack 共享聊天内容

这项有争议的政策并不新鲜。 有线 警告 TechCrunch 四月份报道 提及 该政策至少自 2023 年 9 月起就已实施。

但昨晚广泛的强烈反对开始加剧 海盗新闻,Slack 用户批评该聊天服务显然未能通知用户政策更改,而是默认悄悄启用它们。 对于批评者来说,他们认为除了 Slack 之外选择任何人都没有意义。

从那时起,强烈反对蔓延到社交媒体,SlackHQ 很快就澄清了 Slack 的术语,其解释似乎并没有解决所有批评。

“抱歉,Slack,您如何处理用户的私信、消息、文件等?” Corey Quinn,成本管理公司 Duckbill Group 的首席云经济学家, 发布 关于X。“我确信我没有正确地阅读这篇文章。”

松弛总部 他回应道 在奎因宣称“我非常讨厌这个”并确认他已选择退出付费工作空间中的数据共享后,他向奎因说道。

SlackHQ 表示:“需要澄清的是,Slack 拥有平台级机器学习模型,用于频道推荐、表情符号和搜索结果等。” “是的,客户可以将他们的数据排除在帮助训练(非生成)机器学习模型之外。客户数据属于 Slack AI——我们最初在 Slack 中构建的生成 AI 体验。[and] “它是一个单独购买的附加组件,使用大型语言模型 (LLM),但不会根据客户数据训练这些 LLM。”

READ  Skate 4 不会出现在 EA Play 2021 中