隐私原则:搜索、学习和人工智能
此翻译文本仅供参考。如果本版本与英文版本存在任何歧义,则以英文版本为准。
隐私原则:搜索、学习和人工智能
我们的使命是构建一种可以让生活更简单、更美好、更有成效的产品。我们的隐私政策、安全文档和 SPARC 以及 Slack 条款已详细说明,我们在构建本产品时的指导原则是不得侵犯客户数据的隐私和安全。
机器学习 (ML) 和人工智能 (AI) 是我们用来增强产品使命的有用工具,我们仅以有限的方式使用它们。我们不会使用客户数据开发 LLM 或其他生成式模型。为了开发非生成式的 AI/ML 模型,用于表情和频道推荐等功能,我们的系统会分析提交到 Slack 的客户数据(例如消息、内容和文件)以及我们的隐私政策和客户协议中定义的其他信息(包括使用情况信息)。为了在这种特殊情况下确保客户数据的隐私和安全,我们制定了一些指导原则:
- 数据不会在不同的工作区中泄露。 对于将在所有客户中广泛使用的任何模型,我们不会为了构建或训练模型而让它们学习、记忆,或重现某些客户数据。
- 我们利用适当的技术控制措施阻止访问。在开发 AI/ML 模型或以其他方式分析客户数据时,Slack 无法访问底层内容。我们借助多种技术手段防止发生这种访问行为。请参阅安全白皮书,进一步了解帮助保护客户数据隐私和安全的控制措施。
- 我们为客户提供关于此类实践的选择。 如果不希望将你的客户数据用于帮助训练 Slack 全局模型,你可以选择拒绝授权。如果你选择拒绝授权,你所在工作区中的客户数据将仅用于改善工作区使用体验,即便未授权用于底层模型,你仍然可以享受 AI/ML 全局训练模型带来的所有益处。
联系我们退出。 如果不希望将你的客户数据用于 Slack 全局模型,你可以选择拒绝授权。要选择退出,请让你的组织或工作区所有者或主要拥有者通过 feedback@slack.com 联系我们的客户体验团队,并提供你的工作区/组织 URL 和主题行 “Slack 全球模型退出请求”。 Slack 将处理你的请求,并在你完成退出后予以回复。
客户数据和其他信息
Slack 如何使用客户数据(例如消息、内容、文件)和其他信息来更新我们的服务
根据上述准则,我们的产品和分析团队采用改进措施和隐私保护技术来开发、更新和完善 Slack,示例如下:
- 频道建议:Slack 可借助洞察建议用户是否在其公司中加入新的公共频道。Slack 根据频道成员、活动和主题重叠度提出建议。Slack 的模型从以往建议中以及某用户是否加入所建议的频道中学习。我们的模型不会获取客户数据,因此可以保护隐私。我们使用外部建造的模型(未针对 Slack 消息进行训练)评估主题相似度,并输出分数。我们的全局模型仅根据分数以及除客户数据外的信息提出建议。如需进一步了解技术详情,请查看工程博客了解更多。
- 搜索结果:我们的搜索机器学习模型通过识别特定查询的正确结果帮助用户找到搜索内容。这种实践以历史搜索结果和过往交互情况为基础,而不是从搜索查询、结果或代理的底层文本中学习。简而言之,我们的模型不会重建搜索查询或结果。相反,该模型从团队特定的语境信息中进行学习,例如:搜索中点击消息的次数,或查询和建议消息中的字词数量重叠情况。
- 自动完成:Slack 可能提出建议,以便完成搜索查询或补充其他文本,例如在用户键入词组“客户支持”时的第一个字“客”后自动完成输入。这些建议是符合当地语言习惯的,并且来源于用户所在工作区中的常用公开消息短语。我们的算法从潜在建议中进行筛选,且根据之前建议的和接受的短语补充结果进行全局训练。Slack 按照规则以多种方式对键入文本与建议之间的相似度进行评分,包括在算法中仅使用过往交互产生的评分和计数,以此保护数据隐私。
- 表情建议:Slack 可能会根据以下因素针对消息提供表情回复建议:消息的内容和情感、表情的历史使用记录以及团队在不同情境中使用该表情的频率。例如,如果特定频道中的用户经常使用表情 🎉 回复庆祝消息,那么系统会建议用户使用 🎉 对新的、类似的正面消息做出回复。为了在保护客户数据的同时做到这一点,我们可能会使用外部模型(未使用 Slack 消息进行过训练)对消息进行情感分类。随后,我们的模型只会根据以下因素推荐表情:在该工作区中发送具有相应情感的消息时使用特定表情的频率。
只有当我们研究和理解用户如何与 Slack 交互之后,才可能做出此类周详的个性化设置和改善。
Slack 非常重视隐私,我们的客户协议和隐私政策中描述的保密义务适用于这些情况。客户拥有自己的客户数据。Slack 对客户数据进行汇总和分离,以确保在使用客户数据更新服务时,不会将我们的任何客户或个人确定为任何改进的来源,提供给除 Slack 的附属公司或委外厂商外的任何第三方。
生成式 AI
生成式 AI 是一类较新的 AI 系统,它可以根据用户输入的提示生成内容,例如文本。生成式 AI 包括大型语言模型 (LLM)。Slack 在自己的 Slack AI 产品中使用了生成式 AI,并且利用了第三方 LLM。
客户购买 Slack AI 作为附加功能,生成式 AI 功能并未包含在 Slack 的标准产品中。客户数据不会用于训练第三方 LLM 模型。Slack 不会���用客户数据来训练 LLM 或其他生成式模型,也不会与 LLM 提供商分享客户数据。了解更多关于我们如何构建安全且私密的 Slack AI 的信息。
Slack AI 使用现成的 LLM,这些模型在接收到请求后不会更新,也不会以任何方式保留客户数据。此外,Slack AI 在自己的 AWS 基础设施上托管这些模型,所以客户数据永远不会离开 Slack 的信任边界,而且 LLM 提供商也无法访问客户数据。