微软在大力向消费者和企业推广其人工智能产品、并在 Windows 11 深度集成 Copilot 的同时,却在官方文件中将这款 AI 服务定位为“娱乐用途”。 更新于去年 10 月的《Microsoft Copilot 使用条款》明确写道,这一大型语言模型(LLM)“仅供娱乐目的”,用户不应将其用于提供重要建议,并需自担风险。
这一表述与微软近期围绕 Copilot+ PC 及面向企业用户的宣传形成鲜明反差,引发外界对其信心程度的质疑。
在该使用条款中,微软写道:“Copilot 仅供娱乐用途。它可能会犯错,且可能无法按预期工作。不要在重要建议上依赖 Copilot。使用 Copilot 须自担风险。” 报道指出,类似的免责声明并非微软独有,其他 AI 大模型服务商也采取了接近的表述。 例如 xAI 在其服务条款中提醒用户,人工智能“快速演进且具有概率性”,因此生成的内容可能出现“幻觉”、包含冒犯性内容、不能准确反映真实人物或事实,甚至完全不适合用户预期用途。
尽管生成式 AI 已被证明在写作、编程等场景可以提升效率,但它仍只是一个缺乏责任主体的工具,无法为自身错误承担任何法律或现实后果。 因此,使用者在采信其结果时必须保持谨慎,对输出保持怀疑态度并进行交叉核查。 然而,报道也提醒,哪怕用户知道这些技术局限,人类仍容易受到“自动化偏见”的影响,即天然更倾向相信机器给出的答案,而忽略与之相矛盾的数据或线索。
在当前 AI 生成内容愈发自然、看上去愈发“像真的”的背景下,这种自动化偏见的风险被进一步放大。 文章指出,当 AI 能在表面上给出逻辑自洽、措辞权威的回答时,用户更容易在“只看一眼”的情况下就选择相信,从而在无形中放松警惕。 在这种情况下,厂商一方面通过广告与产品整合,鼓励用户在工作和生活中广泛采用 AI,另一方面又在使用条款中以标准化免责声明切割责任,这种张力也成为当前 AI 产业发展中一个颇具争议的现象。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)