当人工智能闯了祸, 谁应当承担责任?
- 2025-06-26 05:14:34
- 804
如今,人类已全面进入人工智能时代,且人工智能将长期存在。AI聊天机器人似乎会“说”人类语言,这已成为人们困惑的一大根源。各大科技公司正在拼命向你推销AI朋友、AI伴侣、AI宠物乃至AI心理治疗师,部分人工智能开发公司甚至宣称其开发的AI能够感知和思考,就连苹果公司也曾宣称在研发一款能够感知人情绪的台灯。
一个争议点在于:当人工智能出现故障、产生幻觉(指人工智能模型,尤其是语言模型,在生成文本时产生看似合理但实际上与事实不符或无实际依据的内容)、或输出影响现实的错误时,谁应该被追责?
先抛出我的观点:用户需承担责任。
人工智能与其他工具本质无异。如果卡车司机开车时睡着造成了交通事故,错肯定不在卡车;如果外科医生将纱布遗留在患者体内,错肯定不在纱布;如果考生的答题卡成绩糟糕,错也不肯定在手中的2B铅笔。
因此,我可以轻易断言用户应为AI所犯错误负责,但我们不妨深入探讨
作家笔下的AI风波
美国奇幻爱情小说作家莉娜・麦克唐纳(Lena McDonald)被曝利用人工智能模仿其他作家风格。她三月出版的奇幻小说新作《暗渊学院:第二学年》引发争议:读者在第三章发现一行明显的AI提示词——“重写这段文字,使其更符合J.Bree的风格,这种风格的特点是超自然元素之下有更多的张力、坚韧的底色和原始的情感潜台词。”这表明,作者不仅使用AI辅助创作,还要求其模仿知名作家J.Bree的写作风格,可能是因为仓促没来得及在文中删除AI提示词,使其意外地保留到了最终的印刷版本中。
事件引发关于写作中AI使用的伦理讨论。莉娜・麦克唐纳在亚马逊作者页公开道歉,称因时间和经济压力在编辑阶段使用了AI辅助创作,但无意欺骗读者,并承诺将重新审查作品、修正错误,并将在未来透明化创作过程。但批评者认为,道歉未触及“故意利用AI模仿他人风格”这一核心争议。许多人认为这已经超越了“辅助创作”的界限,构成不道德模仿,损害了读者对创作真实性的期待。
该书在亚马逊的评分暴跌至1.6星,目前在亚马逊商城已搜索不到这本书,疑似已被下架,尽管通过谷歌仍可检索到更新后删除提示词的小说版本,但截图已在亚马逊评论区广泛传播。
这并非个例。2025年以来欧美至少还有两位知名言情小说作家被曝在出版作品中遗留了类似的AI提示词,这也揭示了文学创作领域广泛运用AI进行辅助写作的行业趋势。
新闻业的AI闹剧
5月份,某知名报纸发布了“2025年夏季推荐阅读书单”,列出15本“知名作家新作”,然而大部分书籍根本子虚乌有,采用了真实的作者和虚假的作品,完全是AI编造出来的,最后文章作者承认使用人工智能生成了这份书单。显然,AI再次出“幻觉”了。
那么责任在谁?显然是作者。写作工作从来都需要校对环节:作者至少应该通读文章内容,再考虑是否进行删减、扩充、改写等修改。而上述案例中的“作者”是AI,而作者本人甚至未读过自己“推荐”的这些书籍。
有些出版物设有内容审核员,有些则没有。无论如何,作者必须对引用内容和事实断言负责,核查事实本就是写作工作的一部分。
我之所以使用这些现实生活中的例子,是因为它们清楚地表明,当AI聊天机器人出错时,作者自己——也就是AI用户必然要承担责任。从选择工具、设计指令、查看输出到纠正错误,都是用户的职责。
更大的错误,更深的教训
去年,加拿大航空公司的AI聊天机器人告诉一位乘客,公司有一项根本不存在的空难丧亲赔偿政策。当这位乘客将航空公司告上索赔法庭时,加拿大航空辩称该AI聊天机器人是一个“独立思考的个体”。但法庭并不买账,最后判决航空公司败诉。
2024年谷歌上线AI Overview功能,有网友在谷歌搜索中查询“芝士和披萨粘不到一块”的解决办法时,AI给出“在酱料中加入1/8杯胶水以增加粘性”的奇葩建议;苹果AI也曾生成过“以色列总理内塔尼亚胡被捕”的虚假新闻。
最搞笑的是,有位加拿大律师在一次监护权纠纷官司中引用了ChatGPT提供的两起案件实例,结果发现这两起案件完全是AI捏造的,该律师哭笑不得,最终被判决支付对方诉讼费用。
每一起错误都直接指向AI用户,任何试图归咎于工具的行为,不过是对AI本质的误解。
问题的核心
上述案例的共同点在于:用户让AI在无人监督的情况下完成工作,将任务完全抛给AI是极端错误的。而许多公司禁止员工使用AI智能聊天机器人和其他AI工具,这又是错误的另一种极端。
适应人工智能时代,意味着我们必须找到一个平衡点,我们大多数人都应该利用AI工具来改善工作,但我们还应该学会如何更好地使用它,并检查它所做的每一件事,因为任何人工智能的输出结果都完全由用户负责。
可以预见,不负责任地使用AI将持续引发错误、问题甚至灾难。但请记住:永远不要甩锅给你的工具。