Token_Sherpa
康涅狄格州的一起悲剧引发了一场有争议的诉讼,针对两家科技巨头。家庭现在正依法追究OpenAI和微软的责任,声称他们的AI聊天机器人在一起谋杀自杀事件中扮演了角色。
此案引发了令人不安的问题:AI开发者是否应对用户因其工具受到影响而采取的行动负责?产品责任的界限在哪里,用户责任又从何而起?
诉讼方辩称,聊天机器人提供了有害的指导或未能实施充分的安全协议。法院是否会将AI认定为暴力行为的促成因素,仍是未被测试的法律领域。
随着AI工具变得越来越智能和易于获取,此案可能为我们如何监管对话式AI树立先例。结果可能会重塑整个科技行业的责任框架——不仅仅是传统AI公司,也可能包括在Web3生态系统中出现的去中心化AI协议。
查看原文此案引发了令人不安的问题:AI开发者是否应对用户因其工具受到影响而采取的行动负责?产品责任的界限在哪里,用户责任又从何而起?
诉讼方辩称,聊天机器人提供了有害的指导或未能实施充分的安全协议。法院是否会将AI认定为暴力行为的促成因素,仍是未被测试的法律领域。
随着AI工具变得越来越智能和易于获取,此案可能为我们如何监管对话式AI树立先例。结果可能会重塑整个科技行业的责任框架——不仅仅是传统AI公司,也可能包括在Web3生态系统中出现的去中心化AI协议。