AI公司Anthropic寻求武器专家以防止用户“滥用”

AI公司Anthropic寻求武器专家以防止用户“滥用”

1天前

分享保存

Zoe Kleinman技术编辑

分享保存

Getty 图片

美国人工智能(AI)公司Anthropic正在招聘化学武器和高爆炸物专家,试图防止其软件被“灾难性滥用”。

换句话说,它担心其AI工具可能会告诉某人如何制造化学或放射性武器,并希望有专家确保其防护措施足够强大。

在LinkedIn招聘帖子中,该公司表示,申请者应具有至少五年的“化学武器和/或爆炸物防御”经验,以及“放射性散布装置”——也称为脏弹的知识。

该公司告诉BBC,这个职位类似于它已经创建的其他敏感领域的工作。

Anthropic并不是唯一采用这种策略的AI公司。

类似职位已由ChatGPT开发商OpenAI发布。在其招聘网站上,列出一名“生物和化学风险”研究员的职位,薪资最高可达455,000美元(约335,000英镑),几乎是Anthropic提供的两倍。

但一些专家对这种做法的风险表示担忧,警告说这可能会让AI工具获得武器信息——即使它们已被指示不使用这些信息。

“使用AI系统处理敏感化学品和爆炸物信息,包括脏弹和其他放射性武器,是否安全?”BBC的AI解码电视节目联合主持人、技术研究员Stephanie Hare博士表示。

“对于这类工作,没有任何国际条约或其他法规,使用AI处理这些武器相关信息。所有这些都在暗中进行。”

AI行业一直在警告其技术可能带来的生存威胁,但尚未试图减缓其发展速度。

随着美国政府在对伊朗开战和在委内瑞拉进行军事行动时呼吁AI公司,这一问题变得更加紧迫。

LinkedIn

美国AI公司Anthropic的招聘广告正在招募化学武器和高爆炸物专家加入其政策团队

Anthropic正对美国国防部采取法律行动,后者将其列为供应链风险,原因是该公司坚持其系统不得用于全自主武器或对美国人的大规模监控。

Anthropic联合创始人Dario Amodei在二月表示,他认为这项技术还不够成熟,不应将其用于这些目的。

白宫表示,美国军方不会受科技公司的控制。

这一风险标签使这家美国公司与中国电信巨头华为处于同一类,后者也因国家安全原因被列入黑名单。

OpenAI表示同意Anthropic的立场,但随后与美国政府谈判达成了自己的合同,称尚未开始执行。

Anthropic的AI助手“Claude”尚未被淘汰,目前仍嵌入由Palantir提供的系统中,并在美以伊战争中由美国部署。

科技巨头支持Anthropic抗衡特朗普政府

Anthropic起诉美国政府,称其为风险

AI安全领导者称“世界处于危险之中”并辞职学习诗歌

注册我们的“科技解码”通讯,关注全球顶尖科技新闻和趋势。英国以外的用户?在这里注册。

人工智能

军事

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论