Компания AI Anthropic ищет эксперта по оружию для предотвращения «misuse» пользователями

Компания Anthropic, занимающаяся искусственным интеллектом, ищет эксперта по химическому оружию и взрывчатым веществам высокой мощности, чтобы предотвратить «катастрофическое неправильное использование» своего программного обеспечения.

Другими словами, она опасается, что её инструменты ИИ могут подсказать кому-то, как создавать химическое или радиоактивное оружие, и хочет привлечь специалиста, чтобы обеспечить достаточную безопасность.

В объявлении на LinkedIn компания указывает, что кандидат должен иметь минимум пять лет опыта в области «защиты от химического оружия и/или взрывчатых веществ», а также знание «радиологического распространения устройств» — так называемых грязных бомб.

Компания сообщила BBC, что эта роль похожа на другие чувствительные позиции, которые она уже создала.

Anthropic — не единственная компания в сфере ИИ, использующая такую стратегию.

Аналогичная вакансия была размещена разработчиком ChatGPT — компанией OpenAI. На её сайте по поиску работы указана вакансия исследователя по «биологическим и химическим рискам» с зарплатой до 455 000 долларов (около 335 000 фунтов стерлингов), что почти вдвое превышает предложение Anthropic.

Однако некоторые эксперты выражают тревогу по поводу рисков такого подхода, предупреждая, что он может дать ИИ-инструментам информацию о оружии — даже если им было указано не использовать её.

«Безопасно ли вообще использовать системы ИИ для обработки информации о чувствительных химикатах и взрывчатых веществах, включая грязные бомбы и другие радиологические оружия?» — сказала доктор Стэффани Хэр, исследователь технологий и со-ведущая программы BBC «AI Decoded».

«Для этого типа работы не существует международных договоров или других нормативных актов, регулирующих использование ИИ с такими видами оружия. Всё это происходит скрытно.»

Индустрия ИИ постоянно предупреждает о потенциальных экзистенциальных угрозах, которые могут исходить от её технологий, но попыток замедлить развитие не предпринималось.

Проблема стала особенно актуальной, поскольку правительство США призывает компании в сфере ИИ, одновременно ведя войну в Иране и военные операции в Венесуэле.

LinkedIn

Объявление компании Anthropic о поиске эксперта по химическому оружию и взрывчатым веществам высокой мощности для присоединения к её политической команде

Anthropic предпринимает судебные иски против Министерства обороны США, которое признало её поставщиком рисков для цепочки поставок, поскольку компания настаивала на том, что её системы не должны использоваться в полностью автономных вооружениях или для массового наблюдения за американцами.

Соучредитель Anthropic Дарио Амодеи в феврале заявил, что технология ещё недостаточно развита и не должна использоваться для таких целей.

Белый дом заявил, что американская армия не будет управляться технологическими компаниями.

Рисковая метка ставит американскую компанию в один ряд с китайской телекоммуникационной компанией Huawei, которая также была занесена в черный список по причинам национальной безопасности.

OpenAI заявил, что согласен с позицией Anthropic, но затем заключил собственный контракт с правительством США, который, по их словам, ещё не начался.

Искусственный интеллект компании Anthropic, называемый Claude, пока не был выведен из эксплуатации и всё ещё интегрирован в системы, предоставляемые Palantir, и используется США в рамках конфликта с Ираном и Израилем.

Крупные технологические компании поддерживают Anthropic в борьбе против администрации Трампа

Anthropic подает в суд на правительство США за признание её риском

Лидер по безопасности ИИ заявляет, что «мир в опасности» и уходит, чтобы изучать поэзию

Подпишитесь на нашу рассылку Tech Decoded, чтобы следить за главными технологическими новостями и трендами мира. Не в Великобритании? Подписывайтесь здесь.

Искусственный интеллект

Военное

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить