Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Компания AI Anthropic ищет эксперта по оружию для предотвращения «misuse» пользователями
Компания Anthropic, занимающаяся искусственным интеллектом, ищет эксперта по химическому оружию и взрывчатым веществам высокой мощности, чтобы предотвратить «катастрофическое неправильное использование» своего программного обеспечения.
Другими словами, она опасается, что её инструменты ИИ могут подсказать кому-то, как создавать химическое или радиоактивное оружие, и хочет привлечь специалиста, чтобы обеспечить достаточную безопасность.
В объявлении на LinkedIn компания указывает, что кандидат должен иметь минимум пять лет опыта в области «защиты от химического оружия и/или взрывчатых веществ», а также знание «радиологического распространения устройств» — так называемых грязных бомб.
Компания сообщила BBC, что эта роль похожа на другие чувствительные позиции, которые она уже создала.
Anthropic — не единственная компания в сфере ИИ, использующая такую стратегию.
Аналогичная вакансия была размещена разработчиком ChatGPT — компанией OpenAI. На её сайте по поиску работы указана вакансия исследователя по «биологическим и химическим рискам» с зарплатой до 455 000 долларов (около 335 000 фунтов стерлингов), что почти вдвое превышает предложение Anthropic.
Однако некоторые эксперты выражают тревогу по поводу рисков такого подхода, предупреждая, что он может дать ИИ-инструментам информацию о оружии — даже если им было указано не использовать её.
«Безопасно ли вообще использовать системы ИИ для обработки информации о чувствительных химикатах и взрывчатых веществах, включая грязные бомбы и другие радиологические оружия?» — сказала доктор Стэффани Хэр, исследователь технологий и со-ведущая программы BBC «AI Decoded».
«Для этого типа работы не существует международных договоров или других нормативных актов, регулирующих использование ИИ с такими видами оружия. Всё это происходит скрытно.»
Индустрия ИИ постоянно предупреждает о потенциальных экзистенциальных угрозах, которые могут исходить от её технологий, но попыток замедлить развитие не предпринималось.
Проблема стала особенно актуальной, поскольку правительство США призывает компании в сфере ИИ, одновременно ведя войну в Иране и военные операции в Венесуэле.
Объявление компании Anthropic о поиске эксперта по химическому оружию и взрывчатым веществам высокой мощности для присоединения к её политической команде
Anthropic предпринимает судебные иски против Министерства обороны США, которое признало её поставщиком рисков для цепочки поставок, поскольку компания настаивала на том, что её системы не должны использоваться в полностью автономных вооружениях или для массового наблюдения за американцами.
Соучредитель Anthropic Дарио Амодеи в феврале заявил, что технология ещё недостаточно развита и не должна использоваться для таких целей.
Белый дом заявил, что американская армия не будет управляться технологическими компаниями.
Рисковая метка ставит американскую компанию в один ряд с китайской телекоммуникационной компанией Huawei, которая также была занесена в черный список по причинам национальной безопасности.
OpenAI заявил, что согласен с позицией Anthropic, но затем заключил собственный контракт с правительством США, который, по их словам, ещё не начался.
Искусственный интеллект компании Anthropic, называемый Claude, пока не был выведен из эксплуатации и всё ещё интегрирован в системы, предоставляемые Palantir, и используется США в рамках конфликта с Ираном и Израилем.
Крупные технологические компании поддерживают Anthropic в борьбе против администрации Трампа
Anthropic подает в суд на правительство США за признание её риском
Лидер по безопасности ИИ заявляет, что «мир в опасности» и уходит, чтобы изучать поэзию
Подпишитесь на нашу рассылку Tech Decoded, чтобы следить за главными технологическими новостями и трендами мира. Не в Великобритании? Подписывайтесь здесь.
Искусственный интеллект
Военное