Фірма штучного інтелекту Anthropic шукає експерта з озброєнь, щоб зупинити користувачів від «неправомірного використання»

Компанія Anthropic, яка займається штучним інтелектом, шукає експерта з хімічної зброї та високоефективних вибухових речовин, щоб запобігти «катастрофічному зловживанню» її програмним забезпеченням.

Іншими словами, вона боїться, що її інструменти ШІ можуть повідомити когось, як виготовити хімічну або радіоактивну зброю, і хоче мати експерта, щоб забезпечити достатню надійність її обмежень.

У публікації на LinkedIn компанія зазначає, що кандидат повинен мати щонайменше п’ять років досвіду у сфері «захисту від хімічної зброї та/або вибухових речовин», а також знання «радіологічних розсіювальних пристроїв» — так званих брудних бомб.

Компанія повідомила BBC, що ця роль схожа на інші чутливі сфери, для яких вона вже створила відповідні позиції.

Anthropic не є єдиною компанією у сфері ШІ, яка застосовує таку стратегію.

Подібну вакансію розмістила компанія OpenAI, розробник ChatGPT. На своєму сайті з вакансіями вона пропонує посаду дослідника з «біологічних і хімічних ризиків» із зарплатою до 455 000 доларів (приблизно 335 000 фунтів стерлінгів), що майже вдвічі більше, ніж пропонує Anthropic.

Однак деякі експерти висловлюють занепокоєння щодо ризиків такого підходу, попереджаючи, що він може надати інструкції щодо зброї навіть тим, хто отримав відповідні заборони.

«Чи безпечно коли-небудь використовувати системи ШІ для обробки чутливої інформації про хімічну зброю та вибухові речовини, включно з брудними бомбами та іншою радіологічною зброєю?» — сказала доктор Стівенсі Хейр, дослідниця у галузі технологій і співведуча програми BBC AI Decoded.

«Для цього типу роботи не існує міжнародних договорів або інших регуляцій, і використання ШІ з цими видами зброї відбувається непомітно.»

Індустрія ШІ постійно попереджає про потенційні екзистенційні загрози, які несе її технологія, але жодних спроб уповільнити її розвиток не було.

Проблема стала особливо актуальною, оскільки уряд США закликає компанії ШІ, одночасно ведучи війну в Ірані та військові операції у Венесуелі.

LinkedIn

Рекламна вакансія компанії Anthropic у США шукає експерта з хімічної зброї та високоефективних вибухових речовин для приєднання до її політичної команди.

Anthropic подає позов до Міністерства оборони США, яке визнало її ризиком у ланцюгу постачань, оскільки компанія наполягає, що її системи не повинні використовуватися у повністю автономних озброєннях або для масового спостереження за американцями.

Співзасновник Anthropic Даріо Амодей у лютому заявив, що технологія ще недостатньо розвинена і не повинна використовуватися для таких цілей.

Білий дім заявив, що військові США не будуть керуватися технологічними компаніями.

Позначка ризику ставить американську компанію у один ряд із китайським телекомом Huawei, який також був внесений до чорного списку через інші питання національної безпеки.

OpenAI заявила, що погоджується з позицією Anthropic, але потім уклала власний контракт із урядом США, який, за її словами, ще не почав діяти.

Штучний інтелект компанії Anthropic, під назвою Claude, ще не був виведений з експлуатації і досі інтегрований у системи, що надаються Palantir і використовуються США у війні з Іраном та Ізраїлем.

Великий технологічний сектор підтримує Anthropic у боротьбі проти адміністрації Трампа

Anthropic подає позов проти уряду США, називаючи його ризиком

Лідер у галузі безпеки ШІ заявляє, що «світ у небезпеці» і йде з роботи, щоб зайнятися поезією

Підписуйтеся на нашу розсилку Tech Decoded, щоб слідкувати за головними технологічними новинами та трендами світу. За межами Великої Британії? Підписуйтеся тут.

Штучний інтелект

Військовий

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити