Глава Управления ООН по вопросам разоружения выразила глубокую обеспокоенность в отношении использования искусственного интеллекта в военных целях

Глава Управления ООН по вопросам разоружения заявила, что ООН стремится повысить осведомленность о влиянии использования искусственного интеллекта в военных целях. Она выразила надежду на то, что такая осведомленность ускорит дискуссию о необходимости международных правил.

Заместитель генерального секретаря ООН и Высокий представитель по вопросам разоружения Накамицу Идзуми дала интервью NHK. Сообщается, что оружие с использованием искусственного интеллекта применялось в секторе Газа и в Украине. Разработкой такого оружия в настоящее время занимаются различные страны.

Накамицу сказала, что она испытывает чувство кризиса, поскольку оружие с искусственным интеллектом фактически разрабатывается для использования в военное время. Она выразила опасения, что технология искусственного интеллекта приведет к значительным изменениям в способах ведения войн и сражений.

В особенности растут опасения по поводу Смертоносных автономных систем вооружений (LAWS). Такие системы вооружений выбирают и атакуют цели без инструкций со стороны человека.

В прошлом году Генеральный секретарь ООН Антониу Гутерриш призвал государства в составе организации принять юридически обязательную основу в отношении Смертоносных автономных систем вооружений к 2026 году, поскольку в настоящее время они не регулируются никакими международными правилами.

Касаясь этого вопроса, Накамицу указала на разрыв между странами, которые уже разрабатывают эту технологию, и странами, которые этого не делают. Она сказала, что крупные военные державы пытаются взять на себя инициативу в разработке LAWS. Она добавила, что эти страны хотят получить преимущество на переговорах.

Накамицу также упомянула о возможности того, что террористические и другие организации могут злоупотреблять возможностями искусственного интеллекта.

Она подчеркнула важное значение того, чтобы все страны и люди осознали возможность крайне негативных последствий неправильного использования искусственного интеллекта.