Технологии

ИИ угрожает ядерной стабильности

25 апреля 2018 0

робот играет на пианино

 

Американский центр стратегических исследований RAND Corporation опросил экспертов на предмет искусственного интеллекта и ядерного оружия. Часть опрошенных не выразила беспокойства, но остальные предупредили, что к 2040 году ИИ сможет пошатнуть ядерное равновесие. Данные об опросе по ссылке.

Ядерное сдерживание

Концепция ядерного сдерживания появилась одновременно с ядерным оружием и стала одним из ключевых компонентов Холодной войны. Её суть в том, что наличие у страны ядерного оружия означает, что другая страна не станет нападать на неё, опасаясь разрушительных последствий. Если у двух стран есть такое оружие, то они будут сдерживать друг друга взаимно, уменьшая вероятность открытого конфликта. Подобное равновесие еще называют ядерным паритетом или ядерной стабильностью.

Что говорят эксперты?

Часть экспертов, опрошенных RAND заявили, что искусственный интеллект может повлиять только на технические аспекты оружия массового поражения, но никак не на ядерный паритет. Более того, они предположили, что к 2040 году у ИИ будет еще масса проблем со сбором и обработкой разведывательной информации о ядерном оружии противника.

В другом лагере оказались эксперты, скептически настроенные к роли ИИ в ядерном паритете. По их мнению опасный сценарий может развиваться так: у державы А появляется искусственный интеллект в управлении ядерным потенциалом. Держава Б, также ядерная, решает, что ИИ сведет на нет их ответный удар, а значит пора переходить к тактике превентивной атаки и к наращиванию потенциала. Причем неважно, истинным было решение или ложным.

Есть еще третья группа экспертов — они считают, что ИИ в вопросах ядерного паритета непредсказуем и может как укрепить баланс, так и пошатнуть. С одной стороны, «умные» системы ядерного оружия могут вселить в правителей ядерных держав мысль, что ядерная война еще более опасна и бессмысленна, чем ранее. Это убережет их от применения оружия массового поражения. С другой стороны, улучшенные искусственным интеллектом оборонные системы дают уверенность в собственном превосходстве, а это увеличивает шансы конфликтов.

Единственное, в чем сходятся все эксперты — это мысль, что к 2040 году не будет создано машины «Судного дня» под управлением ИИ. Задача этой машины — нанести ответный ядерный удар, даже если все руководство страны будет уничтожено. Таким образом, сюжета «Терминатора» к 2040 нам ждать не придется.

Вопрос использования ИИ в войне, как обычной, так и ядерной, является болезненной темой для военных аналитиков и ученых. С одной стороны, машина не имеет этических норм и может нарушить правила ведения войны. С другой, участие искусственного интеллекта и роботов в вооруженных конфликтах снижает чувствительность воюющих стран к самой проблеме вооруженного насилия. Так что, человечеству еще придется выработать четкую позицию по искусственному интеллекту и вооружениям.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Рассказать друзьям

0 Комментариев

Подписаться на рассылку

Комментарии

Войти с помощью 

Присоединяйтесь к нам в социальных сетях

В наших группах вы можете узнать много нового и интересного, а так же - принять участие в опросах и конкурсах

Присоединиться
Присоединиться