Статья не моя Ядерную


Вы здесь: Авторские колонки FantLab > Авторская колонка «beskarss78» > Статья не моя "«Ядерную кнопку» нажмет искусственный интеллект"
Поиск статьи:
   расширенный поиск »

Статья не моя ««Ядерную кнопку» нажмет искусственный интеллект»

Статья написана 29 сентября 2018 г. 09:42

http://expert.ru/2018/09/28/yadernuyu-voj...

«Неизбежность новой гонки

6–7 сентября 2018 года в Пекине состоялась совместная конференция Стокгольмского института исследования проблем мира (SIPRI) и Китайского института современных международных отношений (CICIR), посвященная влиянию технологий искусственного интеллекта и автономных систем на ядерную безопасность и стратегическую стабильность. Это уже второе мероприятие, которое прошло в рамках двухлетнего исследовательского проекта SIPRI, направленного на изучение влияния автономных систем и технологий искусственного интеллекта на международные отношения.

В фокусе конференции в Пекине были проблемы безопасности в Восточной Азии. Мероприятие объединило экспертов из России, Китая, США, Франции, Великобритании, Японии, Южной Кореи, Индии и Пакистана, которые обозначили позиции своих стран по вопросу использования новых технологий в вопросах стратегической стабильности.

Интересной особенностью мероприятия стал консенсус участников относительно того, что новые технологии (в первую очередь, машинное обучение) уже в самом ближайшем будущем будут применяться ядерными державами для модернизации их стратегического вооружения. Применение «слабого» искусственного интеллекта (заточенного на решение конкретной задачи) для раннего оповещения о пуске ракет противника, а также для оценки вероятности подобного пуска способно дать военному командованию ядерной державы дополнительное время на принятие решения об ответном ударе и его масштабе. Новые технологии также способны повысить точность ядерного оружия и эффективность противоракетной обороны, улучшить защиту ядерных объектов, предоставить более качественные разведывательные данные.

В то же время ускорение процесса принятия решений одной из сторон неизбежно подтолкнет ее потенциальных противников к поиску возможностей более быстрой доставки ядерного оружия. Подобная гонка между ядерными державами потенциально несет в себе значительную угрозу мировой стабильности, поскольку она будет оставлять все меньше времени на оценку угрозы ракетной атаки и целесообразности ответных действий. В конечном итоге нельзя исключать вероятности того, что страны будут вынуждены автоматизировать принятие решений об ответном ударе, что может привести к непредсказуемым последствиям. При этом более слабые ядерные державы, которые чувствуют себя уязвимыми, могут уже в ближайшем будущем поддаться соблазну внедрить систему автоматического ответного ядерного удара (по аналогии с советской системой «Периметр» и американской «Operation Looking Glass»).

В рамках дискуссии отмечалось, что даже специалисты по машинному обучению не всегда до конца понимают его работу. Несмотря на стремительное развитие технологий ИИ, проблема «черного ящика», когда алгоритмы принятия решений остаются скрытыми от разработчиков, сохраняет свою актуальность. Таким образом, прежде чем доверять искусственному интеллекту решения, связанные с применением летального оружия, необходимо значительно повысить его транспарентность. Однако, здесь неизбежно возникает противоречие, связанное с необходимостью сочетать прозрачность механизмов машинного обучения с их защищенностью от врага, поскольку данные, используемые нейросетями, могут быть «отравлены» умышленными манипуляциями (data poisoning). Важно также отметить, что военные в силу специфики их работы обладают принципиально меньшим объемом данных для машинного обучения, нежели гражданские компании, занимающиеся ИИ.»





170
просмотры





  Комментарии
нет комментариев


⇑ Наверх