(adsbygoogle = window.adsbygoogle || []).push({});

Ученые призвали ООН запретить автономных боевых роботов

army_robotВедущие исследователи в области искусственного интеллекта (AI) предупредили, что "гонка вооружений" в этой области может иметь катастрофические последствия для человечества, и призвали ООН рассмотреть возможность запрета "автономных наступательных вооружений."

Открытое письмо опубликовано Институтом изучения жизни будущего (Future of Life Institute (FLI)) и подписано именами таких известных ученых и предпринимателей, как Стивен Хокинг (английский физик-теоретик), Элон Маск (основатель Tesla), Ноам Хомский (лингвист, автор классификации формальных языков, называемой иерархией Хомского), Стив Возняк (соучредитель Apple), Яан Таллинне (соучредитель Skype) и Демис Хассабис (гендиректор купленной Google компании-разработчике искусственного интеллекта Deep Mind).

По мнению авторов письма, оружие, которое способно автоматически "выбирать и поражать цели без вмешательства человека" может стать "Калашниковым завтрашнего дня", провоцируя войны и обязательно попадет в руки террористов.

"Технологии искусственного интеллекта достигли точки, после которой  развертывание таких систем не юридически, а практически становится возможной не в ближайшие десятилетия, а в ближайшие годы», - говорится в письме, авторы которого также отмечают, что, "хотя использование автономного оружия могло бы уменьшить человеческие жертвы на поле боя, его развитие станет ошибкой, поскольку снизит порог для начала войн".

"В отличие от ядерного оружия, автономное оружие не требует дорогостоящего и труднодобываемого сырья. Оно будет распространяться повсюду, поскольку любая военная держава сможет себе позволить его массовое производство", - говорится в письме. - "Его появление на черном рынке и в руках террористов это лишь вопрос времени. Оно может быть использовано для контроля над насилением, этнических чисток и т.д. Кроме того, такое оружие идеально подходит для политических убийств, дистабилизации целых стран и убийств по этническому признаку".

Письмо заканчивается предупреждением о том, что развитие автономного оружия бросит тень на исследования и затруднит применение искусственного интеллекта в областях, где он может принести человечеству пользу. Авторы приходят к выводу, что необходимо "ввести привентивный запрет на создание автономных наступательных вооружений, способных действовать без контроля человека".

Стоит отметить, что это уже далеко не первое письмо подобного рода, но военные разработки в области искусственного интеллекта по-прежнему ведутся учеными большинства ведущих государств мира. Так, представители ВВС США не однократно заявляли, что автономность машин будет расширяться и человек станет слабым звеном в отлаженной цепочке автоматического сбора, передачи информации, распределения задач и их выполнения. Полностью автоматизированная армия, в которой люди лишь запускают механизм и ставят конечную цель, является идеалом, к которому стремится развивающаяся в мире с 80-х годов концепция сетецентрических войн (сформулирована в 1998 году - прим.)