Большая часть ИИ-проектов в Пентагоне развивает подконтрольное Управление перспективных исследовательских проектов (Defense Advanced Research Projects Agency, DARPA). Сотрудники этого подразделения занимаются совершенствованием и внедрением систем искусственного интеллекта в различные образцы вооружения. В DARPA работают над наделением машин возможностью общаться и думать, так же как это делают люди. Кроме того, американские власти поддерживают развитие ИИ-систем, позволяющие роботам быстро выявлять в сети видеоролики, изображения и аудиозаписи с отслеживаемым и потенциально опасным контентом. Инвестиции DARPA невелики по стандартам расходов Пентагона, где стоимость покупки и обслуживания новых боевых самолетов F-35, как ожидается, превысит триллион долларов. Но это самые большие траты в истории технологии ИИ и сравнимы с суммами, которые Соединенные Штаты потратили на Манхэттенский проект, который производил ядерное оружие в 1940-х гг. Высока вероятность, что военные захотят заручиться поддержкой высокотехнологических компаний для более эффективной и скорой разработки подходящих ИИ-систем. Впрочем, сами техгиганты от этой перспективы не в восторге. В июле около 160 компаний, а также более 2,4 тыс. ученых и предпринимателей во время Международной конференции по искусственному интеллекту (IJCAI) в Стокгольме подписали договор, который предполагает отказ от разработки оружия с искусственным интеллектом. Среди подписавших документ, оказались основатель DeepMind Демис Хассабис, предприниматель Илон Маск, программист и основатель Skype Жаан Таллин. Инициаторы соглашения призывают правительство согласовать нормы, законы и правила, которые навеки запретят разработку роботов-убийц на основе технологий искусственного интеллекта. Пока такие меры не приняты, подписавшие соглашение стороны обязуются "не участвовать и не поддерживать разработку, производство, торговлю или применение смертоносного автономного оружия".
Появление оружия, способного самостоятельно выбрать цель и вступить с ней в бой, несет угрозу моральным и прагматическим принципам человечества, а право о лишении человека жизни никогда не должно передаваться машине, говорится в документе. Прагматическая угроза заключается в том, что "летальное автоматическое оружие, способное самостоятельно выбирать и нацеливаться на объект без вмешательства человека, опасно дестабилизирует ситуацию для каждой страны и индивида". Предприниматели и ученые также обратились к Организации Объединенных Наций (ООН) с требованием принять законы, ограничивающие разработку боевых роботов.Читайте также: Intel будет выпускать ИИ-чипы для автомобилей