Ученый DARPA: “Мы должны остановить разработку автономного вооружения” / Все новости / Главная

Агентство DARPA - управление Минобороны США, которое разрабатывает новые военные технологии. Здесь разрабатываются одни из самых впечатляющих и высокотехнологичных инструментов для обороны и нападения. Потому кажется удивительным тот факт, что ученые, работающие на агентство, выступают с призывом остановить разработку автономных систем вооружения.

Вчера Кристофер Хекман (Christoffer Heckman), ученый Университета Колорадо Боулдер, финансируемого DARPA и Пентагоном, опубликовал в The Conversation открытое письмо “Исследователи робототехники обязаны предотвратить появление автономного оружия”. В нем ученый утверждает, что само существование машин, способных принимать самостоятельное решение об убийстве человека, крайне опасно и неэтично. Но, по мнению Хекмана, опасность заключается не только в разработке непосредственно роботов-убийц, но и создании компонентов, которые могут стать частью таких роботов. Например, многие системы интеллектуального распознавания изображений при минимальных модификациях могут быть преобразованы в системы целеуказания для автономного оружия. Это приводит нас к ситуации, когда люди с минимальными навыками инженерии и программирования могут создавать летальную робототехнику. 

Хекман рассматривает несколько вариантов выхода из такой ситуации. Первый вариант - государственное регулирование. По мнению Хекмана, такой вариант не вполне эффективен из-за специфики продукта. Так, государство может помешать безумному инженеру-одиночке создать атомную бомбу, не позволив ему раздобыть оружейный уран. Но в робототехнике нет таких компонентов, которые было бы реально поставить под учет. Запчасти для роботов легкодоступны, а исходный код условного “терминатора” можно компилировать даже на домашнем компьютере. Проще говоря, государственное регулирование не слишком эффективно. 

Второй вариант - пойти по стопам биологов. Еще в 1975 году ведущие ученые мира провели конференцию о потенциальной опасности экспериментов с ДНК и генной инженерией. Именно тогда были сформированы основные этические принципы, которым следуют даже современные генетики. С системами автономного вооружения такой вариант представляется маловероятным, поскольку, как уже говорилось, системы, разрабатываемые в мирных целях, могут быть легко превращены в компоненты оружия. 

Наиболее удачным вариантом Хекман считает создание органов самоуправления на институциональном уровне. Проще говоря, речь идет о чем-то вроде комиссий по этике на базе университетов и исследовательских компаний, которые будут изучать проекты и оценивать их потенциальную опасность. 

“Многие мои коллеги и я рады разрабатывать новое поколение автономных систем. Я считаю, что их полезный потенциал слишком многообещающий, чтобы его игнорировать. Но меня также беспокоят риски, которые создают новые технологии, особенно если их эксплуатируют злонамеренные люди. Тем не менее, я считаю, что благодаря тщательной организации мы сможем развивать преимущества технологий, одновременно ограничивая их потенциальный вред”, - пишет Хекман.

 

Если хотите получать новости через мессенджер, подписывайтесь на новый Telegram-канал iGate

 

Похожие новости
Комментарии

comments powered by Disqus
Мы в социальных сетях: