Ученые предупредили об опасности появления "роботов-убийц"

viewings icon comments icon

ПОДЕЛИТЬСЯ

whatsapp button telegram button facebook button
Ученые предупредили об опасности появления "роботов-убийц" Кадр фильма "Терминатор"(1984)

Выдающиеся ученые опубликовали открытое письмо, предупреждающее общественность об опасности автономного оружия, создание которого стало возможным в связи с прогрессом в области робототехники и искусственного интеллекта, сообщает Euronews.

whatsapp button telegram button facebook button
Иконка комментария блок соц сети

Выдающиеся ученые опубликовали открытое письмо, предупреждающее общественность об опасности автономного оружия, создание которого стало возможным в связи с прогрессом в области робототехники и искусственного интеллекта, сообщает Euronews.

Письмо подписали сотни ученых, исследователей и экспертов, среди которых - Стивен Хокинг, Ноам Хомский и Илон Маск. Авторы призвали запретить разработку "роботов-убийц" во избежание новой гонки вооружений, которая не пойдет на пользу человечеству.

Ученые предупреждают, что "роботам-убийцам" даже не потребуется разрешение человека, чтобы принять решение о том, на кого напасть и кого убить: "Технология искусственного интеллекта достигла той точки, когда вопрос появления автономного оружия с искусственным интеллектом становится делом ближайших лет - даже не десятилетий". "Ставки высоки. Так как автономные виды вооружений представляют собой третью революцию в военной области после изобретения пороха и ядерного оружия", - говорится в обращении.

В письме также перечисляется короткий список преимуществ оружия, наделенного искусственным разумом, в том числе - возможность сократить число человеческих жертв, и длинный список недостатков, среди которых - относительно дешевое массовое производство, снижение порога вступления в войну, легкая возможность оказаться на черном рынке и, как следствие, - в руках диктаторов, террористов, военных фанатиков и так далее.

"Если не принять никаких мер, автономное оружие завтра станет столь же распространенным, как автомат Калашникова сегодня", - утверждают авторы обращения.

При этом ученые не призывают полностью запретить разработки технологий искусственного разума для оборонной промышленности: "Искусственному интеллекту можно найти множество применений, которые позволят сделать поле боя более безопасным для человека, в первую очередь - для гражданского населения, не создавая при этом новых инструментов для убийства людей".

Ознакомиться с полным текстом письма можно здесь.

Tengrinews
Читайте также
Join Telegram Последние новости
Лого TengriNews мобильная Лого TengriLife мобильная Лого TengriSport мобильная Лого TengriAuto мобильная Иконка меню мобильная
Иконка закрытия мобильного меню

Курс валют

 537.77  course up  628.15  course up  6.6  course up

 

Погода

location-current
Алматы
А
Алматы 33
Астана 26
Актау 26
Актобе 23
Атырау 24
Б
Балхаш 32
Ж
Жезказган 26
К
Караганда 21
Кокшетау 26
Костанай 31
Кызылорда 22
П
Павлодар 24
Петропавловск 22
С
Семей 31
Т
Талдыкорган 34
Тараз 35
Туркестан 27
У
Уральск 23
Усть-Каменогорск 34
Ш
Шымкент 24

 

Редакция Реклама
Социальные сети
Иконка Instagram footer Иконка Telegram footer Иконка Vkontakte footer Иконка Facebook footer Иконка Twitter footer Иконка Youtube footer Иконка TikTok footer Иконка WhatsApp footer