Найти и убить: в США призвали запретить ИИ самостоятельно ликвидировать людей

27.03.2022 в 17:18
722
Найти и убить: в США призвали запретить ИИ самостоятельно ликвидировать людей
Фото: из открытых источников
Названы 4 причины, по которым нужно запретить искусственному интеллекту ликвидировать людей.

Институт Future of Life Institute призвал запретить использование искусственного интеллекта в разработке беспилотников. Было опубликовано видео с угрозами, которые несет в себе ИИ в военных разработках.

Видео с названием "Slaughterbots — if human: kill()" показывает, что может быть, если в роботе или ИИ будет четкая инструкция "обнаружить-идентифицировать-убить". Ролик выполнен в виде выпуска новостей с различными сценариями убийства роботами людей:

  • при ограблении банков
  • при охоте на военных
  • при нападении на полицейские участки

В ролике также показали роботов-собак с автоматами на спинах.

"В то время как в случае беспилотником решение об ударе принимается удаленно оператором-человеком, в случае автономного оружия решение о том, кто выживет, а кто будет убит принимается исключительно алгоритмами", — подчеркивается в видеоролике.

Поэтому FLI и Международный красный крест предлагает запретить давать право искусственному интеллекту решать, кого можно убить. Всего институт и Красный крест выделили 4 причин для запрета подобных боевых систем:

  1. может быть непреднамеренная эскалация ситуаций из-за широкого распространения ИИ
  2. массовое распространение подобных технологий по всему миру из-за их дешевизны
  3. непредсказуемость машинного обучения в реальных условиях и при боях
  4. избирательный поиск цели оптическими сенсорами, которые могут визуально определять цель.

Интересные новости всегда под рукой в нашем Telegram-канале
Аватар Skibair Ирина Скиба / Skibair
Журналист GolosInfo
27.03.2022 17:18 722
0.0
Комментарии: 0
avatar