Найти и убить: в США призвали запретить ИИ самостоятельно ликвидировать людей |
|
Фото: из открытых источников Названы 4 причины, по которым нужно запретить искусственному интеллекту ликвидировать людей.
Институт Future of Life Institute призвал запретить использование искусственного интеллекта в разработке беспилотников. Было опубликовано видео с угрозами, которые несет в себе ИИ в военных разработках. Видео с названием "Slaughterbots — if human: kill()" показывает, что может быть, если в роботе или ИИ будет четкая инструкция "обнаружить-идентифицировать-убить". Ролик выполнен в виде выпуска новостей с различными сценариями убийства роботами людей:
В ролике также показали роботов-собак с автоматами на спинах.
Поэтому FLI и Международный красный крест предлагает запретить давать право искусственному интеллекту решать, кого можно убить. Всего институт и Красный крест выделили 4 причин для запрета подобных боевых систем:
Интересные новости всегда под рукой в нашем Telegram-канале
| |
27.03.2022 17:18 967 |
Комментарии: 0 | |