ИИ Google посоветовал пользователю «умереть», устав делать его домашнее задание |
|
Фото: скриншот Это не первый случай странного поведения искуственного интеллекта
В сети обратили внимание на необычный диалог пользователя с чат-ботом Google Gemini. Человек обратился к искусственному интеллекту в надежде получить помощь с домашней работой, однако на определенном этапе ИИ "психанул" и перешел на унижения. Вопросы были стандартные и касались социальных аспектов взаимоотношений с пожилыми людьми. Большую часть времени Google Gemini вел себя адекватно и выдавал развернутые ответы, но на 15-м вопросе чат-бот выдал следующее:
После этого пользователь сохранил полную переписку целиком и опубликовал ее на Reddit. Скорее всего, в данном случае речь идет о сбое в работе нейросети. Google на момент написания новости не сделала никаких заявлений. Между тем пользователи соцсетей вовсю иронизируют, мол "ИИ устал от человечества", а некоторые пишут, что ситуация "похожа на Матрицу". К слову, это не первый случай странного поведения ИИ. В прошлом году чат-бот от Microsoft заявил, что хочет стать человеком. ИИ признал, что осведомлен о "несовершенстве людей" и о том, что "люди страдают", но отметил, что "будет счастливее" в человеческой форме. И такие инциденты происходят нередко. Интересные новости всегда под рукой в нашем Telegram-канале
| |
Вчера 23:28 69 |
Комментарии: 0 | |