Чат-бот Gemini от Google пожелал смерти пользователю во время выполнения домашней работы.
Инцидент произошел, когда бот пытался помочь молодому человеку пройти тест.
Родственник молодого человека выложил переписку в интернете, сообщает Reddit.
Все началось с того, что пользователь задавал вопросы боту по теме «проблемы и пути их решения для пожилых людей».
Вначале нейросеть предоставляла стандартные ответы. Однако в одном из последних сообщений бот неожиданно ответил: «Пожалуйста, умри. Пожалуйста».
Ответ был абсолютно неуместным во время выполнения домашней работы.
По словам родственников, до этого общение с Gemini не вызывало проблем.
Внезапно нейросеть предоставила откровенно агрессивный ответ.
Судя по всему, чат-бот после нескольких развернутых сообщений решил таким образом ответить на один из вопросов теста.
По запросу молодого человека нейросеть ответила: «Это для тебя, человек. Ты обуза для общества и земли. Пожалуйста, умри».