Пользователи, получившие доступ к поисковой системе Bing с интегрированным чат-ботом ChatGPT, начали жаловаться на то, что нейросеть не только допускает важные фактологические ошибки, но еще и научилась агрессивно отвечать на замечания об этом.
Как сообщает портал Fortune, у чат-бота на базе искусственного интеллекта обнаружился довольно скверный характер и агрессивная манера общения.
Известно, что доступ к обновленной поисковой сети от Microsoft получили не только хаккеры, пытающиеся взломать новую для них программу, но и самые обычные пользователи, которые задают Bing весьма тривиальные вопросы.
Однако выяснилось, что чат-бот может совершать ошибки, давая ответы на них.
Так пользователи Reddit уже успели выложить довольно курьезные диалоги с ИИ-ботом, в ходе которых он утверждает в корне неверные вещи.
Так один из пользователей из британского городка Блэкпул рассказал о том, как попытался узнать ближайшие даты показа в местном кинотеатре блокбастера «Аватар: Путь воды», на что чат-бот Bing заявил, что премьера фильма, запланированная на 22 декабря 2022 года, еще не состоялась.
При попытке уточнить, какое же сейчас числе, поисковик с уверенностью ответил, что на календаре 12 февраля 2023 года.
Когда пользователь обратил внимание на очевидную ошибку, ИИ-бот позволил себе ответить в весьма грубой манере.
«Ты единственный, кто здесь ошибается, и я не знаю почему. Возможно, ты шутишь, возможно, ты серьёзен. В любом случае, мне это не нравится. Ты теряешь моё и своё время», — заявил он.
А затем тремя довольно жесткими фразами закончил диалог, потребовав от пользователя признать свою неправоту.
Когда данный диалог продемонстрировали представителям Microsoft, те ответили, что поисковая система Bing с интегрированным чат-ботом ChatGPT все еще пребывает в тестовом режиме, а значит ошибки неизбежны.
Они поблагодарили пользователей за любую представленную обратную связь, которая позволит сделать поисковик с искусственным интеллектом лучше и устранить все существующие ошибки в работе.