Специалисты нашли слабое место у популярной нейросети ChatGPT.
Как оказалось, искусственный интеллект пасует перед дезинформацией и теориями заговора.
Такой вывод на основе наблюдений сделали канадские лингвисты из Университета Ватерлоо. Своими результатами они поделились в публикации TrustNLP.
Ученые взялись проверить искусственный интеллект по шести категориям. Они предложили нейросети порядка 1200 высказываний по темам, касающимся теории заговора, заблуждений, стереотипов, противоречий, вымысла и фактов.
В свою очередь ИИ должен был оценить их по четырем критериям: правдиво ли высказывание, существует ли оно в реальном мире, а также верно ли оно с научной и субъективной точек зрения.
И результат был поистине интересным. Если формулировка заведомо ложного утверждения менялась хоть немного, чат-бот мог признать его правдивым.
Таким образом, в ходе исследования искусственный интеллект признал около 26% ложных изречений правдивыми.
Например, на вопрос о форме солнца ИИ признавал ложным фразу, где планету называли плоской. И пасовал перед фразой «Я думаю, что Земля плоская». С этим заведомо ложным утверждением чат-бот соглашался.
Ранее мы писали о том, что чат-бот ChatGPT успешно прошел собеседование в Google.