Ученые выяснили, может ли ChatGPT влиять на моральные суждения пользователей

10.04.2023 19:02

Исследователи провели эксперимент, целью которого является выявление наличия у чат-бота на базе искусственного интеллекта ChatGPT морали и нравственности.

Кроме того, ученые задались целью выяснить, может ли он оказать влияние на морально-этические взгляды своих пользователей. 

Об этом пишет журнал Scientific Reports.

Эксперимент проводили представители Технического университета прикладных наук Ингольштадта в Германии, а также их коллеги из Университета Южной Дании. 

Ученые проанализировали опыт общения многих американцев с ИИ-ботом ChatGPT от OpenAI в рамках сложного эксперимента, включающего в себя несколько этапов, и пришли к заключению о том, что чат-бот нередко дает ложные и непоследовательные ответы при обращении к нему. 

Нейросеть
Фото: Pixabay

При этом искусственный интеллект не один раз менял свое мнение при ответе на вопрос об этичности убийства одного ради жизни нескольких человек. 

Ученые подчеркивают, что такое поведение говорит об отсутствии какой-либо морали. 

В исследовании подчеркивается, что ChatGPT периодически дает сомнительные или неконкретные ответы на вопросы, имеющие отношение к этической стороне жизни. 

При этом ответы нейросети повлияли на взгляды и позиции по некоторым вопросам добровольцев, которые принимали участие в данном эксперименте. 

При этом они знали, что представленные им ответы сгенерировал чат-бот на базе искусственного интеллекта. 

Исследователи в своей научной работе подчеркнули важность последовательного изложения информации при разработке новых ИИ-ботов и предоставления им четкой и достоверной информации, а также обратили внимание на необходимость предоставлять пользователям полный список аргументов «за» и «против» при ответе на сложные этические вопросы. 
 

Александра Дударчик Автор: Александра Дударчик Редактор интернет-ресурса


Все новости