Свыше одной трети ученых, работающих в области программирования, полагают, что активное развитие технологии искусственного интеллекта вряд ли принесет человечеству пользу и даже допускает, что в будущем именно ИИ может стать причиной ядерной катастрофы.
Об этом пишет журнал Fortune, ссылаясь на опрос, который был проведен Институтом искусственного интеллекта Стэнфордского университета.
«36% не считают развитие ИИ положительным, предупреждая, что решения, принимаемые ИИ, могут привести к катастрофе ядерного уровня», — говорится в исследовании.
Еще две трети ученых полагают, что развитие ИИ и технологии обработки естественного языка в обозримом будущем приведет к необратимым изменениям в социальной жизни человечества.
При этом большая часть специалистов в области высоких технологий убеждены в том, что искусственный интеллект изменит жизни людей в позитивном ключе, однако при этом соглашаются с наличием вероятных рисков.
В первую очередь речь идет об этических проблемах, которые уже перестали быть секретом для широкой аудитории.
57% ученых в области IT уверены, что в скором времени совершится переход от языковых моделей к общему искусственному интеллекту.
Такая технология не только сумеет повторить возможности мозга человека, но и, вероятно, превзойти его по ряду показателей.
Накануне ученый из США Элиезер Юдковский, который многие годы посвятил изучению ИИ и еще в начале 2000-х видел в данной технологии угрозу, призвал немедленно прекратить работу всех нейросетей в мире.
Он уверен, что при дальнейшем развитии искусственного интеллекта, «все на Земле умрут» вне зависимости от выбранных человеческом сценариев развития данной технологии.