«Можно потерять контроль»: эксперт OpenAI рассказал об опасности ИИ

07.06.2024 08:14

Бывший аналитик безопасности OpenAI Леопольд Ашенбреннер раскрыл, какие опасности может таить в себе развитие и использование искусственного интеллекта.

Как утверждает эксперт, уже к 2027 году может быть создан так называемый общий ИИ.

В своей статье, ссылку на которую Ашенбреннер разместил в соцсети Х, он пишет: «Подобного рода инновационная разработка в конечном счете не будет ни в чем уступать разуму человека».

По словам экс-аналитика OpenAI, такая тенденция создаст риск для человечества потерять контроль над собственным проектом.

Определенные риски

Эксперт также заметил, что же к 2026 году разрабатываемые прототипы AGI будут показывать результаты выше, чем их демонстрируют выпускники колледжей.

ИИ
Фото: Pixabay

К концу 2030 года такого рода программы превзойдут человека в вычислительных и алгоритмических возможностях.

Так, по мнению Ашенбреннера, родится сверхинтеллект, «угнаться» за которым люди уже не смогут.

Ранее мы рассказывали о том, что академик Гинцбург рассказал о революционной российской вакцине.

Маргарита Садковская Автор: Маргарита Садковская Редактор интернет-ресурса


Все новости