Бывший аналитик безопасности OpenAI Леопольд Ашенбреннер раскрыл, какие опасности может таить в себе развитие и использование искусственного интеллекта.
Как утверждает эксперт, уже к 2027 году может быть создан так называемый общий ИИ.
В своей статье, ссылку на которую Ашенбреннер разместил в соцсети Х, он пишет: «Подобного рода инновационная разработка в конечном счете не будет ни в чем уступать разуму человека».
По словам экс-аналитика OpenAI, такая тенденция создаст риск для человечества потерять контроль над собственным проектом.
Определенные риски
Эксперт также заметил, что же к 2026 году разрабатываемые прототипы AGI будут показывать результаты выше, чем их демонстрируют выпускники колледжей.
К концу 2030 года такого рода программы превзойдут человека в вычислительных и алгоритмических возможностях.
Так, по мнению Ашенбреннера, родится сверхинтеллект, «угнаться» за которым люди уже не смогут.
Ранее мы рассказывали о том, что академик Гинцбург рассказал о революционной российской вакцине.