Новые типы угроз: ИИ стал оружием киберпреступников – нейросети взламывают вашу жизнь за минуты

24.03.2025 19:59

Ваши голосовые сообщения, фото и даже стиль переписки теперь могут подделать за 10 секунд. 

Киберпреступники массово внедряют ИИ, превращая технологии в орудие атак. 

Эксперты предупреждают: новая волна угроз уже здесь.  

Компьютеры
Фото: Pixabay

Deepfake-вымогатели: ваше лицо как инструмент шантажа  

В 2023 году 78% компаний столкнулись с поддельными видео, где «сотрудники» разглашают секреты. 

Нейросети вроде DeepFaceLab создают реалистичные ролики из 3-5 фото. Жертвам угрожают сливом фейков, требуя Bitcoin.  

Как защититься:  

Не выкладывайте селфи в соцсетях в открытый доступ.  

Используйте водяные знаки на корпоративных фото.  

Фишинг 2.0: письма, которые не отличить от настоящих  

ИИ-сервисы (например, ChatGPT) генерируют идеальные фишинговые письма. 

Они анализируют стиль коллег, подделывают подписи и даже имитируют корпоративный сленг. В 2024 году 62% атак начались с таких сообщений.  

Пример: письмо «от банка» с просьбой подтвердить данные. Ссылка ведёт на клон сайта, где вводят логин и пароль.  

Голосовые клоны: мошенники звонят «родным»  

В США зафиксированы случаи, когда злоумышленники копировали голос ребёнка, кричащего «Мама, помоги!». 

Родители переводили тысячи долларов, думая, что чадо в беде. Технология требует всего 10 секунд аудиозаписи.  

Совет: создайте с близкими кодовое слово на экстренный случай.  

ИИ-боты для взлома аккаунтов

Программы вроде PassGAN подбирают пароли в 200 раз быстрее человека. 

Они анализируют утечки данных и генерируют миллионы комбинаций. В группе риска — простые пароли («123456», «qwerty»).  

Что делать:  

Используйте двухфакторную аутентификацию.  

Меняйте пароли раз в 3 месяца.  

Автоматические DDoS-атаки  

Нейросети находят уязвимости в сайтах и координируют атаки без участия человека. В 2024 году продолжительность таких атак выросла на 40%.  

Защита: подключите сервисы типа Cloudflare для фильтрации трафика.  

ИИ-шпионы в соцсетях  

Боты анализируют ваши посты, чтобы собрать данные для взлома. Например, узнают кличку питомца (часто используется в паролях) или номер школы (ответ на секретный вопрос).  

Лайфхак: не указывайте в профилях реальную информацию (город, дату рождения, школу).  

Фейковые «техподдержки» с голосом ИИ  

Мошенники звонят, представляясь сотрудниками Microsoft или Apple. 

ИИ копирует интонации и акценты, чтобы вызвать доверие. Цель — получить доступ к вашему компьютеру через TeamViewer.  

Правило: не давайте доступ к ПК незнакомцам. Официальные службы так не работают.  

Итог  

ИИ — не только помощник, но и угроза. Чтобы не стать жертвой:  

  • Не доверяйте слепо аудио и видео.  
  • Проверяйте источники писем.  
  • Обновляйте антивирусы.  

Технологии развиваются — ваша бдительность должна идти в ногу с ними.  
 


Содержание
  1. Deepfake-вымогатели: ваше лицо как инструмент шантажа  
  2. Фишинг 2.0: письма, которые не отличить от настоящих  
  3. Голосовые клоны: мошенники звонят «родным»  
  4. ИИ-боты для взлома аккаунтов
  5. Автоматические DDoS-атаки  
  6. ИИ-шпионы в соцсетях  
  7. Фейковые «техподдержки» с голосом ИИ  
  8. Итог  
Все новости