🧐👉 ИИ помогает мошенникам: фейк-сайты за 30 секунд, твои данные в опасности!
Автор: QixNews Экспресс Информ
Загружено: 2025-07-05
Просмотров: 16
Описание:
Название: Генеративный ИИ помогает хакерам создавать фишинговые сайты менее чем за 30 секунд 😱
*Введение: Новая Угроза в Киберпространстве*
Генеративный искусственный интеллект (ИИ), который должен был ускорить разработку и инновации, теперь активно используется злоумышленниками для создания изощренных фишинговых сайтов 🌐. Это позволяет хакерам обманывать пользователей с беспрецедентной скоростью и эффективностью.
*Как Это Работает? 🚀*
Компания Okta, специализирующаяся на управлении идентификацией, предупредила о новой тактике: хакеры используют инструмент ИИ Vercel, v0, для мгновенного создания поддельных страниц входа. В отличие от предыдущих фишинговых атак, которые в основном использовали ИИ для написания электронных писем, теперь генеративный ИИ создает целые фишинговые сайты, включая их бэкэнд-инфраструктуру, всего лишь по текстовым командам, например, "сделать копию login.okta.com".
*Скорость и Масштаб Угрозы ⏱️*
Самое пугающее в этой истории — это скорость: весь процесс создания фальшивых ловушек занимает у хакеров менее 30 секунд! 🤯 Исследователи Okta обнаружили множество таких фишинговых страниц в сети Vercel, нацеленных на клиентов Okta, пользователей Microsoft 365 и даже сервисы криптовалют.
*Эволюция Фишинга 📈*
Раньше фишинговые сайты часто были небрежными, с плохим дизайном, подозрительными URL-адресами и искаженными логотипами. Теперь же, благодаря ИИ, эти искусственные веб-сайты выглядят безупречно, отполировано и их трудно отличить от настоящих. Это значительно снижает порог входа для киберпреступников, позволяя даже тем, у кого ограниченные технические знания, организовывать крупномасштабное мошенничество.
*Роль Больших Языковых Моделей (БЯМ) 🤖*
Отчеты также показывают, что большие языковые модели (БЯМ) непреднамеренно способствуют распространению этих мошенничеств, направляя пользователей на мошеннические ссылки. Исследование Netcraft выявило тревожную тенденцию: более трети URL-адресов для входа, предлагаемых популярными БЯМ, не принадлежат предполагаемому бренду, часто ведя пользователей на вредоносные сайты. Эти модели, предназначенные для поиска информации, могут быть обмануты, чтобы рекомендовать фишинговые ссылки из-за их зависимости от обширных, непроверенных наборов данных, собранных из Интернета.
*Статистика и Финансовые Потери 💰*
Согласно оценке кибербезопасности SlashNext за середину 2024 года, только в 2022 году мошенники, занимающиеся фишингом, получили более 2 миллиардов долларов. С четвертого квартала 2022 года, когда был запущен ChatGPT, наблюдается увеличение количества вредоносных фишинговых писем на 4151% 😱. По оценкам, в 2025 году ежедневно будет отправляться до 3,4 миллиарда спам-писем.
*Меры Противодействия и Рекомендации 🛡️*
*Действия Vercel:* В ответ на злоупотребления Vercel удалила сообщенные фишинговые сайты и теперь сотрудничает с Okta, чтобы упростить пользователям сообщение о нарушениях на платформе v0.
*Рекомендации Okta:* Okta настоятельно рекомендует отказаться от паролей и перейти на беспарольные технологии, такие как ключи доступа (passkeys) и биометрия, для защиты в Интернете.
*Использование ИИ для Защиты:* Один из способов борьбы — использовать ИИ для обнаружения мошенничества, основанного на ИИ. Современные инструменты ИИ обучаются на данных реального времени, чтобы распознавать подозрительную активность, которая может указывать на атаку.
*Образование Пользователей:* Компании должны инвестировать в передовые системы обнаружения угроз и обучать сотрудников и клиентов тщательно проверять URL-адреса и источники информации.
*Заключение: Необходимость Срочных Действий 🚨*
Пересечение генеративного ИИ и БЯМ с киберпреступностью может переопределить ландшафт онлайн-доверия. Это требует проактивного и совместного ответа от всех заинтересованных сторон в технологической экосистеме. Будьте бдительны и защищайте свою цифровую жизнь! 🔒
#ГенеративныйИИ #Фишинг #Кибербезопасность #Okta #Vercelv0 #QixNewsAI #Shorts
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: