
Полная версия
Проактивное управление рисками искусственного интеллекта. AI proactive risk management
7. ИИ будет использоваться в каждом крупном бизнес-приложении, что приведёт к росту числа атак, ориентированных на ИИ
Мы ожидаем, что в ближайшие 12—24 месяца количество приложений с искусственным интеллектом увеличится в 3—5 раз. По мере того, как компании будут внедрять эти технологии, они могут упустить из виду ключевые проблемы, связанные с методами сбора данных, управлением и потребностями в безопасности, характерными для ИИ. Злоумышленники будут использовать эти уязвимости, чтобы усилить атаки на новые компоненты, такие как большие языковые модели, а также на данные для обучения и умозаключений. Это может привести к инцидентам, связанным с безопасностью, соблюдением нормативных требований и юридическими проблемами в следующем году.
В конечном счёте речь идёт о защите ваших конфиденциальных данных. Но вопрос в том, как это сделать? Единственный способ защититься от всех этих угроз, связанных с ИИ, – это комплексные решения на основе ИИ. Вы можете использовать ИИ с помощью ИИ, применяя защиту доступа к ИИ, которая обеспечивает сотрудникам безопасный доступ к приложениям GenAI. Управление безопасностью ИИ (SPM) выявляет риски в вашей цепочке поставок ИИ, включая проблемы с конфигурацией и способы, которыми вы можете раскрывать свои конфиденциальные данные. Безопасность ИИ во время выполнения гарантирует, что ваши приложения, данные и модели защищены от угроз, связанных с ИИ. Компании, которые будут безопасно внедрять ИИ, выделятся на фоне остальных.
8. ИИ сделает фишинговые электронные письма неотличимыми от настоящих
Методы, ориентированные на пользователей, такие как фишинговые электронные письма, станут более успешными благодаря тому, что злоумышленники будут использовать генеративный искусственный интеллект (GenAI) для создания более эффективных и убедительных атак. Мы уже наблюдаем 30-процентный рост числа успешных попыток фишинга, когда электронные письма пишутся или переписываются с помощью GenAI. Обычные люди станут ещё менее надёжными в качестве последней линии защиты, и предприятия будут полагаться на передовые средства защиты на основе ИИ для защиты от этих сложных атак.
В то время как сегодня компании полагаются на антифишинговые технологии, такие как фильтрация URL-адресов (AURL) на сетевом уровне, всё больше компаний будут усиливать свою защиту с помощью безопасных браузеров в качестве первой линии обороны от этих атак. В сочетании с решением SASE от одного поставщика на базе искусственного интеллекта, которое предлагает расширенные облачные сервисы безопасности, ваша компания будет готова предотвращать новейшие и самые изощрённые угрозы в режиме реального времени.
Подготовка к будущему сетевой безопасности
Будущее сетевой безопасности выглядит захватывающим, но оно также сопряжено с трудностями. Организациям крайне важно опережать эти новые тенденции, разрабатывая гибкие стратегии безопасности, которые можно адаптировать к быстро меняющемуся ландшафту угроз.
Для компаний, стремящихся обеспечить сетевую безопасность на будущее, ключевым фактором является инвестирование в комплексный платформенный подход, который включает в себя новые технологии, такие как защищённые браузеры, SASE от одного поставщика, ИИ-копипасты и обнаружение угроз и реагирование на них с помощью ИИ. Таким образом, они не только защитятся от сегодняшних угроз, но и будут готовы к киберугрозам завтрашнего дня.
В будущем сетевая безопасность станет более динамичной, инновационной и проактивной, чем когда-либо прежде. Это изменит подход организаций к защите своих наиболее ценных активов и обеспечит безопасное и устойчивое будущее в условиях постоянно меняющегося цифрового мира.
1.3. Взаимосвязь ИИ и киберпреступности:
– Использование ИИ для предотвращения киберпреступлений
ИИ способен произвести революцию в сфере кибербезопасности, и вот почему. Искусственный интеллект (ИИ) можно использовать для обнаружения потенциальных киберугроз, которые могут остаться незамеченными аналитиками-людьми. Алгоритмы ИИ также могут выявлять изменения в коде и уязвимости системы в режиме реального времени.
Кроме того, ИИ может обеспечить более полную оценку рисков, сканируя сетевой трафик постоянно, а не только периодически. Инструменты на базе ИИ могут даже автоматизировать процесс создания индивидуального плана реагирования на взлом.
Более того, эти машины способны учиться на собственном опыте, а это значит, что с каждым сканированием и реакцией они становятся лучше. Благодаря непрерывному автоматизированному сканированию системы на базе ИИ могут обнаруживать необычные действия и быстро их фиксировать – обычно до того, как будет нанесён реальный ущерб.
Вот некоторые из наиболее распространенных вариантов использования искусственного интеллекта в сфере кибербезопасности:
– Обнаружение и анализ угроз
– Обнаружение и предотвращение вторжений
– Обнаружение вредоносных программ
– Управление уязвимостями
– Оптимизация Центра управления безопасностью (SOC)
– Управление идентификацией и доступом
– Обнаружение мошенничества
– Безопасность данных
– Защита паролем и аутентификация
– Сетевая безопасность
– Обнаружение и предотвращение фишинга
Вот несколько областей, в которых ИИ может обеспечить значительные преимущества в сфере безопасности:
– Уменьшено количество ложных срабатываний
По прогнозам, к 2027 году ИИ значительно снизит количество ложных срабатываний на 30%, улучшив результаты различных методов, которые позволяют отличать безопасные события от вредоносных. Такое снижение количества ложных срабатываний не только повышает эффективность операций по обеспечению безопасности, но и позволяет командам сосредоточить свои усилия на реальных угрозах безопасности, тем самым повышая общий уровень кибербезопасности.
– Интеграция в Центры управления безопасностью (SOC)
Интеграция генеративного ИИ в центры управления безопасностью (SOC) открывает большие перспективы для улучшения анализа угроз и рабочих процессов реагирования на инциденты. Благодаря таким функциям, как интерактивная аналитика угроз, расширенная обработка оповещений и помощь в устранении последствий, эти инструменты на базе ИИ позволяют специалистам по безопасности быстрее и эффективнее обнаруживать киберугрозы, реагировать на них и устранять их. Оптимизируя процессы и предоставляя контекстную информацию, интеграция ИИ повышает квалификацию операторов, производительность и, в конечном итоге, безопасность организаций.
– Помощники по кодированию в безопасной разработке приложений
Генеративный искусственный интеллект также может улучшить разработку безопасных приложений, предлагая инновационных помощников в написании кода. Эти технологии интегрируют функции безопасности непосредственно в процесс написания кода, помогая разработчикам выявлять уязвимости, сокращая количество ложных срабатываний и внедряя рекомендации по устранению проблем. Эти помощники в написании кода позволяют специалистам по безопасности приложений заблаговременно устранять потенциальные угрозы безопасности, что в конечном итоге приводит к созданию более безопасных приложений.
Такие технологии, как искусственный интеллект и машинное обучение, проникают практически во все сферы деятельности предприятий, и безопасность не является исключением. Сегодня большинство отраслей в значительной степени полагаются на технологии для эффективного и безопасного ведения бизнеса, что делает искусственный интеллект мощным инструментом для предотвращения кибератак. По мере развития технологий они станут ещё более эффективными в защите цифровых активов от злоумышленников.
В ходе опроса 600 ИТ-директоров только 6% заявили, что их организация не использует ИИ в настоящее время. Более того, 14% участников опроса планируют стать предприятиями, управляемыми ИИ, к 2025 году. То же исследование показало, что компании считают более широкое внедрение ИИ критически важным для своего будущего. Это означает, что многие организации уже вкладывают значительные средства в решения для обеспечения безопасности, связанные с ИИ, или планируют сделать это в ближайшее время. Однако внедрение ИИ сопряжено с трудностями.
Проблемы, связанные с искусственным интеллектом в области кибербезопасности
ИИ создаёт множество проблем, когда речь заходит о кибербезопасности. ИИ может быть сложным и требовать от организаций инвестиций в ресурсы, обучение и персонал. Кроме того, при использовании аналитики на основе ИИ для обнаружения угроз безопасности возникают проблемы с конфиденциальностью данных, а также опасения по поводу хранения и использования собранных данных.
– Ресурсы и затраты на обучение
Интеграция ИИ в систему кибербезопасности требует значительных вложений в ресурсы, инструменты и персонал. Компаниям необходимо приобрести и настроить необходимое оборудование и программное обеспечение для ИИ-решений. Им также необходимо обучить своих сотрудников работе с новыми технологиями, что сопряжено с дополнительными расходами, которые могут оказаться непосильными для некоторых организаций. Внедрение систем кибербезопасности на основе ИИ требует высококвалифицированных специалистов, которые могут проектировать, разрабатывать и обслуживать системы. Многие организации испытывают трудности с поиском персонала, обладающего необходимыми знаниями и опытом для создания и обслуживания программ кибербезопасности на основе ИИ.
– Качество данных
Системы искусственного интеллекта используют большие объёмы высококачественных данных для выявления закономерностей и составления точных прогнозов. Некачественные данные могут привести к неточным результатам и ложным срабатываниям. Многие организации испытывают трудности со сбором и обработкой больших объёмов данных, необходимых для эффективных программ кибербезопасности на основе ИИ.
– Конфиденциальность данных
Использование ИИ в решениях для обеспечения кибербезопасности подразумевает сбор и анализ огромного количества данных, что вызывает опасения по поводу конфиденциальности данных. Компаниям необходимо обеспечить соблюдение соответствующих законов, таких как GDPR, когда речь идёт о хранении и защите данных клиентов. Им также необходимо следить за тем, чтобы собранные данные не использовались в несанкционированных целях и не передавались третьим лицам без разрешения.
– Точный Анализ
Решения на основе ИИ эффективны только в том случае, если они могут точно определять потенциальные угрозы и реагировать на них соответствующим образом. Это означает, что их необходимо постоянно обучать на больших наборах данных, чтобы они лучше распознавали закономерности вредоносной активности, что может быть трудоёмким процессом. Кроме того, компаниям необходимо регулярно проверять точность своих систем ИИ, чтобы снизить количество ложных срабатываний и ложных пропусков, которые могут возникнуть в результате неточного анализа.
– Этика и предубеждения
Существует риск того, что системы на основе ИИ могут закреплять или даже усиливать существующие предубеждения и дискриминацию. Организации должны принимать меры для обеспечения справедливости, прозрачности и этичности своих систем кибербезопасности на основе ИИ.
Злоупотребление ИИ в целях киберпреступности
Искусственный интеллект в кибератаках
Если киберпреступники и любят что-то делать, так это обходить системы безопасности. Пожалуй, самым большим недостатком ИИ является то, что не всегда киберзащитники используют ИИ для разработки новых стратегий. Злоумышленники тоже это делают.
Чат-бот с искусственным интеллектом ChatGPT попал в новости из-за своего продвинутого уровня понимания языка, но также и по многим другим причинам. Чат-бот с искусственным интеллектом уже может создавать очень убедительные фишинговые электронные письма и мошеннические схемы социальной инженерии. Более того, его возможности программирования могут даже генерировать вредоносный код на лету. Более 53% респондентов в недавнем отчёте обеспокоены тем, что ChatGPT может помочь хакерам создавать более правдоподобные и убедительные фишинговые электронные письма. 49% говорят, что это позволит менее опытным хакерам улучшить свои технические навыки и распространять ложную информацию.
Хотя ИИ помогает снизить нагрузку на аналитиков-людей и автоматизировать операции по обеспечению безопасности, он также позволяет хакерам автоматизировать и совершенствовать свои вредоносные кампании. Рассмотрим ключевые тенденции негативного влияния ИИ-
– ИИ обеспечивает расширение возможностей в области разведки и социальной инженерии, делая их более эффективными, действенными и менее заметными.
– Более сложные способы применения ИИ в кибероперациях, скорее всего, будут доступны только злоумышленникам, имеющим доступ к качественным обучающим данным, значительным экспертным знаниям (как в области ИИ, так и в области кибербезопасности) и ресурсам.
– ИИ сделает кибератаки более разрушительными, потому что злоумышленники смогут быстрее и эффективнее анализировать украденные данные и использовать их для обучения моделей ИИ.
– ИИ снижает барьеры для начинающих киберпреступников, наёмных хакеров и хактивистов, позволяя им эффективно получать доступ и собирать информацию. Этот расширенный доступ будет способствовать распространению программ-вымогателей.
– Коммерциализация возможностей ИИ на криминальных и коммерческих рынках создаст более широкие и доступные возможности для киберпреступников.
– ИИ в первую очередь расширит возможности злоумышленников в области социальной инженерии. Генеративный ИИ (GenAI) уже можно использовать для убедительного взаимодействия с жертвами, в том числе для создания документов-приманок, без перевода, орфографических и грамматических ошибок, которые часто выдают фишинг. В ближайшие два года, по мере развития моделей и роста их популярности, эта тенденция, скорее всего, усилится.
– Способность ИИ быстро обобщать данные, скорее всего, также позволит злоумышленникам выявлять ценные активы для изучения и кражи, что повысит эффективность и влияние кибератак.
– Злоумышленники, в том числе те, кто занимается программами-вымогателями, уже используют ИИ для повышения эффективности таких аспектов киберопераций, как разведка, фишинг и программирование. Эта тенденция сохраняется. Фишинг, который обычно направлен либо на распространение вредоносного ПО, либо на кражу паролей, играет важную роль в предоставлении начального доступа к сети, необходимого киберпреступникам для проведения атак с использованием программ-вымогателей или других киберпреступлений. Таким образом, в ближайшем будущем использование киберпреступниками доступных моделей ИИ для улучшения доступа будет способствовать распространению глобальной угрозы программ-вымогателей.
– ИИ помогает в разработке вредоносного ПО и эксплойтов, исследовании уязвимостей и горизонтальном перемещении, сделав существующие методы более эффективными. Однако в ближайшей перспективе в этих областях по-прежнему будет использоваться человеческий опыт, а это означает, что любое ограниченное улучшение, скорее всего, будет доступно только существующим злоумышленникам, которые уже обладают необходимыми навыками. ИИ может создавать вредоносное ПО, которое сможет обойти существующие фильтры безопасности, но только в том случае, если он обучен на качественных данных об эксплойтах. Высокий уровень развития технологий позволяет иметь хранилища вредоносного ПО, достаточно большие для эффективного обучения модели ИИ для этой цели.
– Проблемы киберустойчивости становятся все более острыми по мере развития технологий. GenAI и Large language models (LLM) затруднят каждому, независимо от уровня его понимания кибербезопасности, оценку того, является ли запрос на электронное письмо или сброс пароля подлинным, или выявление попыток фишинга, подмены или социальной инженерии. Время между выпуском обновлений для системы безопасности, исправляющих недавно выявленные уязвимости, и исполнителями угроз, использующими необновлённое программное обеспечение, уже сокращается. Это усугубило проблему, с которой сталкиваются сетевые менеджеры по исправлению известных уязвимостей до того, как они могут быть использованы. ИИ, скорее всего, ускорит решение этой проблемы, поскольку разведка для выявления уязвимых устройств стала быстрее и точнее.
– Для более продвинутого использования ИИ в кибероперациях в настоящее время решающее значение имеют опыт, оборудование, время и финансовые ресурсы. Только те, кто инвестирует в ИИ, обладает ресурсами и опытом, а также имеет доступ к качественным данным, смогут извлечь выгоду из его использования в сложных кибератаках. Государственные субъекты с высоким уровнем подготовки почти наверняка лучше всего подготовлены к использованию потенциала ИИ в продвинутых кибероперациях. Другие государственные субъекты и большинство коммерческих компаний, предоставляющих услуги государствам по всему миру, значительно улучшают свои возможности в области социальной инженерии, разведки и утечки информации. У опытных и устоявшихся преступных группировок накапливается достаточно данных для обучения и ресурсов, чтобы значительно улучшить свои возможности.
– Однако вполне вероятно, что со временем эти факторы могут стать менее значимыми по мере распространения и внедрения более сложных моделей ИИ. Общедоступные модели ИИ уже в значительной степени устраняют необходимость в создании злоумышленниками собственных технологий-копий, особенно в таких малосложных операциях, как целевой фишинг. Менее квалифицированные киберпреступники получают значительные преимущества в этом типе операций. Коммерциализация возможностей киберпреступников, например, в рамках бизнес-моделей «как услуга», практически гарантирует, что способные к этому группы будут монетизировать киберинструменты с поддержкой ИИ, делая их доступными для всех, кто готов платить.
– Обучение ИИ на качественных данных будет иметь решающее значение для его эффективного использования в кибероперациях. Препятствия для масштабирования автоматизированной разведки целей, социальной инженерии и вредоносного ПО в первую очередь связаны с данными. По мере успешного похищения данных, ИИ, работающий с данными, будет совершенствоваться, что позволит проводить более быстрые и точные кибероперации.
– Увеличение объёма, усложнение и повышение эффективности киберопераций будут свидетельствовать о том, что злоумышленники смогли эффективно использовать ИИ. Это, скорее всего, в ближайшей перспективе усугубит проблемы киберустойчивости.
Глава 2. Искусственный интеллект как инструмент противодействия киберпреступности
– Обзор приложений ИИ в кибербезопасности (например, обнаружение угроз, аномалий)
– Тематические исследования успешных внедрений ИИ в предотвращении киберпреступности
– Ограничения и проблемы использования ИИ в целях кибербезопасности
2.1. Применение ИИ в кибербезопасности:
– Анализ больших данных для выявления угроз.
– Системы обнаружения вторжений на основе ИИ.
– Прогнозирование и предотвращение атак.
2.2. Примеры использования ИИ в борьбе с киберпреступностью:
– Кейсы успешного применения ИИ в различных организациях.
– Ограничения и риски использования ИИ в кибербезопасности.
2.3. Правовые и этические аспекты применения ИИ:
– Регулирование использования ИИ в кибербезопасности.
– Этические вопросы, связанные с автоматизацией и принятием решений.
ИИ в сфере кибербезопасности – это использование таких методов, как глубокое обучение, машинное обучение и обработка естественного языка, для создания более автоматизированных и интеллектуальных систем защиты. ИИ в сфере кибербезопасности используется для того, чтобы помочь организациям автоматически выявлять новые угрозы, определять неизвестные векторы атак и защищать конфиденциальные данные.
Искусственный интеллект как инструмент противодействия киберпреступности
– Обзор приложений ИИ в кибербезопасности (например, обнаружение угроз, аномалий)
ИИ в сфере кибербезопасности помогает обнаруживать и устранять новые киберугрозы и векторы атак. Он позволяет организациям идти в ногу с меняющимся ландшафтом угроз и справляться с огромными объёмами угроз. ИИ находит применение в различных важных областях кибербезопасности. К ним относится обнаружение угроз, когда ИИ анализирует сетевой трафик, системные журналы и поведение пользователей для выявления подозрительных закономерностей. Он также играет роль в автоматизированном реагировании, помогает управлять уязвимостями, обеспечивает поведенческую аналитику и способствует обнаружению фишинга.
ИИ находит применение в различных важных областях кибербезопасности. К ним относится обнаружение угроз, когда ИИ анализирует сетевой трафик, системные журналы и поведение пользователей для выявления подозрительных закономерностей. Он также играет роль в автоматизированном реагировании, помогает управлять уязвимостями, обеспечивает поведенческую аналитику и способствует обнаружению фишинга.
Генеративный ИИ в сфере кибербезопасности имитирует атаки, прогнозирует угрозы и совершенствует модели обнаружения. Он обеспечивает проактивную защиту, улучшает стратегии реагирования и повышает общий уровень безопасности.
Системы искусственного интеллекта приносят огромную пользу командам по кибербезопасности организаций, помогая им защищать свои сети от новейших угроз в режиме реального времени. Однако стоит отметить, что киберпреступники всё чаще используют те же инструменты искусственного интеллекта для развития своих методов атак.
Лучшие практики применения ИИ в сфере кибербезопасности включают использование высококачественных данных, регулярное обновление моделей, сохранение контроля со стороны человека, обеспечение прозрачности и налаживание сотрудничества между ИИ и аналитиками-людьми.
Искусственный интеллект (ИИ) – это применение интеллектуальных алгоритмов и методов машинного обучения для улучшения обнаружения, предотвращения и реагирования на киберугрозы. ИИ позволяет системам кибербезопасности анализировать огромные объёмы данных, выявлять закономерности и принимать обоснованные решения со скоростью и в масштабах, недоступных человеку.
Роль ИИ в усилении мер безопасности многогранна. Он может автоматизировать рутинные задачи, такие как анализ журналов и сканирование уязвимостей, позволяя аналитикам сосредоточиться на более сложных и стратегических задачах. ИИ в сфере кибербезопасности играет важнейшую роль в обнаружении угроз. Системы на базе ИИ могут обнаруживать угрозы в режиме реального времени, обеспечивая быстрое реагирование и устранение последствий. Более того, ИИ может адаптироваться и развиваться, постоянно изучая новые данные и улучшая свою способность выявлять новые угрозы и противостоять им.
ИИ в сфере кибербезопасности совершает революцию в обнаружении угроз, автоматизирует реагирование и повышает эффективность управления уязвимостями. Анализируя поведение, выявляя фишинг и адаптируясь к новым угрозам, ИИ совершенствует стратегии кибербезопасности, обеспечивая проактивную защиту и сохранность конфиденциальных данных.
Как искусственный интеллект может помочь предотвратить кибератаки?
В настоящее время отмечается существенный рост использования Киберпреступниками новых уязвимостей. Искусственный интеллект в сфере кибербезопасности усиливает разведку о киберугрозах, позволяя специалистам по безопасности:
– поиск и аналитику характеристик кибератак
– укрепление защиты
– анализ данных, таких как отпечатки пальцев, стиль набора текста и особенности голоса, для аутентификации пользователей
Безопасно ли автоматизировать кибербезопасность?
Для усиления кибербезопасности в настоящее время требуется вмешательство человека. Однако такие задачи, как мониторинг системы, могут быть автоматизированы с помощью ИИ. Автоматизация процесса расширит возможности организаций по выявлению угроз и сэкономит время при обнаружении новых угроз. Это крайне важно, поскольку кибератаки становятся всё более изощрёнными.
Автоматизация кибербезопасности с помощью ИИ безопасна, поскольку основана на существующих сценариях использования в различных бизнес-средах. Например, отделы кадров (HR) и информационных технологий (IT) используют ИИ для адаптации новых сотрудников и предоставления им ресурсов и соответствующего уровня доступа для эффективного выполнения работы.
Автоматизация особенно важна в сфере кибербезопасности, учитывая сохраняющуюся нехватку квалифицированных специалистов по безопасности. Это позволяет организациям увеличивать инвестиции в безопасность и улучшать работу, не беспокоясь о поиске дополнительного квалифицированного персонала.


