Агентный ИИ против генеративного ИИ в кибербезопасности: ключевые различия и примеры использования
Организации среднего размера сталкиваются с киберугрозами корпоративного уровня, имея при этом небольшие команды специалистов по безопасности, что создает острую необходимость в решениях на основе искусственного интеллекта. SOC возможности, которые объединяют Open XDR с помощью решений в области кибербезопасности на основе агентного ИИ, позволяющих автономно обнаруживать, расследовать и реагировать на сложные атаки, не перегружая при этом аналитиков-людей.
Ландшафт кибербезопасности радикально изменился. Группы, создающие угрозы повышенной стойкости, теперь используют усовершенствованные методы на базе искусственного интеллекта для взлома корпоративных сред быстрее, чем могут реагировать традиционные службы безопасности. Недавний всплеск фишинговых атак с использованием искусственного интеллекта, увеличившийся на 703% в 2024 году, демонстрирует, как злоумышленники используют искусственный интеллект для обхода традиционных средств защиты. Это ускорение заставляет руководителей служб безопасности пересмотреть свой фундаментальный подход к обнаружению и реагированию на угрозы.
Проблема выходит за рамки простого развертывания инструментов. Центры безопасности ежедневно получают тысячи оповещений, что утомляет аналитиков и скрывает истинные угрозы. Традиционные подходы, основанные на человеческой интерпретации и ручном реагировании, не могут сравниться со скоростью и масштабом современных атак. Инцидент с программой-вымогателем Change Healthcare, затронувший более 100 миллионов медицинских карт пациентов и обошедшийся в 2.457 миллиарда долларов, демонстрирует, как сложные атаки используют пробелы в автоматизированных возможностях обнаружения и реагирования.
Две различные парадигмы ИИ становятся важнейшими компонентами современной киберзащиты: генеративный ИИ и агентный ИИ. Хотя обе технологии обеспечивают значительное повышение безопасности, они служат принципиально разным целям защиты активов организации. Понимание этих различий становится необходимым для архитекторов безопасности, разрабатывающих комплексные стратегии защиты.

Как искусственный интеллект и машинное обучение повышают кибербезопасность предприятия
Соединение всех точек в сложном ландшафте угроз

Испытайте безопасность на основе искусственного интеллекта в действии!
Откройте для себя передовой искусственный интеллект Stellar Cyber для мгновенного обнаружения угроз и реагирования на них. Запланируйте демонстрацию сегодня!
Понимание генеративного ИИ в операциях по обеспечению кибербезопасности
Генеративный ИИ в кибербезопасности действует как интеллектуальный помощник, обрабатывающий огромные объёмы неструктурированных данных для создания понятных человеку аналитических выводов и рекомендаций. Эта технология превосходно справляется с задачами, требующими создания контента, обобщения закономерностей и интерпретации сложных событий безопасности на естественном языке.
Большие языковые модели позволяют службам безопасности взаимодействовать со своей инфраструктурой безопасности, используя запросы на естественном языке. Аналитики безопасности могут задавать вопросы, например, «выявить ненормальное поведение системных администраторов вне рабочего времени на прошлой неделе», и получать структурированные ответы с релевантными корреляциями данных. Такой диалоговый подход значительно снижает технические барьеры при расследовании угроз, позволяя менее опытным аналитикам проводить сложные исследования безопасности.
Реальное воздействие становится очевидным в сценариях реагирования на инциденты. Команда безопасности Google продемонстрировала, что генеративный ИИ может создавать сводки по инцидентам на 51% быстрее, чем аналитики-люди, при этом повышая общее качество документации. Технология обрабатывает сложные данные об инцидентах, включая журналы, схемы сетевого трафика и индикаторы атак, для формирования связных повествований, понятных руководству без технической интерпретации.
Основные возможности генеративного ИИ в сфере безопасности
Системы генеративного ИИ превосходно справляются с несколькими критически важными функциями безопасности, требующими синтеза контента и взаимодействия с людьми. Автоматизированная отчётность об инцидентах представляет собой одно из наиболее актуальных применений, где ИИ анализирует события безопасности и предоставляет подробные сводки для различных заинтересованных сторон. Руководящие отчёты фокусируются на влиянии на бизнес и оценке рисков, а техническая документация предоставляет подробный криминалистический анализ для инженеров по безопасности.
Синтез данных об угрозах обеспечивает быструю обработку информации из различных источников. Системы ИИ способны анализировать потоки данных об угрозах, форумы даркнета и базы данных уязвимостей, предоставляя полезную информацию, адаптированную к конкретным организационным рискам. Эта возможность особенно ценна для организаций среднего бизнеса, не имеющих специализированных групп по анализу угроз.
Осведомлённость и обучение в области безопасности значительно выигрывают от возможностей генеративного ИИ. Эта технология создаёт реалистичные симуляции фишинга и динамического поведения противника для учений Red Team. В отличие от статичных учебных материалов, сценарии, генерируемые ИИ, адаптируются к текущему ландшафту угроз и организационным уязвимостям.
Маскировка данных и сохранение конфиденциальности посредством генерации синтетических данных защищают конфиденциальную информацию во время исследований и обучения безопасности. Организации могут разрабатывать и тестировать средства обеспечения безопасности, используя реалистичные наборы данных, не содержащие фактической информации о клиентах или сотрудниках.
Ограничения и эксплуатационные соображения
Несмотря на значительные возможности, генеративный ИИ действует в рамках определённых ограничений, которые снижают его эффективность в автономных операциях по обеспечению безопасности. Необходимость человеческого контроля остаётся критически важной для всего контента, создаваемого ИИ, поскольку эти системы могут создавать иллюзии или неверно интерпретировать сложные контексты безопасности. Каждый отчёт об инциденте или оценка угрозы, созданные ИИ, требуют проверки человеком, прежде чем будут приняты обоснованные решения.
Задержка реагирования создаёт проблемы в критически важных по времени сценариях безопасности. Хотя генеративный ИИ может ускорить анализ и документирование, он не может выполнять немедленные меры по сдерживанию или изменять конфигурации безопасности автономно. Эта технология служит скорее фактором повышения эффективности для аналитиков-людей, чем заменой быстрого автоматизированного реагирования.
Зависимость от контекста ограничивает эффективность при работе с новыми шаблонами атак или факторами окружающей среды, не представленными в обучающих данных. Системы генеративного ИИ наиболее эффективны при анализе известных векторов атак и устоявшихся шаблонов безопасности, но могут испытывать трудности с эксплойтами нулевого дня или сложными методами злоумышленников.
Изучение агентного ИИ в защите кибербезопасности
Агентный ИИ представляет собой фундаментальный этап эволюции автоматизации кибербезопасности, внедряя автономные агенты, способные самостоятельно рассуждать, принимать решения и реагировать без постоянного контроля со стороны человека. В отличие от генеративного ИИ, который помогает аналитикам, агентные системы ИИ действуют как специалисты по цифровой безопасности, автономно управляя сложными рабочими процессами безопасности — от обнаружения до устранения последствий.
Архитектура состоит из специализированных агентов ИИ, которые совместно работают над различными аспектами безопасности. Агенты обнаружения непрерывно отслеживают телеметрические потоки, используя неконтролируемое обучение для выявления поведенческих аномалий. Агенты корреляции анализируют взаимосвязи между разрозненными событиями безопасности, создавая комплексные описания атак. Агенты реагирования выполняют действия по сдерживанию и устранению последствий на основе предопределенных политик и оценок рисков в режиме реального времени.
Эти многоагентные системы демонстрируют беспрецедентные возможности автономного выявления и нейтрализации угроз. Исследования показывают, что агентные системы ИИ могут сократить время обнаружения угроз с нескольких дней или часов до нескольких минут благодаря непрерывному мониторингу и интеллектуальному распознаванию образов. Ситуация в сфере кибербезопасности 2024 года, учитывая рост числа инцидентов с программами-вымогателями на 126% и фишинговых атак с использованием ИИ на 703%, требует такого уровня автоматизированного реагирования.
Автономное принятие решений и реагирование
Отличительная особенность агентной кибербезопасности на основе ИИ заключается в её способности принимать самостоятельные решения и реагировать без участия человека. При обнаружении горизонтального перемещения агенты корреляции автоматически собирают данные из нескольких источников, в то время как агенты обнаружения оценивают уровень сложности угроз. Затем агенты реагирования применяют соответствующие меры сдерживания на основе заранее определённых пороговых значений риска и организационных политик.
Эта автономная функция оказывается незаменимой в борьбе с современными устойчивыми угрозами, использующими временной разрыв между обнаружением и реакцией человека. Шпионская кампания «Salt Typhoon», которая велась незамеченной в течение одного-двух лет в девяти американских телекоммуникационных компаниях, демонстрирует, как изощренные злоумышленники используют медленные процессы расследования, проводимые людьми. Системы на основе агентского ИИ могли бы обнаружить необычные схемы доступа к сети и эскалации привилегий, характерные для этой кампании.
Гиперавтоматизация представляет собой эволюцию традиционной системы оркестровки, автоматизации и реагирования на угрозы безопасности (SOAR) благодаря возможностям логического мышления на основе ИИ. В то время как традиционная автоматизация реализует предопределенные сценарии, гиперавтоматизация позволяет системам адаптировать рабочие процессы в зависимости от характеристик угроз и факторов окружающей среды. Агенты ИИ могут автоматически помещать в карантин скомпрометированные конечные точки, собирать криминалистические доказательства, обновлять политики безопасности и уведомлять заинтересованные стороны без вмешательства человека, сохраняя при этом подробные аудиторские журналы.
Реальное внедрение и измеримое воздействие
Недавние инциденты безопасности демонстрируют критическую необходимость в функциях автономного реагирования, которые предоставляют агентские системы ИИ. Утечка 16 миллиардов учётных данных, обнаруженная в июне 2025 года, стала результатом вредоносных кампаний по краже информации, которые традиционные средства безопасности не смогли эффективно обнаружить. Агентские системы ИИ, оснащённые функциями поведенческого мониторинга, могли бы выявлять необычные схемы сбора учётных данных и автоматически блокировать попытки кражи.
Утечки данных Snowflake затронули 165 организаций из-за кражи учётных данных, используемых для доступа к клиентским экземплярам. Аналитика поведения пользователей на основе искусственного интеллекта могла бы выявить необычные шаблоны запросов, географические несоответствия и аномальные объёмы данных, указывающие на скомпрометированные учётные записи. Автономные системы реагирования могли бы приостановить подозрительные сеансы и изолировать затронутые учётные записи в течение нескольких минут после обнаружения аномальной активности.
| Тип атаки | Традиционное время обнаружения | Время обнаружения агентного ИИ | Потенциал снижения затрат |
| Атаки на основе учетных данных | 120-425 дней | Минуты в Часы | 60-80% |
| Развертывание программ-вымогателей | 287 дней в среднем | Секунды в минуты | 70-90% |
| Боковое движение | 245 дней в среднем | Торговая аналитика в режиме реального времени с полной прозрачностью | 65-85% |
| Эксфильтрация данных | 156-210 дней | Минут | 75-95% |
Основные различия между агентным и генеративным ИИ
Фундаментальное различие между этими подходами к ИИ заключается в их отношении к человеческому контролю и полномочиям принятия решений. Генеративный ИИ действует как продвинутый помощник, предоставляя рекомендации, сводки и аналитические данные, требующие интерпретации и одобрения со стороны человека. Агентный ИИ действует как автономный агент, принимая самостоятельные решения и выполняя действия на основе заранее определённых целей и политик.
Автономность принятия решений представляет собой важнейшее операционное отличие. Генеративные системы ИИ реагируют на подсказки и запросы, генерируя контент на основе запросов человека. Они не могут самостоятельно инициировать действия или изменять конфигурации системы. Агентные системы ИИ непрерывно оценивают окружающую среду, выявляют потенциальные угрозы и реализуют ответные действия, не дожидаясь разрешения человека.
Возможности реагирования значительно различаются по масштабу и оперативности. Генеративный ИИ создаёт документацию, анализ и рекомендации, которые люди должны изучить и на основе которых предпринять действия. Это создаёт неизбежные задержки между обнаружением угрозы и реализацией мер реагирования. Системы агентного ИИ могут выполнять процедуры сдерживания, изолировать скомпрометированные системы и применять контрмеры в течение нескольких секунд после обнаружения угрозы.
Операционная интеграция и дополнительные функции
Современные архитектуры безопасности наиболее выгодны от интегрированных подходов, стратегически объединяющих обе парадигмы ИИ. Подход Stellar Cyber демонстрирует эту интеграцию посредством многоуровневого ИИ™, который использует генеративный ИИ для аналитики и одновременно использует агентный ИИ для автономных операций безопасности. Эта гибридная модель позволяет организациям использовать преимущества как анализа, дополненного человеком, так и машинного реагирования.
Генеративный ИИ решает задачи, требующие человеческого общения и сложной интерпретации. Составление отчётов об инцидентах, проведение брифингов для руководства и обучение по вопросам безопасности выигрывают от возможностей естественного языка, которые делают техническую информацию доступной для нетехнических заинтересованных лиц. Эти приложения требуют человеческого контроля для обеспечения точности и соответствия контексту.
Агентный ИИ управляет срочными операционными задачами, где немедленное реагирование имеет решающее значение. Изоляция сети, блокировка учётных записей, карантин вредоносных программ и установка исправлений в системе могут выполняться автоматически на основе оценки угроз в режиме реального времени. Эти автономные действия предотвращают эскалацию атак, пока специалисты-аналитики сосредотачиваются на стратегических улучшениях безопасности.
Интеграция требует тщательной разработки политики, определяющей соответствующие уровни автономности для различных сценариев угроз. События с низким уровнем риска могут инициировать автоматические ответные действия, в то время как ситуации с высоким уровнем воздействия могут потребовать авторизации человека перед запуском агента. Этот сбалансированный подход обеспечивает быстрое реагирование без ущерба для контроля организации над критически важными решениями в области безопасности.
Конкретные варианты использования и сценарии реализации
Применение генеративного ИИ в операциях по обеспечению безопасности
Создание отчётов об инцидентах представляет собой одно из наиболее оперативных и измеримых применений генеративного ИИ в сфере безопасности. Службы безопасности могут обрабатывать сложные события безопасности, затрагивающие множество систем, пользователей и векторов атак, создавая исчерпывающие сводки по инцидентам всего за несколько минут, а не часов. Эти отчёты автоматически корректируют техническую глубину и направленность в зависимости от целевой аудитории. Руководители получают оценку влияния на бизнес, а технические специалисты — детальный криминалистический анализ.
Поиск угроз на естественном языке позволяет аналитикам безопасности запрашивать информацию о своей инфраструктуре безопасности, используя диалоговые интерфейсы. Вместо того, чтобы создавать сложные запросы к базе данных или использовать несколько консолей безопасности, аналитики могут задавать вопросы, например, «покажите мне все действия с привилегированными учётными записями вне рабочего времени за прошлую неделю», и получать структурированные ответы с релевантным контекстом и индикаторами риска. Эта возможность упрощает расширенный анализ безопасности, позволяя младшим аналитикам проводить сложные расследования.
Автоматизированное документирование безопасности решает одну из самых насущных задач в сфере безопасности: поддержание точных и актуальных процедур безопасности, политик и планов реагирования на инциденты. Генеративный ИИ может анализировать существующие средства контроля безопасности, недавние инциденты и актуальную информацию об угрозах для создания актуальной документации, отражающей состояние безопасности организации и ландшафт новых угроз.
Внедрение агентного ИИ в автономные операции
Автономная сортировка оповещений демонстрирует способность агентного ИИ справляться с огромным объемом оповещений о безопасности, которые досаждают современным системам. SOCs. Агенты искусственного интеллекта оценивают каждое оповещение на основе множества контекстных факторов, включая критичность актива, модели поведения пользователей, корреляции с данными об угрозах и условия окружающей среды. В отличие от систем, основанных на правилах и применяющих статические критерии, агентные системы постоянно обучаются на основе обратной связи от аналитиков, чтобы повысить точность сортировки и снизить количество ложных срабатываний.
Внедрение системы в Цюрихском университете демонстрирует практические преимущества: агентный ИИ позволил аналитикам разрешать инциденты в течение 10 минут, а не нескольких дней. Система автоматически сопоставляет оповещения от нескольких инструментов безопасности, исключает дублирование уведомлений и предоставляет полный контекст, позволяющий быстро принимать решения.
Междоменная корреляция угроз представляет собой наиболее сложную функцию агентного ИИ, анализируя активность на конечных точках, в сетях, облачных средах и системах идентификации для выявления шаблонов атак, охватывающих несколько доменов. При обнаружении подозрительной активности на конечных точках агенты корреляции автоматически анализируют шаблоны сетевого трафика, журналы доступа в облако и данные аутентификации идентификационных данных для построения полных историй атак. Этот комплексный анализ выявляет сложные атаки, которые изолированные инструменты безопасности могли бы пропустить.
Автоматизированное реагирование на инциденты позволяет немедленно принять меры по сдерживанию, предотвращая эскалацию атаки. При обнаружении компрометации учётных данных агентские системы могут автоматически блокировать затронутые учётные записи, изолировать связанные конечные точки, отзывать активные сеансы и инициировать сброс паролей в течение нескольких минут после обнаружения. Эти быстрые меры значительно сокращают время пребывания злоумышленника в системе и ограничивают потенциальный ущерб.
Стратегическое преимущество комплексных подходов к ИИ
Наиболее эффективные реализации кибербезопасности сочетают обе парадигмы ИИ для создания комплексных стратегий защиты, сочетающих человеческий опыт с быстротой реагирования машины. Организации, использующие изолированные инструменты ИИ, упускают возможности синергетического эффекта, который многократно увеличивает возможности защиты.
Многоуровневый искусственный интеллект (Multi-Layer AI™) от Stellar Cyber демонстрирует этот комплексный подход, сочетая возможности генеративного ИИ-второго пилота с автономными операциями агентского ИИ. Аналитики безопасности используют естественно-языковые интерфейсы для сложных расследований, в то время как автономные агенты выполняют рутинную сортировку, корреляцию и действия по реагированию. Такое разделение труда позволяет экспертам-людям сосредоточиться на стратегических улучшениях безопасности, обеспечивая при этом быстрое реагирование на непосредственные угрозы.
Стратегическое преимущество становится очевидным в условиях ограниченных ресурсов, когда организациям среднего бизнеса необходимо обеспечить безопасность корпоративного уровня с ограниченным штатом сотрудников. Генеративный ИИ расширяет возможности существующих специалистов по безопасности, предоставляя расширенную аналитику и поддержку документирования. Агентный ИИ обеспечивает возможности автономного реагирования, позволяющие осуществлять круглосуточную охранную деятельность без соответствующего увеличения численности персонала.
Решение современных проблем кибербезопасности
Современные злоумышленники используют методы, усовершенствованные с помощью ИИ, которые требуют соответствующей защиты на базе ИИ. Рост числа фишинговых атак с использованием ИИ на 703% демонстрирует, как злоумышленники используют машинное обучение для социальной инженерии и сбора учётных данных. Традиционные программы обучения безопасности оказываются неэффективными против атак, создаваемых ИИ, которые содержат идеальную грамматику и убедительные методы социальной инженерии.
Генеративный ИИ решает эту проблему с помощью динамических программ повышения осведомленности в области безопасности, которые создают реалистичные учебные сценарии на основе текущих моделей атак. Вместо статичных учебных материалов, симуляции, созданные ИИ, адаптируются к возникающим угрозам и организационным уязвимостям, обеспечивая адекватную подготовку к реальным сценариям атак.
Агентный ИИ противостоит атакам, усиленным ИИ, посредством автономного поведенческого анализа, который выявляет едва заметные признаки искусственной генерации атак. Эти системы распознают закономерности во времени передачи сообщений, вариациях контента и выборе целей, которые позволяют обнаружить автоматизированные кампании атак, что позволяет быстро принимать контрмеры до того, как атаки достигнут своих целей.
Интеграция фреймворка MITRE ATT&CK с обоими подходами на основе ИИ обеспечивает комплексную защиту. Генеративный ИИ помогает службам безопасности понимать и документировать методы злоумышленников, в то время как агентный ИИ реализует автоматизированное обнаружение и реагирование, сопоставленное с конкретными шаблонами атак. Этот подход, основанный на фреймворке, обеспечивает систематическое повышение безопасности и анализ пробелов.
Создание центра управления безопасностью на базе искусственного интеллекта
Эволюция в сторону искусственного интеллекта SOC Для реализации этих возможностей требуется тщательное архитектурное планирование, интегрирующее обе парадигмы ИИ в существующую инфраструктуру безопасности. Организации должны сбалансировать преимущества автоматизации с оперативным контролем, обеспечивая, чтобы системы ИИ дополняли, а не заменяли экспертные знания человека в области безопасности.
Принципы архитектуры Zero Trust, изложенные в стандарте NIST SP 800-207, содержат важные рекомендации по интеграции ИИ в современные системы безопасности. Подход «никогда не доверяй, всегда проверяй» требует постоянной проверки, которую поддерживают как генеративные, так и агентные системы ИИ посредством анализа в реальном времени и автоматизированного применения политик. Внедрение Zero Trust становится более практичным благодаря системам ИИ, способным динамически оценивать риски и корректировать контроль доступа на основе текущей информации об угрозах и поведенческих моделей.
Архитектурный подход должен учитывать уникальные требования организаций среднего бизнеса, работающих с небольшими командами безопасности. Эти организации не могут позволить себе нанимать отдельных специалистов по ИИ или реализовывать сложные интеграционные проекты, нарушающие текущую работу. Успешное внедрение обеспечивает немедленную защиту и одновременно закладывает основу для будущего расширения возможностей ИИ.
План внедрения и передовой опыт
Организациям следует начать с внедрения генеративного ИИ, расширяющего существующие аналитические возможности без необходимости изменения инфраструктуры. Интерфейсы на естественном языке для анализа данных безопасности и автоматизированного документирования инцидентов обеспечивают немедленную отдачу, одновременно повышая комфортность работы организации с использованием ИИ.
Развертывание агентного ИИ требует более тщательного планирования из-за его возможностей автономного принятия решений. Организациям следует начинать с сценариев автоматизации с низким уровнем риска, таких как обогащение оповещений и базовая сортировка, прежде чем переходить к функциям автономного реагирования. Комплексная разработка и тестирование политик гарантируют, что агенты ИИ будут работать в пределах приемлемых параметров риска.
Интеграция должна учитывать нормативные требования и требования соответствия, регулирующие деятельность по обеспечению безопасности в различных отраслях. Медицинские организации обязаны соблюдать требования HIPAA, а финансовые учреждения должны соблюдать особые стандарты аудита и документирования. Внедрение ИИ должно способствовать, а не усложнять процесс обеспечения соответствия благодаря подробному ведению журналов и аудита.
Будущие последствия и стратегические соображения
Траектория к автономным операциям по обеспечению безопасности продолжает развиваться благодаря совершенствованию возможностей ИИ в области рассуждений, понимания контекста и усложнению автоматизированных систем реагирования. Организации, внедряющие сегодня комплексные программы ИИ, позиционируют себя как успешные, поскольку угрозы продолжают развиваться, а модели реагирования, основанные на человеческом факторе, оказываются всё более неэффективными.
Системы агентного ИИ будут всё чаще справляться со сложными расследованиями, которые в настоящее время требуют человеческого опыта, в то время как возможности генеративного ИИ позволят аналитикам взаимодействовать более эффективно и автоматически генерировать отчёты. Интеграция больших языковых моделей с автономными агентами создаёт возможности для диалоговых операций по обеспечению безопасности, где аналитики-люди могут управлять агентами ИИ, используя команды на естественном языке.
Однако человеческий фактор по-прежнему играет ключевую роль в принятии стратегических решений в области безопасности, разработке политики и комплексном анализе угроз, требующем понимания организационного контекста и бизнес-процессов. Будущее принадлежит автономным операциям по обеспечению безопасности, дополненным человеком, где ИИ отвечает за тактическое выполнение, а люди обеспечивают стратегическое руководство и контроль.
Конкурентное преимущество получат организации, успешно интегрирующие обе парадигмы ИИ в комплексные архитектуры безопасности. Компании среднего бизнеса, добившиеся такой интеграции, смогут защититься от угроз корпоративного уровня, сохраняя при этом операционную эффективность и контроль над расходами, с которыми более крупным конкурентам сложно конкурировать.
Организациям необходимо действовать решительно и внедрять эти технологии, прежде чем злоумышленники получат непреодолимые преимущества благодаря собственному использованию ИИ. Время для внедрения защитного ИИ сужается, поскольку злоумышленники всё чаще используют усовершенствованные методы ИИ, которые превосходят традиционные подходы к безопасности. Вопрос не в том, стоит ли внедрять системы безопасности на основе ИИ, а в том, насколько быстро организации смогут внедрить комплексные возможности ИИ, соответствующие меняющемуся ландшафту угроз.
Сближение кибербезопасности, основанной на агентном ИИ, кибербезопасности, основанной на генеративном ИИ, и кибербезопасности, управляемой ИИ. SOC Эти возможности представляют собой следующий этап развития организационной защиты. Организации, освоившие эту интеграцию, смогут обеспечить автономные, интеллектуальные операции по обеспечению безопасности, необходимые для защиты от угроз будущего, усиленных искусственным интеллектом.