
Искусственный интеллект (AI) преобразует информационной безопасности пейзаж на протяжении более десяти лет, с машинное обучение (ML) ускорение обнаружения угроз и выявление аномального поведения пользователей и объектов. Однако недавние разработки в области больших языковых моделей (магистр права), Такие, как OpenAI GPT-3, выдвинули ИИ на передний план сообщества кибербезопасности. В этих моделях используются документированные информационной безопасности информацию, чтобы научиться отвечать на подсказки по теме. LLM также может объяснить сложные вопросы безопасности доступным для понимания языком, вводя неспециалиста в мир информационной безопасности.
В то время как LLM не являются серебряной пулей для кибербезопасности, они могут быстро обнаруживать и смягчать масштабные кибератаки. К сожалению, как и в случае со всеми достижениями в мире кибербезопасности, злоумышленники используют LLM увеличить широту и скорость своих атак и добиться некоторого раннего успеха.

Одна из серьезных проблем в использовании ИИ для кибербезопасности укрепляет доверие. Доверие – это все, что касается безопасности, и в течение многих лет поставщики играли «быстро и свободно» с «ИИ/МО», часто преувеличивая свои возможности вызвать повышенный интерес к своим предложениям. Эта практика заставила многих лиц, принимающих решения в области кибербезопасности, скептически относиться к любой технологии, рекламирующей AI / ML возможности. Кроме того, точность и объяснимость являются двумя серьезными проблемами в отношении AI / ML. Данные, используемые для обучения Модели AI/ML управляет выходными данными моделей. Если данные обучения не представляют «реальный мир», в модели возникнет предвзятость, которая может исказить ее способность обеспечивать ожидаемые результаты. Некоторые данные, такие как информация об угрозах, хорошие и плохие характеристики файлов, индикаторы компрометации (IOC) и тому подобное, доступны каждому. Однако данные о поведении пользователей и объектов применимы только к конкретному пользователю или объекту.
Еще одной серьезной проблемой является безопасность данных. Крайне важно определить и контролировать, какие данные обучения могут быть переданы совместно, а какие данные остаются в организациях. В чужих руках эти данные могут помочь злоумышленникам в их атаках с целью подрыва ИИ/МО способность идентифицировать свои файлы, приложения и поведение как гнусные. В результате правительствам и коммерческим организациям необходимо разработать правила, стандарты и лучшие практики для предотвращения новых угроз.
Например, Расширенное обнаружение и реагирование (XDR) Продукты позволяют неопытным пользователям достигать результатов, о которых раньше думали только старшие сотрудники службы безопасности. Неспециалисты могут проводить комплексные расследования и давать ответы без написания сложных запросов или разработки сценариев. В результате мы видим текущий разрыв в талантах между спросом и предложением специалистов по безопасности.
последние Разработки ИИ ускорит процесс автоматизации, делая обнаружение и реагирование более быстрыми и эффективными. Однако, хотя сбор, нормализация, обнаружение и корреляция данных возможны, сложные индивидуальные атаки требуют участия профессиональных экспертов по безопасности. Кроме того, злоумышленники часто используют человеческие векторы, как это видно в таких громких атаках, как SolarWinds и атака Colonial Pipeline. Хотя невозможно исключить вероятность того, что пользователь случайно станет частью кибератакипостоянное развитие технологий в сочетании с доступностью Услуги MDR/MSSP позволяет постоянно снижать вероятность того, что действия пользователя, преднамеренные или случайные, приведут к широкомасштабному нарушению.
Что касается показателей прогресса ИИ в кибербезопасности, безопасность состояние и бюджет безопасности это последнее испытание. Дает ли ИИ лучшие результаты, которые дешевле/быстрее альтернативы? Группы корпоративной безопасности отражают влияние ИИ на фактические изменения показателей производительности, таких как среднее время обнаружения и реагирования (MTTD и MTTR, соответственно). У MSSP есть лучшая возможность сформулировать влияние ИИ на их прибыль, положительное или отрицательное. Поскольку они предоставляют услуги для увеличения доходов, они должны увидеть ощутимые финансовые последствия после внедрения Кибербезопасность на основе ИИ Решения. В мире кибербезопасности нет волшебных палочек. Поставщиков решений в области безопасности, которые рекламируют какую-либо технологию как на 100% эффективную или заявляют о способности предотвращать и обнаруживать все нарушения, следует осуждать в сообществе, поскольку они демонстрируют свое непонимание кибербезопасности на виду у всех. Тем не менее, последние разработки в области LLM и других технологий ИИ могут повлиять на скорость и простоту обнаружения и нейтрализации угроз. Сообщество кибербезопасности должно обладать доверием, точностью и ответственностью, чтобы в полной мере использовать потенциал ИИ. Кроме того, всегда будут существовать сложные атаки, требующие участия человека, и показатели прогресса должны быть сосредоточены на таких метриках, как уровень безопасности по сравнению с бюджетом на безопасность. SOC автоматизация. Искусственный интеллект может помочь нам поддерживать более безопасный цифровой мир, решая эти проблемы и отслеживая прогресс.


