Как ИИ сформирует следующее поколение специалистов по кибербезопасности — спонсорский контент от PALO ALTO NETWORKS


Аарон Исаксен
Уважаемые эксперты в области ИИ говорят о том, что в ближайшей перспективе ИИ существенно изменит рынок труда, что потенциально может привести к значительному сокращению числа «белых воротничков». Этот разговор, естественно, вызывает тревогу и неизбежно поднимает вопрос: находятся ли профессии, связанные с кибербезопасностью, под угрозой автоматизации и устаревания?
Как человек, посвятивший свою карьеру искусственному интеллекту, наблюдавший за его развитием от теоретических концепций до мощных агентов, которые мы видим сегодня, я отвечаю решительно «нет». История кибербезопасности иная — и гораздо более вдохновляющая.
ИИ не приведёт к устареванию, а к эволюции . Более того, он уже это сделал. Автоматизируя рутинные задачи, ИИ одновременно повысит спрос на специалистов, разбирающихся в уникальных человеческих навыках.
Будущее нашей области будет определяться устойчивыми архетипами:
• Стратегический переводчик рисков , который согласовывает критические компромиссы между рисками и операционными потребностями.
• Охотник с искусственным интеллектом , чья интуиция и креативность позволяют противостоять интеллектуальным угрозам.
• Специалист по управлению ИИ , который обеспечивает необходимое человеческое суждение и подотчетность для этих мощных новых систем.
ИИ как великий инструмент
Прежде чем углубляться в влияние ИИ, давайте сначала признаем основополагающую истину: кибербезопасность — невероятно сложная дисциплина.
На протяжении десятилетий, несмотря на значительные достижения в области автоматизации, мы сталкивались с постоянной нехваткой опытных специалистов, способных ориентироваться в этой сложной ситуации . Сложность обеспечения кибербезопасности и опережения решительных противников означает, что человеческий опыт остаётся бесценным и зачастую дефицитным ресурсом. Этот пробел не удалось закрыть одной лишь традиционной автоматизацией.
В этой непростой ситуации ИИ выступает как мощнейший усилитель человеческой изобретательности, а не как наша замена. Его роль — расширить наши возможности, позволяя нам достигать большего, быстрее и точнее.
Представьте, что вы предоставляете своим аналитикам по безопасности интеллектуального партнера, который неустанно анализирует петабайты данных, выявляет сигналы сложной атаки и расставляет приоритеты критическим оповещениям со сверхчеловеческой скоростью.
Здесь ИИ выступает в роли умножителя силы, позволяя командам достичь того, что ранее было невозможно — охвата как масштаба, так и глубины. Вместо того, чтобы выбирать между мониторингом с низким разрешением по всей территории или глубоким анализом нескольких критически важных активов, ваши команды теперь могут применять экспертно-криминалистический анализ по всему миру. Это позволяет им управлять огромной очередью потенциальных проблем и защищать всю организацию с беспрецедентной скоростью и точностью.
ИИ готов произвести революцию в подходе к развитию талантов.
Для новых членов команды ИИ может выступать в роли умного ученика или персонального наставника, помогая им решать сложные задачи и разбираться в организационных тонкостях, на полное понимание которых раньше уходили месяцы, а то и годы. Это значительно сокращает время обучения, позволяя новым сотрудникам гораздо быстрее стать эффективными сотрудниками и снижая общие затраты и время, связанные с развитием талантов.
Для опытных экспертов ИИ открывает новые горизонты понимания. Он способен обобщать данные о глобальных угрозах в режиме реального времени, выявлять новые векторы атак, которые ранее оставались незамеченными, и помогать ветеранам применять свои глубокие знания в условиях постоянно расширяющейся поверхности цифровых атак.
Расширяющаяся цифровая вселенная
Хотя ИИ, несомненно, повышает эффективность, цифровая граница, которую мы должны защищать, продолжает свой неумолимый рост. Каждая новая технология добавляет уровни сложности, но ни один из них не делает этого больше, чем сам ИИ. Это создаёт захватывающий парадокс: инструмент, который мы используем для управления масштабом, одновременно создаёт огромный новый континент рисков, требующих защиты.
Дисциплина обеспечения безопасности систем искусственного интеллекта (ИИ) всё глубже переплетается с традиционной кибербезопасностью. Трудно представить себе будущее, в котором мы доверим безопасность этих мощных автономных агентов исключительно другому ИИ. По мере распространения этих систем потребность в человеческом контроле, стратегическом суждении и этичном управлении будет сохраняться и усиливаться.
ИИ не уменьшает объём работы. Он помогает справиться с быстро растущей нагрузкой, одновременно создавая совершенно новую область, требующую непревзойдённых человеческих талантов.
Суждение, ответственность и безопасность
Несмотря на всю свою аналитическую мощь, ИИ не является специалистом по информационной безопасности. Он не способен воспроизвести уникальные человеческие качества, необходимые для настоящего лидера в сфере безопасности.
Но кто несёт ответственность, если ИИ совершает ошибку или когда дальнейший путь оказывается омрачённым неопределённостью? Ответственность за это решение полностью лежит на людях.
И эта ответственность лежит не только на высшем уровне; она распределена по всей организации безопасности. Она присутствует в бесчисленных решениях, которые люди принимают каждый день — от аналитика, работающего на передовой, проверяющего оповещение, помеченное ИИ, до инженера по безопасности, оценивающего бизнес-риски автоматизированного реагирования. В мире, где всё вертится вокруг ИИ, каждый специалист по безопасности становится важнейшим проводником ответственности и контекста — роль, которую технологии усиливают, но не могут заменить.
Безопасность редко бывает бинарным решением. Она часто предполагает согласование компромиссов с бизнесом, баланс между снижением рисков, операционными потребностями и стратегическими целями. ИИ может принимать эти решения на основе данных, но он не может участвовать в тонких дискуссиях или выносить оценочные суждения, присущие этим компромиссам.
Где люди сталкиваются с опасностью
Мы также должны помнить, что кибербезопасность — это не только битва машин. Многие из наиболее серьёзных уязвимостей организаций кроются на стыке человека и технологий. Социальная инженерия, взлом корпоративной электронной почты, внутренние угрозы, а также предотвращение потери данных и обеспечение соответствия требованиям — это фундаментально человеческие проблемы, требующие человеческого понимания, обучения и эффективной коммуникации для решения.
А когда инцидент всё же происходит, для спокойного и эффективного реагирования необходимо работать с людьми, которые часто находятся в состоянии огромного стресса. Это требует эмпатии, честности, доверия, отношений и лидерства — качеств, которые в обозримом будущем будут присущи только человеку.
Непреходящий танец соперничества
Наконец, мы живём в изначально враждебном мире, и технологии, даже ИИ, не смогут «решить» эту проблему раз и навсегда. По мере того, как защитники совершенствуются и используют ИИ, злоумышленники неизбежно будут отвечать тем же, разрабатывая собственные инструменты и методы на базе ИИ для масштабных атак или создания всё более изощрённых эксплойтов.
Этот новый ландшафт, управляемый ИИ, также изначально враждебен. Поскольку мы — защитники, наше стратегическое преимущество заключается в использовании комплексных данных в рамках продуманной платформы безопасности для обучения превосходных защитных моделей ИИ.
Но это преимущество не означает, что работа закончена; оно меняется. Продолжающаяся гонка вооружений переносит бремя с ручных задач на задачи, присущие исключительно человеку: изобретательность, позволяющую предвидеть новые атаки, стратегическое понимание, позволяющее направлять наших ИИ-аналогов, и способность к адаптации, позволяющая превосходить противников в маневренности.
Дополненное будущее
Снизит ли ИИ роль специалистов по кибербезопасности?
Я убеждён, что всё будет наоборот. ИИ освободит нас от рутинных задач с обработкой большого объёма данных, которые могут привести к выгоранию, и позволит нам сосредоточиться на стратегических, творческих и человечески ориентированных аспектах нашей работы. Он расширит наши знания, ускорит обучение и даст нам возможность решать более сложные задачи в более широком и сложном цифровом мире.
Я представляю себе будущее, в котором человеческая изобретательность, значительно усиленная интеллектуальным искусственным интеллектом, приведёт к созданию более устойчивого и безопасного цифрового общества. Спрос на умных, адаптивных и стратегически мыслящих специалистов по кибербезопасности будет сохраняться и расти по мере того, как мы вместе будем строить это новое, более безопасное будущее.
Аарон Исаксен — вице-президент по ИИ/инжинирингу в Palo Alto Networks.
Harvardbusiness




