Skip to main content

Кибербезопасность

23 октября 2025 года

 

Добро пожаловать в гонку вооружений в области искусственного интеллекта в корпоративной кибербезопасности: кто побеждает?

Октябрь, Месяц осведомлённости о кибербезопасности, — хорошее время для размышлений о киберугрозах. Готовы ли корпорации к защите этой задачи?

Логотип Google

Bree Fowler

Contributor

Месяц осведомлённости о кибербезопасности может не быть таким же привлекательным, как другие символы октября — любовь к отполированной листве или переедание хэллоуинских конфет — но он может побудить как корпоративных лидеров, так и потребителей принять участие в важном ритуале: переосмыслить свой подход к кибербезопасности.

И есть над чем поразмышлять за прошедший год. В этом месяце (и каждый месяц) компаниям особенно важно задавать себе вопрос: как изменилась ситуация с онлайн-угрозами? И достаточно ли эффективны меры безопасности в вашей компании, чтобы идти в ногу с этими изменениями?

Искусственный интеллект , несомненно, стал главным прорывом в этом году. Инструменты искусственного интеллекта, включая крупные языковые модели (LLM), такие как ChatGPT, значительно усилили возможности злоумышленников. Тем временем всё больше компаний внедряют искусственный интеллект в повседневную деятельность, заставляя специалистов по кибербезопасности защищать новые горизонты без особых прецедентов. Тем временем потребители оказались в центре быстро меняющейся среды искусственного интеллекта.

Именно эти динамики были в голове многих из 20 000 участников нынешней конференции Black Hat в Лас-Вегасе. От шумных стендов на полу бизнес-зала до передовых исследований, представленных в докладах, и тихих чатов между ними — ИИ доминировал в обсуждении.

На открытии мероприятия многолетний исследователь в области кибербезопасности Микко Хипппёнен назвал ИИ «крупнейшей технической революцией», которую он видел в своей жизни, отметив, что исследователи, использующие LLM, уже обнаружили пару десятков нулевых дней — отраслевой термин для невыявленной слабости в программном обеспечении или коде.

«Когда исследователи обнаруживают уязвимости в системе безопасности, созданной с помощью ИИ, это замечательно, потому что мы можем их устранить», — сказал Хюппёнен. «Когда нападающие поступают так же, это ужасно». Это тоже произойдёт.

 

Растущая угроза для потребителей

Онлайн-мошенники уже используют LLM, чтобы писать более убедительные и целенаправленные фишинговые письма, и делают это в гораздо большем масштабе, чем они могли бы сделать без инструментов ИИ.

Прошли те времена, когда плохо составленные шаблонные электронные письма, которые даже человек, не разбирающийся в технологиях, мог распознать как мошеннические, не представляли собой ничего подозрительного. Мошенники, для которых английский не является родным языком, теперь мастерски оттачивают свои сообщения, используя знания, полученные в магистратуре.

И даже те мошенники, выдающие себя за одиноких солдат, размещённых за рубежом, продвигающие бизнес-возможность, которая выглядит слишком хорошо, чтобы быть правдой (хотя на самом деле это так), добавляют личные данные, добытые ИИ, чтобы сделать эти сообщения гораздо более правдоподобными.

Они также вышли за рамки электронной почты, доставляя свои теперь хорошо продуманные сообщения в социальные сети, сообщения и даже телефонные звонки.

В то же время наблюдается рост числа мошеннических сообщений с аудио- или видеодипфейками. В прошлом году работника в Гонконге обманули, заставив выплатить мошенникам 25 миллионов долларов после того, как он принял участие в видеозвонке с представителями своей транснациональной компании, включая финансового директора. Но оказалось, что остальные участники звонка были живыми дипфейковыми воссозданиями этих людей.

Потребители также стали мишенью в аудиодипфейковых мошенничествах. Именно тогда киберпреступники используют ИИ для дипфейка голосов людей, обычно молодых, а затем имитируют голос, чтобы звонить членам семьи и сообщать, что их похитили или они находятся в тюрьме, чтобы вымогать у них деньги.

Всё это, вполне объяснимо, пугает как компании, так и потребителей. Недавнее исследование, проведенное для Mastercard , в котором приняли участие около 13 000 потребителей по всему миру, включая около 1000 в США, показало, что создание поддельного контента с помощью искусственного интеллекта является главной проблемой, связанной с мошенничеством, в будущем. Однако лишь 13% опрошенных заявили, что очень уверены в своей способности выявлять угрозы или мошеннические схемы, созданные искусственным интеллектом, если они станут их жертвами.

Подавляющее большинство опрошенных конкретно указывали на опасения по поводу более изощренных атак со стороны систем искусственного интеллекта, которые взламываются и превращаются в вредоносные, автоматизированных крупномасштабных кибератак и более убедительных фишинговых писем, создаваемых ИИ.

А обеспокоенные потребители могут создать серьезные проблемы для компаний, которые их обслуживают. Если потребители не могут быть уверены в том, что имеют дело с законной компанией или что их личная информация находится в безопасности, они могут предпочесть обратиться к другому поставщику услуг.  

 

Демократизация безопасности

По крайней мере, на данный момент, похоже, что преимущество на стороне защитников. Помимо обеспечения безопасности новых элементов ИИ в системах своих корпоративных клиентов, компании, занимающиеся кибербезопасностью, внедряют ИИ в свои собственные продукты с целью более быстрого и эффективного предотвращения онлайн-угроз.

Тем временем мошенники и другие киберпреступники пока не имеют достаточного стимула внедрять такие же инновации. Хотя они используют инструменты ИИ для более быстрой работы и увеличения масштабов, эксперты в основном придерживаются улучшенных версий тех же старых мошеннических схем.

Николь Перлрот, бывший журналист по кибербезопасности, ныне является венчурным партнёром в Ballistic Ventures и возглавляет собственный фонд кибермиссий Silver Buckshot, заявила в своей ключевой речи Black Hat, что её воодушевляют новые и перспективные технологии, которые она видит в области кибербезопасности.

Она указала на новые технологии обнаружения дипфейков на базе ИИ, которые выходят на рынок, и отметила, что ИИ помог «демократизировать» продукты и услуги кибербезопасности, сделав их более доступными для небольших компаний, которые раньше не могли себе их позволить.

Хиппонен отметил, что мошенничество с использованием дипфейков в настоящее время встречается крайне редко, но добавил, что, по его мнению, все виды онлайн-мошенничества, наряду с программами-вымогателями, будут только усугубляться по мере совершенствования и удешевления технологий искусственного интеллекта.

Хорошая новость в том, что у защитников есть преимущество в плане искусственного интеллекта.

«Злоумышленники тоже используют ИИ, но они только начинают», — сказал он. «Мы пока видели лишь довольно простые атаки с помощью ИИ. Всё изменится, но сейчас я бы сказал, что мы готовы.»

Когда речь идёт о мошенничестве, чувство неуверенности и даже неизбежности

Узнайте ключевые тенденции в области мошенничества и кибербезопасности из нового глобального опроса Mastercard, включая то, что ИИ усиливает тревожность.