23 жовтня 2025 року
Місяць обізнаності про кібербезпеку може не мати такої ж привабливості, як інші ознаки жовтня — милування полірованим листям або поїдання цукерок на Гелловін — але він може спонукати як керівників компаній, так і споживачів до важливого ритуалу: переоцінки свого підходу до кібербезпеки.
І є багато над чим поміркувати протягом минулого року. Особливо компанії повинні запитати себе цього місяця (і щомісяця): Як змінився ландшафт онлайн-загроз? І чи достатньо заходів безпеки вашої компанії, щоб встигати за цими змінами?
Штучний інтелект, безперечно, став найбільшим проривом цього року. Інструменти штучного інтелекту, включаючи моделі великих мов (LLM), такі як ChatGPT, значно розширили можливості зловмисників. Тим часом дедалі більше компаній впроваджують штучний інтелект у свою повсякденну діяльність, спонукаючи фахівців з кібербезпеки охороняти нові рубежі без особливих прецедентів щодо того, як це робити. Тим часом споживачі опиняються в центрі цього швидкозмінного середовища штучного інтелекту.
Саме ці динамічні питання були на думці багатьох із 20 000 учасників цьогорічної конференції Black Hat у Лас-Вегасі. Від яскравих кабін на підлозі бізнес-залу до передових досліджень, представлених під час доповідей, та тихих розмов між ними, штучний інтелект домінував у розмові.
На відкритті заходу давній дослідник кібербезпеки Мікко Гіппьонен назвав штучний інтелект «найбільшою технічною революцією», яку він бачив у своєму житті, зазначивши, що дослідники, які використовують LLM, вже виявили кілька десятків нульових днів — галузевий термін для позначення невиявленої слабкості в програмному забезпеченні чи коді.
«Коли дослідники знаходять вразливості безпеки за допомогою штучного інтелекту, це чудово, тому що ми можемо їх виправити», – сказав Гіппьонен. «Коли нападники роблять те саме, це жахливо. Таке теж станеться.
Онлайн-шахраї вже використовують LLM для написання переконливіших та цілеспрямованих фішингових електронних листів і роблять це в набагато більших масштабах, ніж вони могли б без інструментів штучного інтелекту.
Минули часи погано написаних шаблонних електронних листів, які навіть найменш технічно підкована людина могла розпізнати як шахрайство. Шахраї, для яких англійська не є рідною мовою, тепер є професіоналами у поліруванні своїх повідомлень за допомогою LLM.
І навіть ті шахраї, які видають себе за самотніх солдатів, розміщених за кордоном, просуваючи бізнес-можливість, яка виглядає надто добре, щоб бути правдою (бо насправді це так), додають особисті дані, зібрані штучним інтелектом, щоб зробити ці повідомлення набагато правдоподібнішими.
Вони також вийшли за рамки електронної пошти, надсилаючи свої тепер уже добре продумані комунікації через соціальні мережі, текстові повідомлення та навіть телефонні дзвінки.
Водночас спостерігається зростання кількості шахрайських повідомлень, що містять аудіо- або відеодипфейки. Минулого року працівника в Гонконзі обманом змусили виплатити шахраям 25 мільйонів доларів після того, як він підписався на, як він вважав, відеодзвінок з посадовцями своєї багатонаціональної компанії, включаючи фінансового директора. Але виявилося, що інші учасники дзвінка були дипфейковими відтвореннями цих людей у прямому ефірі.
Споживачі також стали мішенню шахрайства з аудіодипфейками. Саме тут кіберзлочинці використовують штучний інтелект для підробки голосів людей, зазвичай молодших, а потім використовують імітований голос, щоб зателефонувати членам сім'ї та повідомити, що їх викрали або вони перебувають у в'язниці, щоб вимагати у них гроші.
Все це, зрозуміло, лякає компанії та споживачів. Нещодавнє дослідження, проведене для Mastercard , опитало близько 13 000 споживачів по всьому світу, включаючи близько 1000 у США, і виявило, що фальшивий контент, створений штучним інтелектом, є головною проблемою №1 у майбутньому, пов’язаною з шахрайством, для споживачів. Але лише 13% опитаних сказали, що вони дуже впевнені у своїй здатності виявляти загрози або шахрайства, створені штучним інтелектом, якщо вони стануть їхньою мішенню.
Переважна більшість опитаних висловили занепокоєння щодо більш складних атак із систем штучного інтелекту, які можуть бути зламані та перетворені на шкідливі, автоматизованих масштабних кібератак та більш переконливих фішингових електронних листів, створених штучним інтелектом.
А стурбовані споживачі можуть означати великі проблеми для компаній, які їх обслуговують. Якщо споживачі не можуть довіряти своїй справі з легітимною компанією або безпеці своєї особистої інформації, вони можуть вирішити звернутися до іншого постачальника послуг.
Принаймні поки що, схоже, що захисники мають перевагу. Окрім забезпечення безпеки нових елементів штучного інтелекту в системах своїх бізнес-клієнтів, компанії з кібербезпеки впроваджують штучний інтелект у власні продукти з метою швидшої та ефективнішої зупинки онлайн-загроз.
Тим часом, шахраї та інші кіберзлочинці поки що не мають достатньо стимулів для впровадження інновацій таким самим чином. Хоча вони використовують інструменти штучного інтелекту для швидшої роботи та масштабніших проектів, експерти кажуть, що вони здебільшого дотримуються вдосконалених версій тих самих старих шахрайських схем.
Ніколь Перлрот, колишня журналістка з питань кібербезпеки, яка зараз є венчурним партнером Ballistic Ventures та очолює власний фонд кібермісій Silver Buckshot, у своїй основній промові на Black Hat сказала, що її надихають нові та перспективні технології, які вона бачить у кібербезпеці.
Вона вказала на нові технології виявлення дипфейків на базі штучного інтелекту, які виходять на ринок, і зазначила, що штучний інтелект допоміг «демократизувати» продукти та послуги кібербезпеки, зробивши їх доступнішими для менших компаній, які раніше не могли собі їх дозволити.
Гіппьонен зазначив, що шахрайство з використанням глибоких фейків наразі трапляється дуже рідко, але додав, що очікує, що всілякі онлайн-шахрайства, разом із програмами-вимагачами, лише погіршуватимуться, оскільки технології штучного інтелекту ставатимуть кращими та дешевшими.
Гарна новина полягає в тому, що захисники мають фору, коли справа доходить до штучного інтелекту.
«Зловмисники також використовують штучний інтелект, але вони лише починають», – сказав він. «Поки що ми бачили лише досить прості атаки за допомогою штучного інтелекту». Це зміниться, але зараз я б сказав, що ми готові».