28 октября 2024 г.
Фото из Adobe Stock, создано с помощью генеративного ИИ.
Моя дочь неожиданно звонит мне и говорит, что ей нужны деньги, пока она в поездке за границу. Она добавила, что позже расскажет мне подробности. Реагируя как родитель, я просто сдаюсь.
В этой гипотетической ситуации мои деньги украл мошенник, выдающий себя за моего ребёнка с помощью цифрового голосового клона, созданного с помощью генеративного ИИ. Возможно, вы думаете: «Это меня не обманет. Я знаю, как звучит мой собственный ребёнок.» Но уверяю вас, если вы разговариваете по телефону с одним из этих цифровых двойников, вы не сможете различить разницу. Вот насколько сложной стала эта технология подделки.
Это лишь один из примеров проблем, с которыми сейчас сталкиваются потребители, предприятия и правительства по мере того, как искусственный интеллект быстро становится повсеместным явлением. Это создает новые угрозы в сфере кибербезопасности, но также и новые возможности. С одной стороны, искусственный интеллект сделал создание и осуществление сложных форм мошенничества намного дешевле и доступнее. С другой стороны, компании, включая Mastercard, используют искусственный интеллект для добавления более контекстного понимания в наши инструменты кибербезопасности, делая их умнее, улучшая пользовательский опыт и позволяя бороться с мошенничеством быстрее, чем раньше.
Цифровой двойник может представлять собой копию вашего голоса или комбинацию вашего голоса и видеозаписи с вашим изображением. В обоих случаях мошенники могут научить этого близнеца говорить все, что им вздумается.
Создание этих цифровых клонов раньше было очень дорогим. Сегодня кто-то может зарегистрироваться в любом количестве сервисов на базе ИИ в интернете, загрузить серию голосовых записей или видео и создать цифрового двойника практически бесплатно.
В других случаях мошенник может использовать возможности генерации текста с помощью искусственного интеллекта для создания высокоцелевых и персонализированных сообщений в больших масштабах, потенциально охватывающих множество жертв через мессенджер.
В этих примерах мошенники теперь вооружены мощными инструментами практически бесплатно. Эти мошенничества уже происходят. В крупном инциденте в феврале финансовый работник в Гонконге был обманут, заставив отправить мошенникам 25 миллионов долларов после того, как поговорил в видеоконференц-звонке с цифровыми двойниками нескольких коллег, включая финансового директора компании.
Серьёзный вывод здесь в том, что это несправедливая борьба по отношению к нам, людям. Мы не можем учиться или адаптироваться так быстро, как ИИ, как бы ни старался.
Возвращаясь к ситуации с моей дочерью, есть простой способ пресечь этот обман. У нас есть семейный пароль, который мы можем использовать в подобных ситуациях. Цифровой двойник не будет обладать этой информацией. Даже без общего пароля вы можете попросить потенциального цифрового двойника подтвердить информацию, которую он сам не знает, — например, о ресторане, который вы недавно посетили с человеком, с которым общаетесь.
Внезапно весь фасад цифрового двойника начинает рушиться, независимо от того, насколько он умен и как быстро может развивать свои практики. Так мы можем избежать попыток провести ту же гонку с ИИ. Вместо этого давайте станем более человечными.
Иногда невысокотехнологичное решение может отлично справиться с таким мошенничеством.
Искусственный интеллект, разумеется, используется не только мошенниками. И простые, не всегда эффективные решения. Сегодня команды Mastercard используют искусственный интеллект и инструменты искусственного интеллекта для повышения безопасности цифрового мира.
В качестве другого примера можно привести возможность создания более сложных моделей мошенничества с помощью искусственного интеллекта. Сегодня многие модели мошенничества строятся на основе ваших покупательских привычек и действий. Это означает, что если вы обычно тратите 100 долларов в день в районе Филадельфии, то модель обнаружения мошенничества может сработать, если вы внезапно попытаетесь купить товар стоимостью 2000 долларов на Филиппинах.
Мы можем использовать модели ИИ для более широкого понимания привычек расходов — не только на индивидуальном уровне. Допустим, вы никогда не играете в азартные игры, но расходы на азартные игры отмечаются системой мошенничества вашего банка. Рассматривая более широкий спектр данных, система ИИ может помочь нам определить, что многие люди, остановившиеся в конкретном казино-курорте, действительно играют — и поскольку ваши транзакции показывают, что вы находитесь именно в этом курорте, эти расходы на азартные игры больше не воспринимаются как подозрительные, избегая необходимости отправлять уведомление или блокировать карту. Это создаёт для вас лучший опыт.
Всего за несколько лет искусственный интеллект изменил то, как мы взаимодействуем с технологиями, пишем код, и даже заставил нас усомниться в реальности того, что мы слышим или видим — даже звонок от моей собственной дочери.
История общего искусственного интеллекта сложна — и риски очевидны. Но я знаю, что мы можем направить это правильно, чтобы люди и бизнес могли получить выгоду от новой волны инноваций, которую она создаёт.