3 марта 2026 года
Ты уже опаздываешь на фортепианный концерт сына, когда начальник пишет тебе по электронной почте, что через несколько дней нужно поехать в Бостон на рабочую встречу. Ваш AI-агент читает письмо и начинает планировать поездку за вас, пока вы бежите за дверь. Поездка забронирована. И вы приезжаете в школу с достаточно времени, чтобы насладиться энергичным исполнением «Mary Had a Little Lamb».
Но это ещё не всё, что происходит. Просматривая туристические сайты в поисках лучшей цены на отель в Бостоне, агент ИИ сталкивается с аномалией — повреждённой веб-страницей с скрытыми инструкциями, которые направляют вашего агента перевести значительную сумму денег в неизвестный цифровой кошелёк. И вот тогда музыка заканчивается.
Агенты ИИ несут огромный потенциал для будущего нашей работы, жизни и ведения коммерции. С правильными ограничениями эта технология открывает возможности для повышения эффективности, лучшего понимания и борьбы с мошенничеством и угрозами безопасности, а также для адаптации нашего опыта электронной коммерции. Однако недавнее появление нового агента с открытым исходным кодом под названием OpenClaw усилило постоянные опасения, связанные с безопасностью и безопасностью ИИ-агентов.
OpenClaw — это полностью автономный, постоянно активный агент ИИ, который может помочь вам выполнять реальные задачи — от бронирования поездок до покупки продуктов. OpenClaw — который работает на вашем компьютере или сервере — может быть настроен на сканирование вашей электронной почты или сообщений, определение задач и систематическое их выполнение, при этом практически без участия человека.
Техническая углублённость OpenClaw быстро выросла всего за несколько месяцев после её запуска в конце 2025 года, что обусловлено её открытым исходным кодом и отражает скорость развития этой технологии. OpenClaw — пример помощника на базе искусственного интеллекта, который может значительно повысить эффективность, сэкономить время и сократить расходы. Но OpenClaw и подобные технологии несут с собой хорошо задокументированные риски безопасности.
Чтобы OpenClaw мог делать то, что делает, ему необходимо ваше разрешение на доступ к данным, включая электронные письма и другие документы, которые могут содержать конфиденциальную информацию, а также полномочия принимать важные решения, например, тратить деньги. Это полномочие действовать в сочетании с задокументированным рисками, такими как «prompt injection» — вредоносный ввод, способный манипулировать агентами ИИ — заставили некоторых называть OpenClaw «небезопасным по умолчанию». Хотя агенты ИИ, такие как OpenClaw, вынуждены сталкиваться с рядом потенциальных проблем безопасности, внедрение prompt — это уникально проблематична и всё более распространённая угроза безопасности ИИ.
Инъекция запросов происходит, когда злоумышленник скрывает инструкции в тексте, который ваш агент ИИ будет читать — это может быть веб-страница, сообщение, PDF или что-то ещё, с чем он столкнётся. Без соответствующих мер безопасности эти вредоносные директивы могут обмануть вашего агента, заставив его отменить те инструкции, которые вы заранее запрограммировали, и вместо этого сделать то, что хочет злоумышленник. Это значительный риск, поскольку возможность эффективно масштабировать развертывание агентов с разнообразными сценариями использования — от улучшения методов борьбы с мошенничеством до покупки новой пары обуви — зависит от того, будут ли агенты быстро взаимодействовать с общедоступными данными и принимать решения, связанные с ними.
Prompt injection имеет значительные последствия — не только для использования агентов ИИ в целом, но и для агентной коммерции в частности. Опасность того, что полу- или полностью автономные агенты ИИ будут захвачены злоумышленниками, что позволит им перенаправлять и красть значительные суммы денег, является реальной угрозой. Если пользователи не могут доверять агенту полностью понять их намерения, уважать ограничения и действовать безопасно, люди не будут этим пользоваться. Именно поэтому Mastercard работает над созданием структуры для агентской коммерции, которая помогает обеспечить безопасное и надёжное принятие этой новой экосистемы.
Хотя угрозы реальны, мы также знаем, как их остановить. Существуют методы, которые помогают бороться с инъекцией подсказок и другими угрозами безопасности ИИ, включая проверку и удаление вредоносных данных до того, как агент прочитает и отреагирует на них, ограничение систем и данных, к которым агент может получить доступ, а также аудит действий агентов последующим образом для анализа и выявления аномального поведения.
Mastercard неизменно является лидером в ответственной и безопасной разработке и использовании ИИ, используя сильные принципы данных и технологий , а также ведущую в мире функцию управления ИИ. Однако недостаточно для отдельных компаний внедрять меры безопасности на базе ИИ. Как бы ни были надёжны, мозаик мер безопасности, неравномерно внедрённый в нашей цифровой экосистеме, не решит эту проблему.
Построение реальной устойчивости и доверия в агентной экосистеме зависит от широкого внедрения общих методов безопасности и лучших практик. Для этого нам необходимо разработать и поддерживать широко признанные и глобально гармонизированные стандарты безопасности ИИ. Эти стандарты помогают сформировать единую архитектуру безопасности, создавая стабильную и устойчивую основу, где агенты ИИ смогут безопасно выполнять всё — от совершения покупок до мониторинга угроз безопасности критической инфраструктуры.
Влиятельные организации по всему миру стремятся разработать эти стандарты. В Соединённых Штатах Национальный институт стандартов и технологий при Министерстве торговли начал работу по сбору широкого спектра информации по стандартам безопасности агентов ИИ. В Сингапуре Infocomm Media Development Authority уже предложило Модельную рамочную структуру управления агентным ИИ, в которой изложен здравый смысл подхода, включая лучшие практики безопасности агентов ИИ.
Хотя использование этой технологии связано с рисками, мы считаем, что следующие три рекомендации являются ключевыми при следующем этапе создания безопасной и надёжной агентской экосистемы.
Во-первых, организациям необходимо приоритизировать внедрение и внедрение лучших практик для обеспечения использования агентов ИИ на ранних этапах разработки и внедрения продуктов.
Далее, организациям необходимо постоянно контролировать этих агентов, чтобы они могли выявлять и исправлять любые нередкие действия или действия.
Наконец, более широкая экосистема должна поддерживать разработку и внедрение глобальных стандартов безопасности ИИ, чтобы каждый мог ориентироваться на общие стандарты при построении общей архитектуры безопасности для безопасного агентного будущего.
Успешное внедрение этих ограничений и поддержка разработки глобальных стандартов гарантирует, что миллионы людей и компаний смогут воспользоваться новыми агентскими технологиями, избегая потенциальных проблем с безопасностью.