Skip to main content

ИИ

3 марта 2026 года

 

Прежде чем музыка заканчивается: OpenClaw и растущая потребность в стандартах безопасности ИИ

По мере того как автономные агенты ИИ получают полномочия действовать — и совершать сделки — доверие будет зависеть от общих защитных ограждений, а не от отдельных решений.

Логотип Google

Christian Ohanian

Vice President, Government Affairs and Policy, Mastercard

   

Scott Fanning

Executive Vice President, Cybersecurity Solutions, Mastercard

Ты уже опаздываешь на фортепианный концерт сына, когда начальник пишет тебе по электронной почте, что через несколько дней нужно поехать в Бостон на рабочую встречу. Ваш AI-агент читает письмо и начинает планировать поездку за вас, пока вы бежите за дверь. Поездка забронирована. И вы приезжаете в школу с достаточно времени, чтобы насладиться энергичным исполнением «Mary Had a Little Lamb».

Но это ещё не всё, что происходит. Просматривая туристические сайты в поисках лучшей цены на отель в Бостоне, агент ИИ сталкивается с аномалией — повреждённой веб-страницей с скрытыми инструкциями, которые направляют вашего агента перевести значительную сумму денег в неизвестный цифровой кошелёк. И вот тогда музыка заканчивается.

Агенты ИИ несут огромный потенциал для будущего нашей работы, жизни и ведения коммерции. С правильными ограничениями эта технология открывает возможности для повышения эффективности, лучшего понимания и борьбы с мошенничеством и угрозами безопасности, а также для адаптации нашего опыта электронной коммерции. Однако недавнее появление нового агента с открытым исходным кодом под названием OpenClaw усилило постоянные опасения, связанные с безопасностью и безопасностью ИИ-агентов.

OpenClaw — это полностью автономный, постоянно активный агент ИИ, который может помочь вам выполнять реальные задачи — от бронирования поездок до покупки продуктов. OpenClaw — который работает на вашем компьютере или сервере — может быть настроен на сканирование вашей электронной почты или сообщений, определение задач и систематическое их выполнение, при этом практически без участия человека.

Техническая углублённость OpenClaw быстро выросла всего за несколько месяцев после её запуска в конце 2025 года, что обусловлено её открытым исходным кодом и отражает скорость развития этой технологии. OpenClaw — пример помощника на базе искусственного интеллекта, который может значительно повысить эффективность, сэкономить время и сократить расходы. Но OpenClaw и подобные технологии несут с собой хорошо задокументированные риски безопасности.

 

В чём проблема?

Чтобы OpenClaw мог делать то, что делает, ему необходимо ваше разрешение на доступ к данным, включая электронные письма и другие документы, которые могут содержать конфиденциальную информацию, а также полномочия принимать важные решения, например, тратить деньги. Это полномочие действовать в сочетании с задокументированным рисками, такими как «prompt injection» — вредоносный ввод, способный манипулировать агентами ИИ — заставили некоторых называть OpenClaw «небезопасным по умолчанию». Хотя агенты ИИ, такие как OpenClaw, вынуждены сталкиваться с рядом потенциальных проблем безопасности, внедрение prompt — это уникально проблематична и всё более распространённая угроза безопасности ИИ.

Инъекция запросов происходит, когда злоумышленник скрывает инструкции в тексте, который ваш агент ИИ будет читать — это может быть веб-страница, сообщение, PDF или что-то ещё, с чем он столкнётся. Без соответствующих мер безопасности эти вредоносные директивы могут обмануть вашего агента, заставив его отменить те инструкции, которые вы заранее запрограммировали, и вместо этого сделать то, что хочет злоумышленник. Это значительный риск, поскольку возможность эффективно масштабировать развертывание агентов с разнообразными сценариями использования — от улучшения методов борьбы с мошенничеством до покупки новой пары обуви — зависит от того, будут ли агенты быстро взаимодействовать с общедоступными данными и принимать решения, связанные с ними.

Prompt injection имеет значительные последствия — не только для использования агентов ИИ в целом, но и для агентной коммерции в частности. Опасность того, что полу- или полностью автономные агенты ИИ будут захвачены злоумышленниками, что позволит им перенаправлять и красть значительные суммы денег, является реальной угрозой. Если пользователи не могут доверять агенту полностью понять их намерения, уважать ограничения и действовать безопасно, люди не будут этим пользоваться. Именно поэтому Mastercard работает над созданием структуры для агентской коммерции, которая помогает обеспечить безопасное и надёжное принятие этой новой экосистемы.

Хотя угрозы реальны, мы также знаем, как их остановить. Существуют методы, которые помогают бороться с инъекцией подсказок и другими угрозами безопасности ИИ, включая проверку и удаление вредоносных данных до того, как агент прочитает и отреагирует на них, ограничение систем и данных, к которым агент может получить доступ, а также аудит действий агентов последующим образом для анализа и выявления аномального поведения. 

 

Агентская безопасность должна быть общей целью

Mastercard неизменно является лидером в ответственной и безопасной разработке и использовании ИИ, используя сильные принципы данных и технологий , а также ведущую в мире функцию управления ИИ. Однако недостаточно для отдельных компаний внедрять меры безопасности на базе ИИ. Как бы ни были надёжны, мозаик мер безопасности, неравномерно внедрённый в нашей цифровой экосистеме, не решит эту проблему.

Построение реальной устойчивости и доверия в агентной экосистеме зависит от широкого внедрения общих методов безопасности и лучших практик. Для этого нам необходимо разработать и поддерживать широко признанные и глобально гармонизированные стандарты безопасности ИИ. Эти стандарты помогают сформировать единую архитектуру безопасности, создавая стабильную и устойчивую основу, где агенты ИИ смогут безопасно выполнять всё — от совершения покупок до мониторинга угроз безопасности критической инфраструктуры.

Влиятельные организации по всему миру стремятся разработать эти стандарты. В Соединённых Штатах Национальный институт стандартов и технологий при Министерстве торговли начал работу по сбору широкого спектра информации по стандартам безопасности агентов ИИ.  В Сингапуре Infocomm Media Development Authority уже предложило Модельную рамочную структуру управления агентным ИИ, в которой изложен здравый смысл подхода, включая лучшие практики безопасности агентов ИИ.

 

Рекомендации по построению доверия

Хотя использование этой технологии связано с рисками, мы считаем, что следующие три рекомендации являются ключевыми при следующем этапе создания безопасной и надёжной агентской экосистемы.

Во-первых, организациям необходимо приоритизировать внедрение и внедрение лучших практик для обеспечения использования агентов ИИ на ранних этапах разработки и внедрения продуктов.

Далее, организациям необходимо постоянно контролировать этих агентов, чтобы они могли выявлять и исправлять любые нередкие действия или действия.

Наконец, более широкая экосистема должна поддерживать разработку и внедрение глобальных стандартов безопасности ИИ, чтобы каждый мог ориентироваться на общие стандарты при построении общей архитектуры безопасности для безопасного агентного будущего.

Успешное внедрение этих ограничений и поддержка разработки глобальных стандартов гарантирует, что миллионы людей и компаний смогут воспользоваться новыми агентскими технологиями, избегая потенциальных проблем с безопасностью.

Новые правила для агентской торговли

Узнайте больше о стандартах и инструментах, которые помогут масштабировать коммерцию на базе искусственного интеллекта для бесшовных, персонализированных покупок и роста.

A smartphone with projections of a shopping card and women's clothes on top of it.