Rapport Mastercard Signals - Les tendances émergentes de la tech en 2024
Ce nouveau rapport de Mastercard Signals explore les tendances tech qui révolutionneront le monde du commerce au cours des trois à cinq prochaines années. Ces tendances bénéficient d’une dynamique favorable impulsée par les progrès réalisés dans trois domaines clés : l’intelligence artificielle, la puissance de calcul et les technologies.
La première partie s’intéresse à la place que pourrait prendre l’IA générative dans notre vie quotidienne, jusqu’à en devenir une partie intégrante. Entre omniprésence des assistants numériques et développement logiciel, nous nous pencherons sur les interactions complexes entre les comportements des utilisateurs, les interfaces et l’IA responsable. En outre, nous analyserons les dangers des deepfakes générés par IA et aborderons le besoin urgent de technologies de détection efficaces et de normes d’authentification de contenu.
La deuxième partie propose une vue d’ensemble sur les innovations dans le domaine du calcul, comprenant les interfaces spatiales qui nous permettent d’interagir avec la technologie autrement qu’à travers un écran. Nous parlerons également de l’émergence des réseaux nouvelle génération qui améliorent l’automatisation et la transmission de données entre appareils, ainsi que de la puissance de calcul colossale qui sera nécessaire pour faire fonctionner les logiciels et services avancés.
La troisième partie se concentre sur l’évolution du secteur de la gestion des données. Nous en profiterons pour analyser le processus de tokenisation, qui étend l’usage des données à des domaines tels que la vérification d’identité et les programmes de fidélité. Cette section explore en outre notre dépendance accrue à l’analytique avancée et à l’IA dans la prise de décision, et plaide en faveur d’une meilleure protection des données et de l’adoption de principes de management éthique.
La quatrième partie analyse la convergence naturelle de ces tendances. Nous rappellerons en conclusion que l’IA, le calcul et l’analytique n’évoluent pas en vase clos : c’est sur l’interconnexion de ces composants que repose l’innovation dans tous les secteurs et l’avenir du commerce.
PARTIE 1 : L’INTELLIGENCE ARTIFICIELLE
L’IA générative propulse l’innovation grâce aux assistants numériques avancés, aux capacités de pointe de développement logiciel ainsi qu’aux nouveaux outils de détection pensés pour combattre les deepfakes malveillants.
1. Copilotes personnels : l’avènement des assistants d’IA générative : grâce à l’IA générative qui les alimente, les assistants numériques gagnent en puissance et en portée. Auparavant simples exécuteurs de tâches, ils sont devenus des aides indispensables dans la vie quotidienne et professionnelle.
Si ces copilotes personnels sont aussi prometteurs, c’est en raison de quatre facteurs technologiques : la montée des compétences d’ingénierie nécessaires à leur conception, la quantité phénoménale de données disponibles pour améliorer les performances des modèles d’IA, les semi-conducteurs de pointe utilisés pour entraîner ces modèles et les plateformes cloud qui agrègent les capacités de calcul nécessaires.
Parmi les usages émergents, nous comptons notamment les assistants d’achat intelligents, capables de faire des recommandations personnalisées et d’accélérer le processus de paiement, ainsi que les services virtuels de tourisme, qui à l’instar d’une agence peuvent aider à planifier et réserver un itinéraire. Les géants de la tech que sont Microsoft, Google, Meta ou encore Amazon intègrent eux aussi des assistants d’IA générative à leurs solutions actuelles pour améliorer leurs produits à destination du grand public et des professionnels.
Il faut toutefois composer avec de nombreux enjeux : l’impartialité et l’éthique des décisions recommandées par l’IA, le respect de la sécurité et de la confidentialité des données personnelles, la confiance et l’adhésion des utilisateurs, les limitations techniques inhérentes aux interactions totalement humaines ainsi que l’exclusion des informations protégées par le droit d’auteur pour l’entraînement des grands modèles de langage (LLM).
Scénarios plausibles :
- Marché au ralenti : adoption restreinte et expériences utilisateurs décevantes.
- Marché florissant : usage répandu pour des tâches critiques et émergence de nouveaux services.
Analyse du marché :
- Croissance estimée du marché : de 11 Mds$ (2023) à 46 Mds$46 (2028) avec un TCAC de 32,7 %.
- 95 % des cadres des services clients prédisent que ce service sera assuré par des bots IA d’ici trois ans.
2. Amélioration du code : booster le développement logiciel : l’IA générative pourrait révolutionner le développement logiciel en stimulant la productivité et l’innovation grâce à l’automatisation de certaines tâches courantes.
Ces avancées reposent sur des outils capables de comprendre les entrées en langage naturel, et sur l’émergence de copilotes logiciels qui peuvent aider les ingénieurs dans l’écriture du code source, la conception de l’architecture logicielle, les tests, la compréhension du code existant et le développement des interfaces et expériences utilisateurs. Le tout avec de simples instructions.
En plus de la génération de code, les copilotes alimentés par IA peuvent faciliter diverses étapes du développement logiciel, dont le débogage, les tests, la documentation et les étapes conceptuelles d’un logiciel avec un gain de temps considérable. L’automatisation peut réduire de 35 à 45 % le temps nécessaire aux tâches de génération du code et des tests. Les gains de temps sont encore plus élevés pour l’automatisation de la documentation du code qui varient entre 45 % et 50 %. Enfin, le réusinage de code peut prendre 20 à 30 % de temps en moins grâce à l’automatisation. Exploitées au profit du low-code/no-code, ces capacités d’automatisation rendent le développement logiciel plus simple et donc plus accessible.
Il faut toutefois se garder de nombreux écueils, comme la dépendance accrue à ces technologies sans supervision humaine, la fiabilité variable du code généré par IA, les limites du langage dans la formulation de code complexe, les enjeux éthiques et juridiques en lien avec la propriété intellectuelle ou encore la difficulté d’intégration à des systèmes légataires.
Scénarios plausibles :
- Marché au ralenti : adoption lente au sein des grandes entreprises en raison des difficultés d’intégration.
- Marché florissant : adoption généralisée du développement logiciel presque entièrement assisté par l’IA.
Analyse du marché :
- L’intégration de l’IA générative au développement logiciel pourrait booster la productivité de 20 à 45 %.
- Au sein des grandes entreprises, 92 % des développeurs utilisent déjà des outils de programmation assistés par l’IA.
- Les investissements consacrés aux pilotes informatiques alimentés par IA générative s’élevaient à 112 M$ en 2023, alors qu’ils étaient de 62 M$ en 2022 et de 102 M$ en 2021.
3. Distinguer le vrai du faux : quand la lutte contre les deepfakes devient une course : L’essor des deepfakes malveillants a fait augmenter le marché des outils de détection et impose l’adoption de nouvelles réglementations. Cet enjeu de cybersécurité souligne l’importance de la provenance des données et de l’IA pour renforcer les capacités de réponse.
La création de deepfakes repose sur l’architecture de machine learning ou apprentissage automatique connu sous le nom de réseaux antagonistes génératifs (GAN). Cette technologie implique deux réseaux neuronaux adverses : un générateur de contenu et un discriminateur qui en évalue l’authenticité. Alimenté par des retours continus et sans cesse perfectionné, le générateur améliore sa production de contenu multimédia réaliste et convaincant. En parallèle, le discriminateur aiguise sa capacité à déterminer l’authenticité de ce contenu.
Les cas d’utilisation de cette technologie ne cessent d’émerger, s’appuyant sur l’IA générative pour créer des avatars réalistes et responsive à des fins pédagogiques, ou des effets visuels améliorés pour la production audiovisuelle. Sans oublier l’impact des campagnes de désinformation, à même de transformer l’environnement informationnel stratégique.
Toute la difficulté consiste à garder une longueur d’avance dans un environnement qui se caractérise par l’accélération de la technologie deepfake, un manque flagrant de normes sectorielles, une méconnaissance du grand public et une précision toute relative des capacités de détection des deepfakes.
Scénarios plausibles :
- Marché au ralenti : les deepfakes entraînent une rupture du secteur et nuisent à l’utilisation de l’IA générative.
- Marché florissant : le secteur et les gouvernements travaillent main dans la main pour établir des règles claires, et des outils de détection infaillibles sont mis au point.
Analyse du marché :
- 46 % des entreprises ont été victimes d’une usurpation d’identité par deepfake. Parmi elles, 37 % ont été visées par un enregistrement audio trafiqué et 29 % par la vidéo.
- Le marché de détection des deepfakes devrait connaître une croissance annuelle de 42 % jusqu’en 2026.
PARTIE 2 : CALCUL
Analyse de l’impact de l’informatique spatiale, des réseaux intelligents et de la puissance de calcul dans divers secteurs, dont les services financiers, les expériences clients, la santé.
4. Interfaces spatiales : à travers l’écran et au-delà : L’informatique spatiale pourrait redéfinir les interactions homme-machine, en offrant des expériences immersives en réalité mixte qui effacent les frontières des mondes physiques et numériques avec un réalisme jusqu’ici inégalé. Cette technologie, qui atteindra sa maturité au cours des prochaines années, entrera progressivement dans notre vie quotidienne. En plus des plateformes de réalité mixte, cette technologie est déjà employée pour la navigation GPS, les balises de géolocalisation, les applications de covoiturage et les appareils intelligents.
L’expérience utilisateur repose sur la synergie de nombreuses technologies : réseaux de nouvelle génération, cartographie spatiale et vision par ordinateur rendant possible l’insertion de contenu numérique interactif dans l’espace physique d’un utilisateur. Cette synergie se retrouve également à travers l’innovation intégrée aux accessoires comme les casques, les lunettes intelligentes et les lentilles de contact de réalité augmentée, les technologies interactives telle la reconnaissance vocale, les dispositifs haptiques ainsi que les systèmes de suivi des yeux et du corps, ou encore les améliorations de la connectivité et du Wi-Fi et les outils avancés d’analyse spatiale.
Les cas d’usages émergents se retrouvent notamment dans les expériences clients, comme l’essayage virtuel ou le jumelage numérique, la prise de décision basée sur les données, ou encore les simulations de scénarios réalistes à destination des salariés ou le perfectionnement des techniques chirurgicales grâce à la visualisation 3D. Par ailleurs, le développement de l’informatique spatiale est étroitement lié à celui des jeux vidéo du fait de leur rapport à la réalité virtuelle.
Les défis à relever sont nombreux : concevoir des appareils qui susciteront l’adhésion massive du grand public, répondre aux questions de santé et de sécurité liées à l’intégration d’une technologie immersive au quotidien, développer du contenu d’une qualité suffisante et des applications qui attirent et retiennent les utilisateurs, et pour finir, répondre aux exigences de confidentialité liées à l’accumulation d’informations et de données utilisateurs.
Scénarios plausibles :
- Marché au ralenti : adoption lente en dehors d’un public de niche, comme les gamers
- Marché florissant : les innovations dans le domaine des appareils informatiques pour étendre l’usage dans les secteurs du retail et du divertissement.
Analyse du marché :
- Les estimations fixent la valeur du marché de l’informatique spatiale à 620,2 Mds$ en 2032.
- Le casque Vision Pro d’Apple et les investissements de Meta, Microsoft et Google témoignent de la croissance du secteur.
- 5. Technologies connectées : des réseaux plus rapides et plus intelligents : les progrès réalisés en matière de technologie des réseaux ouvrent la voie à une nouvelle ère de l’automatisation et de la personnalisation, donnant lieu à des expériences plus intelligentes qui redessineront le paysage du commerce.
Cet avenir dépend de l’ultra haut débit (ULB), du standard de communication Matter et du protocole de connexion Thread, mais aussi de l’informatique en périphérie de réseau pour réduire la latence, des ondes millimétriques (mmWave) pour la transmission des données à très haute fréquence, du multiplexage MIMO pour renforcer les capacités du réseau et d’une architecture cloud compatible avec l’IA.
Nous observons déjà des usages émergents avec la domotique et ses écosystèmes d’appareils interopérables, les expériences de vente au détail intelligentes qui boostent la personnalisation et facilitent les paiements, ainsi que les systèmes interconnectés et intelligents des véhicules et villes modernes, qui fluidifient la vie urbaine.
Les défis à relever sont les suivants : relier réseaux intelligents et systèmes légataires, créer des normes d’interopérabilité pour assurer la communication entre les différents appareils et systèmes, gérer les dispositifs edge vulnérables intégrés à l’Internet des objets puis démocratiser l’accès aux technologies de réseau avancées pour réduire la fracture numérique.
Scénarios plausibles :
- Marché au ralenti : l’interopérabilité s’avère difficile à atteindre en raison de la fragmentation.
- Marché florissant : les secteurs dans leur ensemble gagnent en connectivité et en interopérabilité.
Analyse du marché :
- Le nombre de communications machine-à-machine (M2M) était estimé à 14,7 Mds 2023, contre 8,9 Mds en 2020.
6. Risque de surtension : la capacité des réseaux à l’épreuve de leur usage croissant : la forte demande en applications avancées exige des capacités de calcul de plus en plus poussées.
Dans ce domaine, les améliorations technologiques incluent les capacités et la vitesse supérieures des puces de nouvelle génération, les plateformes cloud de pointe proposant une offre à la demande et sans engagement, les ordinateurs quantiques aux capacités de traitement et d’analyse hors de portée des ordinateurs traditionnels, ainsi que la production d’énergie issue de la fusion pour répondre à la demande toujours plus forte.
Les usages émergents concernent l’IA générative et l’apprentissage automatique, dont les capacités de calcul exponentielles permettent d’entraîner des modèles avancés. Les simulations et modèles ainsi créés affinent la recherche scientifique, le système de santé est renforcé par des outils de pointe et une médecine personnalisée, et la puissance de calcul est employée pour la modélisation financière, l’analyse du risque, le règlement des opérations de change et le traitement des transactions financières en temps réel.
Il faudra toutefois surmonter les pénuries occasionnelles des GPU (unités de traitement graphique), atténuer l’impact environnemental des centres de données, particulièrement gourmands en énergie, gérer la chaleur dégagée par les calculs de haute performance et tempérer l’excès d’optimisme que suscite cette nouvelle technologie.
Scénarios plausibles :
- Marché au ralenti : la rareté des ressources ralentit le développement de nouvelles capacités logicielles.
- Marché florissant : les progrès de l’informatique verte rendent possible les usages durables.
Analyse du marché :
- Jusqu’à 260 Mds$ investis dans les projets de fabrication des dispositifs à semi-conducteurs aux États-Unis.
- Le marché mondial du cloud computing devrait valoir 1 billion de dollars en 2028.
- La disponibilité du matériel informatique et des ressources naturelles indispensables au développement de la puissance de calcul reste soumise aux aléas de la géopolitique, et la course aux matières premières est inévitable.
PARTIE 3 : LES DONNÉES
Les progrès en matière de technologie des données permettent d’étendre la tokenisation des données à divers usages, l’analytique avancée pour en extraire de nouvelles perspectives commerciales et les nouvelles méthodes de protection des données.
7. Valeur tokenisée : étendre l’usage des données : la tokenisation s’applique à différents types de données, comme les caractéristiques biométriques pour la vérification d’identité ou l’attribution des points de fidélité. Ces usages ouvrent la voie à une nouvelle interopérabilité des données et à de nouveaux standards de programmabilité.
La tokenisation dépend des jetons alphanumériques, qui convertissent les informations sensibles en combinaisons aléatoires de chiffres et de lettres (traitement des paiements dans les portefeuilles numériques), des jetons cryptographiques, qui consistent à chiffrer les données pour les rendre illisibles en l’absence d’une clé (actifs numériques transférés sur une blockchain), ainsi que des jetons interopérables et standardisés sur des plateformes de blockchain.
Les usages émergents procurent davantage d’autonomie aux utilisateurs sur toutes leurs entités numériques, tandis que la biométrie renforce la sécurité des appareils et systèmes, permettant notamment aux entreprises de toutes tailles qui utilisent des systèmes interopérables, de faire évoluer leurs programmes de fidélité.
Le défi consiste ici à appréhender le paysage réglementaire dans toute sa complexité, les risques de sécurité liés au vol des jetons, la confidentialité du stockage et de l’accès aux données ainsi que la méconnaissance des utilisateurs, susceptible de faire obstacle à leur adoption et leur confiance.
Scénarios plausibles :
- Marché au ralenti : l’interopérabilité est entravée par des problèmes d’incompatibilité et des normes concurrentes.
- Marché florissant : l’utilisation de jetons pour gérer la fidélité et l’identité numérique favorise l’adhésion à travers le monde et les divers usages innovants.
Analyse du marché :
- Des grandes marques (Nike, Starbucks, Dolce & Gabbana et Lufthansa) utilisent déjà la tokenisation dans le cadre de leurs programmes de fidélité.
- Des applications innovantes, telles que HENY, utilisent des jetons non fongibles (NFT) pour les données des patients. Cela atteste du potentiel de la tokenisation dans le domaine de la santé et pour la protection de la confidentialité.
8. Usines à idées : aller plus loin grâce aux données : Les entreprises peuvent exploiter l’analytique de pointe, l’apprentissage automatique et l’IA pour extraire des informations plus pointues, éclairer leur prise de décision et transformer le secteur.
Les technologies qui portent cette tendance incluent l’analytique de pointe pour interpréter les ensembles de données complexes, l’apprentissage automatique et l’IA pour analyser des schémas et prédire des résultats, ainsi que les systèmes de personnalisation des expériences clients et de recommandation.
Ces technologies répondent à de nombreux usages émergents : l’analyse de marché et la prédiction des tendances, l’optimisation de l’expérience client, l’efficacité opérationnelle en vue d’améliorer les processus et de réduire les coûts, l’évaluation et la gestion des risques ou encore l’évaluation de la solvabilité.
Leur adoption se heurte à plusieurs défis, dont la qualité et l’intégrité des données, la complexité inhérente à l’intégration de données issues de sources et formats variés, le déficit de compétences et la pénurie de talents, les coûts d’implémentation et de maintenance, ainsi que la collecte et l’utilisation responsables des données.
Scénarios plausibles :
- Marché au ralenti : les problèmes de qualité et de disponibilité des données empêchent de produire des analyses pertinentes.
- Marché florissant : les progrès technologiques marquent le début d’une nouvelle ère où les connaissances et perspectives des entreprises sont fondées sur les données.
Analyse du marché :
- Le marché de l’analytique des données devrait passer de 272 Mds$ en 2022 à 745 Mds$ en 2030.
- Évalué à 43 Mds$ en 2022, le marché du Cloud AI devrait pour sa part réaliser une croissance spectaculaire pour atteindre les 887 Mds$ en 2032.
9. Protection des données : pour une entreprise responsable : les entreprises ne peuvent faire l’impasse sur le traitement responsable des données si elles entendent inspirer la confiance et préserver l’intégrité de l’économie numérique.
La protection des données dépend ainsi de facteurs clés, comme l’adoption de nouvelles mesures de sécurité au sein des entreprises (architecture Zero Trust), les technologies améliorant la confidentialité (PETs), la réglementation (RGPD, CCPA, etc.), la nécessité de mieux contrôler les données, et la sensibilisation accrue des consommateurs qui influence leur adoption.
Nous observons des usages émergents chez les entreprises dont la mission est d’accompagner la démarche responsable des organisations du secteur, du respect des normes de confidentialité à la gouvernance de l’IA, en passant par les services de conseils en données. Les approches se multiplient en matière d’accès aux données, avec la création de dépôts centralisés pour les actifs de données et métadonnées afin de faciliter leur découverte, leur compréhension et leur utilisation.
Les défis à relever sont les suivants : protéger les entreprises des menaces avancées, respecter les normes internationales en matière de données, assurer la disponibilité des données sans compromettre leur sécurité, gérer des coûts de plus en plus élevés et se maintenir au rythme de l’évolution des technologies.
Scénarios plausibles :
- Marché au ralenti : les difficultés d’adoption des stratégies de données avancées sont un frein au progrès.
- Marché florissant : des mesures de sécurité robustes, rentables et largement adoptées viennent renforcer l’innovation et la confiance.
Point clé de l’analyse du marché :
- Les entreprises ayant implémenté une architecture Zero Trust subissent 30 % d’incidents de sécurité en moins, et les incidents rencontrés affichent 40 % de sévérité en moins.
PARTIE 4 : LA CONVERGENCE TECHNOLOGIQUE
L’IA, le calcul et les technologies de données convergent pour pousser l’innovation bien au-delà du secteur technologique : la finance, le retail, la santé, l’éducation et bien d’autres domaines s’en trouvent transformés.
IA et calcul : L’IA, combinée au calcul avancé, renforce les capacités des modèles d’IA. Le calcul haute performance (HPC) et les GPU jouent un rôle majeur dans l’entraînement des modèles d’IA complexes. L’IA révolutionne l’infrastructure de calcul et optimise l’allocation des ressources.
Conséquences :
- Banques : une prise de décision améliorée par la pertinence des informations alimentées par l’IA.
- Commerçants : une meilleure allocation des ressources, une optimisation des opérations.
Exemple : la collaboration entre Amazon Web Services et NVIDIA pour l’infrastructure cloud de nouvelle génération.
Données et calcul : le volume croissant de données exige d’importantes capacités de calcul. Ce besoin est évident dans les domaines de l’analytique en temps réel et de l’apprentissage automatique, qui dépendent du traitement immédiat des données. Les progrès accélèrent le traitement des données, ce qui facilite l’extraction d’insights.
Conséquences :
- Banques : traitement efficace des données pour une analytique en temps réel.
- Commerçants : amélioration de la prise de décision basée sur les données.
Analyse du marché : La valeur du marché de l’IA appliquée aux biotechnologies devrait croître de près de 30 % par an jusqu’en 2032.
IA et données : l’efficacité de l’IA dépend de la qualité et de la disponibilité des données. La tokenisation et la gestion rigoureuse des données améliorent la fiabilité des données pour l’entraînement de l’IA. De même, les algorithmes avancés analysent les données et renforcent leur intégrité.
Conséquences :
- Banques : amélioration de l’entraînement des IA et des processus de déduction.
- Commerçants : pertinence accrue de l’analytique grâce aux algorithmes avancés d’IA.
Analyse du marché : En 2022, les données issues des médias sociaux représentaient 90 % de toutes les données créées.
Contacts media
À propos de Mastercard : www.mastercard.com
Mastercard est une société technologique mondiale dans l’industrie des paiements. Notre mission consiste à connecter et alimenter une économie numérique inclusive, qui bénéficie à chacun et partout, en permettant des transactions sûres, simples, intelligentes et accessibles. Nous nous appuyons sur des données et des réseaux sécurisés, nos partenariats et notre passion, nos innovations et nos solutions pour donner aux particuliers, aux institutions financières, aux gouvernements et aux entreprises les moyens de réaliser tout leur potentiel. Notre quotient de décence (QD) façonne notre culture et chacune de nos activités, au sein de notre entreprise comme en externe. Présents dans plus de 210 pays et territoires, nous bâtissons un monde durable pour ouvrir à chacun un horizon riche en possibilités priceless inestimables.
Vous pouvez nous suivre sur Twitter : @MastercardFR, @MastercardNews et accéder à notre actualité sur notre Engagement Bureau.