2019 s’annonce véritablement comme une année d’innovation dans de nombreux secteurs

Par les experts de Teradata (NYSE : TDC) –
Teradata est l’unique entreprise du secteur permettant la démocratisation de l’intelligence des données omniprésentes (pervasive data intelligence), dresse une liste de ses prévisions pour 2019 dans les domaines de l’intelligence artificielle, des données et de leur analyse, des voitures connectées, de la sécurité, des blockchains, du cloud et bien d’autres encore. Christophe Gendre, Country Manager France, par la voix de ses consultants, mène une réflexion sur les évolutions à venir dans différentes industries.

Serigne Gaye, consultant Teradata en France. Mes prévisions dans l’automobile

Nous assistons actuellement à l’émergence du marché des voitures connectées. Cela implique de nombreuses décisions stratégiques, qui ne seront probablement pas toutes réglées en 2019. Le développement des véhicules autonomes ira toutefois de pair avec de nouveaux partenariats, de nouvelles activités et des défis inédits, prenant notamment les formes suivantes :

Les partenariats vont se développer, ce qui se traduira par une hausse des fusions et des acquisitions dans les secteurs de l’automobile et de la technologie. Pour être réellement autonome, un véhicule nécessite une interconnexion efficace d’un grand nombre de composants. Actuellement, chaque constructeur automobile ne dispose que de quelques unités.

Les services d’autopartage vont continuer à se développer rapidement, en particulier grâce aux technologies de voiture connectée. Uber, ZipCar ou Maven sont en train de redéfinir les usages en matière de possession de véhicules. Les articles s’intéressant à la façon dont l’autopartage modifie le modèle économique des constructeurs automobiles vont se multiplier. Le changement se fera lentement mais devrait s’accélérer au cours des deux ans à venir. Les entreprises du secteur voient clairement se profiler une réduction des véhicules en propriété à la faveur des solutions d’autopartage et tentent d’adapter leur activité afin de se préparer à cette évolution et, si possible, en tirer parti.

Les constructeurs automobiles traditionnels devront faire vite pour ne pas se faire doubler par les nouveaux acteurs du marché. Dans le secteur des véhicules autonomes, les marques historiques comme General Motors, Toyota et Ford sont d’ores et déjà en concurrence avec des fournisseurs de technologies tels que Google, Uber et Apple. Les distributeurs perçus comme n’étant pas à la pointe en matière de véhicules connectés en ressentiront radicalement les effets sur le marché.

Des accidents liés aux technologies autonomes continueront de se produire. Notre culture nous conduit à nous focaliser sur un unique accident mortel survenu avec une nouvelle technologie plutôt que sur les centaines de victimes d’accidents avec des véhicules conduits par des humains. Ceci conduit à des pressions défavorables au déploiement et à l’adoption des technologies de conduite autonome. Le manque d’information peut ainsi engendrer une véritable hostilité vis-à-vis de ces technologies. À l’inverse, des résultats positifs peuvent être obtenus en adoptant des normes de sécurité plus strictes et en mettant l’accent sur la transparence de l’information autour des incidents.

La confidentialité et la sécurité de ces nouvelles technologies vont faire l’objet d’un intérêt croissant. Les informations d’une voiture connectée sont probablement encore plus sensibles que celles de notre carte de crédit. En effet, elles permettent de savoir où nous allons, quand nous y allons, quand nous sommes à la maison, où nous faisons nos courses et où nous travaillons, quelles écoles fréquentent nos enfants, ainsi que les endroits où nous nous rendons avec les horaires correspondants. Des violations de ces informations personnelles se produiront et auront des conséquences fâcheuses. Les scénarios où un intervenant extérieur mal intentionné prend le contrôle de la technologie se reproduiront et entraîneront des réactions de rejet, mais aussi l’implication des entités politiques et juridiques dans le but d’élaborer des lois et d’établir une jurisprudence. En quoi l’application de la loi peut-elle être utile à des fins d’enquête ?

 

Jean-Marc Bonnet, Directeur Architecte Teradata. Mes prévisions dans l’usage des données

En 2019, on accordera davantage d’importance à la compréhensibilité des algorithmes d’IA qu’à améliorer les performances prédictives de ces algorithmes.

Des démarches de consolidation et de rationalisation des plateformes et des fournisseurs NoSQL seront initiées.

La gestion traditionnelle des métadonnées sera améliorée et/ou remplacée par des modèles internes de crowdsourcing.

La technologie blockchain commencera à être employée pour des usages plus intéressants que les crypto-monnaies.

La loi de Moore sera officiellement déclarée obsolète.

Les entreprises vont se mobiliser pour remplacer les systèmes internes permettant aux experts en données d’élaborer et de déployer des modèles plus rapidement. Cela concerne les bases de données, les serveurs de développement et les serveurs d’évaluation de production, ainsi que leurs interfaces. Dans de nombreuses sociétés, la technologie n’a pas été conçue à cet effet et ne fonctionne à aucune échelle ; c’est ce que certains appellent des systèmes cyber-physiques intelligents finals (un terme inventé en 2006 par Felen Gill de la National Science Foundation).

Malgré la tendance mondiale en faveur de nouvelles lois sur la sécurité et la confidentialité, les violations de données ne connaîtront pas de recul significatif. Ceci s’explique en partie par le fait que les clients ont une attitude très attentiste vis-à-vis de l’adoption de nouvelles règles, comme le montrent les statistiques et notre propre expérience . Tout cela pourrait changer avec le RGPD. La seule chose qui pourrait quelque peu démentir mes prédictions serait un rebond du chiffrement des données, si les entreprises comprennent l’intérêt de réduire les risques associés à l’analyse de leurs données, et si les fournisseurs de technologies proposent de nouveaux moyens de rendre la tâche plus simple et moins coûteuse.

 

Valérie Lourme, consultante Teradata experte de la Finance. Mes prévisions dans le secteur bancaire

Recrudescence de la criminalité financière – L’usurpation d’identité numérique restera un problème majeur des entreprises spécialisées dans les paiements électroniques. Bon nombre d’entre elles vont tester le recours à l’apprentissage automatique et plusieurs obtiendront des performances améliorées grâce aux systèmes basés sur des règles. Beaucoup de ces entreprises auront également compris la nécessité d’intégrer les informations entre les différents secteurs d’activité (p. ex. HELOC, cartes de crédit pour petites entreprises, crédits à la consommation) pour permettre la détection précoce des mécanismes de fraude, en utilisant l’apprentissage profond (deep Learning) pour mieux déceler les signaux complexes. Quasiment toutes les entreprises auront des difficultés à déployer leurs nouveaux modèles en raison de problèmes opérationnels et de conformité, à moins de parvenir à maîtriser les stratégies de cycle de vie et de gestion des risques de leurs modèles.

2019 sera marqué par une large acceptation des nouveaux univers financiers multiples, dans lesquels les services de plateformes disruptives débordent des limites sectorielles et contraignent les entreprises financières à élaborer des écosystèmes clients hybrides et à y participer. Les API ouvertes continueront de faire évoluer la nature des activités de producteur ou de distributeur, et la démocratisation de l’intelligence des données omniprésentes permettra une expérience client hyper-personnalisée à un coût de plus en plus faible. L’objectif commun est d’ancrer la notion d’entreprise consciente de ses clients.

Au cours de l’année à venir, il se pourrait bien que les défaillances et les radiations de cartes de crédit augmentent en flèche, obligeant les émetteurs de cartes à mettre de côté davantage de réserves pour couvrir les pertes sur créances, à renforcer les conditions de souscription de crédits et à développer les capacités de collecte. Trois aspects pour lesquels les moyens analytiques et l’intelligence artificielle peuvent s’avérer utiles.

L’IA et l’apprentissage automatique ne remplaceront pas les professionnels de la comptabilité et des finances mais faciliteront la tâche de ces derniers en réduisant la saisie manuelle de données et en améliorant la rapidité, la précision et la qualité des moyens analytiques qu’ils fournissent à l’entreprise. En 2019, le passage au numérique dans le monde de la finance mettra en lumière le regrettable manque de documentation des processus d’affaires actuels, ce qui se traduira par des retards considérables dans la mise en œuvre de projets financiers majeurs.

2019 sera marqué par l’introduction de moyens analytiques et de données, exploités dans des produits basés sur l’identité pour consommateurs et commerçants, dans le but de créer de la valeur pour les réseaux et les fournisseurs de paiement.

En 2019, les banques de détail poursuivront la migration de leurs processus décisionnaires, d’un schéma heuristique (règles basées sur les PME) à une approche statistique (statistiques prédictives) et algorithmique (apprentissage profond), afin d’être plus pertinentes dans le contexte de leurs interactions clients, tout en réduisant leurs coûts.

 

Stéphane Rion, Teradata Consultant expert de l’IA. Mes prévisions dans l’ IA

Étiquetage automatique – L’apprentissage supervisé nécessite de grands ensembles de données annotées par des humains, afin d’entraîner un modèle d’apprentissage profond (deep learning) à effectuer une tâche donnée. Un défi fondamental, auquel sont actuellement confrontées les entreprises dans leur cheminement vers l’IA, est la création de données personnalisées de qualité supérieure annotées par l’humain. C’est un processus laborieux, répétitif, pouvant nécessiter le recours à des experts et devant parfois être repris. Pour les entreprises, cela représente un investissement de départ considérable, impliquant un risque important et des coûts conséquents. En 2019, on pourra observer une tendance en faveur d’outils basés sur l’IA, capables d’assister l’homme dans la création de données annotées de qualité supérieure, grâce à des techniques d’étiquetage automatique. Le recours précoce à l’IA permettra de réduire les coûts et les risques, tout en améliorant l’efficacité, ce qui jouera un rôle non considérable en faveur de l’adoption de l’IA par les entreprises.

Réinventer le commerce de détail – Les commerces traditionnels s’intéressent à l’IA pour améliorer significativement l’expérience client et la rentabilité, tout en restant compétitifs. En 2019, on verra apparaître de nouvelles sources de données (caméras de surveillance, caméras intégrées aux rayonnages, robots) et des modèles d’IA pour la gestion des stocks, une meilleure expérience client en magasin, du marketing ciblé et des fonctionnalités inédites comme les caisses en libre-service. Le défi principal reste toutefois de développer et d’adapter les opérations d’IA à des milliers de magasins de détail utilisant différents planogrammes, modèles de caméras et infrastructures réseau.

Modèles robustes sensibles au contexte – À l’heure actuelle, les modèles d’apprentissage automatique (Machine Learning) sont entraînés en vue d’exécuter des tâches très précises et hautement spécialisées. Le besoin d’une approche plus générale va se traduire par un développement des modèles procédant à une estimation conjointe de divers types de résultats, en lieu et place de chaînes de modèles spécialisés effectuant chacun une tâche unique. Par exemple, au lieu de créer des modèles distincts pour la détection, le suivi d’objets, la prévision et la planification des mouvements, exécutés les uns après les autres, on développera un modèle unique capable d’assurer conjointement l’ensemble de ces tâches. En interne, ces modèles peuvent profiter de la réutilisation des calculs et du partage de fonctions élaborées. En 2019 apparaîtront également de nouvelles architectures système fournissant du « contexte » aux modèles d’IA individuels, en organisant ces modèles de façon hiérarchique et/ou en les connectant à différentes échelles temporelles ou spatiales.

Réduction des volumes de données – Les stratégies d’évaluation des données vont gagner en importance. On pourrait penser que plus il y a de données, mieux c’est. Mais ce n’est pas toujours vrai. Les organisations se rendent compte qu’il est temps d’être plus sélectif en matière de données et que plus n’est pas toujours synonyme de mieux. À l’avenir, des efforts accrus seront consacrés à l’identification de la véritable valeur des données dans le but d’ébaucher des stratégies de réduction des données, en particulier au vu des progrès constatés en faisant fonctionner l’IA/l’apprentissage profond (deep learning) avec moins de données.

Reinforcement learning (apprentissage par renforcement) – À ce jour, on compte très peu d’exemples d’application de l’apprentissage par renforcement aux problématiques d’entreprise comme la recommandation de la meilleure offre à un client ou l’optimisation de la chaîne d’approvisionnement. Ces exemples, parmi d’autres, sont susceptibles de représenter des problèmes complexes pour les modèles d’apprentissage automatique parce qu’ils peuvent avoir de multiples facteurs potentiels à optimiser et impliquer une série d’événements pour parvenir à une décision ou un résultat exploitable. Ces deux caractéristiques les rendent bien adaptés à l’apprentissage par renforcement et peuvent permettre de surpasser largement les approches actuelles. En 2019, les entreprises feront des avancées significatives dans le « reinforcement learning », en mettant l’accent sur l’apprentissage hors stratégie pour résoudre le problème de l’absence d’environnement réel pour entraîner le modèle comme on le ferait avec un robot dans un laboratoire. Pas clair ? Revoir avec l’anglais

Contrôle industriel – Les solutions actuelles de caméras intelligentes pour la fabrication fournissent un kit d’outils logiciels génériques pour le contrôle qualité des produits complexes à adapter aux exigences spécifiques définies par les fabricants. Ces solutions logicielles de boîte noire de caméra intelligente limitent la capacité des fabricants à combiner des caractéristiques dérivées de l’analyse des images avec des données opérationnelles susceptibles d’améliorer la détection précoce des problèmes de qualité. De plus, les kits d’outils logiciels n’utilisent pas des techniques d’analyse dernier cri. Ces solutions génériques ne sont par conséquent pas adaptées à la forte variabilité des exigences, ce qui se traduit par de piètres performances de détection des problèmes de qualité. En 2019, les fabricants chercheront à réaliser un déploiement plug-and-play de modèles d’IA personnalisés, capables de procurer une forte valeur ajoutée à moindre coût/risque. Les fabricants auront besoin d’une infrastructure d’opérations analytiques permettant d’assurer le suivi, le recyclage et le redéploiement constants des modèles afin de les améliorer en permanence, ce qui dépasse une nouvelle fois les compétences des fournisseurs de caméras intelligentes.

IA de pointe – Avec davantage d’outils conçus pour rendre les modèles d’apprentissage profond plus compacts et moins énergivores sans sacrifier leurs performances, l’informatique de pointe dédiée à l’IA sera mieux adaptée et améliorera les interactions homme/IA. Ceci conduira à des applications plus robustes dans les domaines de la vente au détail et de la fabrication, permettant une meilleure compréhension de ce qui se passe à proximité physique de l’entreprise.

Gestion des risques liés aux modèles – Face à la croissance du nombre de modèles déployés par les entreprises, la nécessité de gérer la sécurité et la stabilité des modèles devient de plus en plus évidente. Dans les services financiers, la gestion des risques liés aux modèles est une discipline bien connue pour assurer la validité des modèles utilisés dans les processus clés, tels que la souscription de crédits. En 2019, d’autres secteurs réaliseront la nécessité d’adopter une approche similaire afin de profiter pleinement de leurs modèles analytiques et de leurs données, tout en gérant les risques pour leur organisation. La gestion des risques liés aux modèles permet justement la traçabilité des pipelines de données, la gouvernance des modèles, des flux de travail clairs pour la promotion des modèles, la reproductibilité, la simulation de crise, la conformité réglementaire, le suivi des performances des modèles, la détection des aberrations et la surveillance des données.

Assistants numériques humanisés – En 2018, on a assisté à des avancées considérables dans le domaine des assistants IA, des voix de synthèse à consonance humaine et des agents de dialogue personnalisés pour les consommateurs. Les assistants IA vont devenir de plus en plus répandus et intégrés dans de nombreuses activités, se traduisant par de nouvelles possibilités d’engagement créatif pour les entreprises. La business intelligence de nouvelle génération intégrera des interfaces vocales afin de prendre en charge les tableaux de bord exécutifs et les scénarios de simulation.

Développement des moyens d’analyse vidéo granulaire en guise d’aide pratique pour l’application de la loi, le trafic, la sécurité et le commerce de détail (entre autres).

Il sera fréquemment question d’opérations d’IA. Celles-ci étendront les capacités opérationnelles (informatique et développement) existantes, grâce à une approche basée sur les algorithmes et l’automatisation en matière de prise de décision.

Recours accru à la biométrie comportementale : les téléphones et autres appareils seront en mesure d’identifier l’utilisateur à sa façon d’écrire, de faire défiler l’écran ou de parler. Ceci a pour but d’augmenter la sécurité des équipements et de protéger leur propriétaire contre la perte d’informations sensibles.

La recrudescence d’assistants IA se poursuivra dans tous les domaines (p. ex. les voitures, les restaurants).

Les data storytellers, chargés de vulgariser les informations issues des données de l’entreprise, se verront verser une prime d’embauche supérieure dans les entreprises ayant recours à l’analyse (c’est-à-dire quasiment toutes).

La plupart des projets d’IA seront principalement au stade « d’expérience scientifique » dans la mesure où l’adaptabilité des talents que requiert une diffusion plus large est difficile à atteindre.

La technologie blockchain va être progressivement adoptée par un nombre croissant d’entreprises, mais uniquement après s’être démarquée de la réputation négative des crypto-monnaies.

De nombreuses solutions analytiques élaborées bénéficieront de la compréhension du langage naturel, ce qui augmentera le recours à la prise de décision basée sur les données dans bon nombre d’entreprises.

 Le déficit de talents en IA va continuer de se creuser

Selon une enquête menée par O’Reilly Media, le principal obstacle à une adoption réussie de l’apprentissage profond est la pénurie de talents. Les répondants ont mentionné cette cause deux fois plus souvent que d’autres types de contraintes.

La palette de talents est riche d’implications et soumise à divers facteurs, notamment sa répartition très inégale. Les leaders comme Google, Apple et Amazon absorbent actuellement une large part des talents disponibles, ce qui est conforme à leur modèle économique. Alors que les géants de la technologie se disputent les talents en IA, de nombreuses autres entreprises – aussi bien dans le secteur technologique qu’ailleurs – restent sur la touche. Des secteurs comme l’énergie, les communications, la fabrication et d’autres se retrouvent ainsi à la traîne, malgré un besoin urgent d’innover pour faire face à la transformation numérique.

Les salaires considérables demandés par les spécialistes de l’IA vont certainement contribuer à développer le nombre de talents, mais pas suffisamment pour compenser leur sous-effectif dans un avenir proche. Pour rester compétitives, les entreprises doivent développer une stratégie efficace vis-à-vis des talents, en embauchant des diplômés, en rachetant de la propriété intellectuelle par l’intermédiaire de fusions et d’acquisitions, ou en interagissant avec le monde universitaire et des partenaires ayant une expérience pratique de l’IA.

 

Philippe Jean-Jean, consultant Teradata, expert du Cloud. Mes prévisions sur le cloud en 2019

Le stockage objet n’est plus synonyme de clouds publics.

Le stockage objet dans le cloud s’est développé dans les entreprises en réduisant les coûts liés au stockage de volumes de données en hausse constante. De plus, le stockage objet basé sur le cloud permet aux développeurs d’accéder aux données et de les contrôler via des API, assurant ainsi leur intégration avec les applications existantes et à venir. Le stockage objet dans le cloud fonctionne également par-delà les centres de données, ce qui permet aux entreprises d’être plus efficaces en matière de récupération après sinistre.

La solution de stockage objet Amazon S3 détient actuellement la plus grande part de marché, suivie de Microsoft Blob qui se développe rapidement. Alors que le stockage objet est apparu dans le cloud public, ce sont les offres de cloud privées qui connaîtront la plus forte croissance en matière de stockage objet au cours des années à venir, réfutant ainsi la vision actuelle selon laquelle le stockage objet serait synonyme de cloud public. Les déploiements de stockage objet sur site offrent des gains de performances dans la mesure où les données n’ont pas besoin de transiter via des connexions Internet peu fiables. Contrairement à de nombreuses solutions de cloud public, les offres de stockage objet sur site et sous forme de service n’ont pas recours à une facturation mensuelle par Go, requête HTTP GET ou sortie de données, ce qui contribue à limiter les coûts « cachés » ou imprévus.

Essor de l’approche « as-a-service » : La propagation rapide de solutions ponctuelles dans le cloud pour quasiment chaque aspect de l’écosystème analytique est parfaite pour les projets de petite envergure, expérimentaux ou partant d’une page vierge, pour lesquels une personne peut assembler et gérer elle-même les composants, mais s’avère totalement inadaptée et ingérable pour les moyens d’analyse à l’échelle d’ensembles de données distribués. En 2019, les entreprises commenceront à reconnaître les limites des produits ponctuels et les remplaceront par des solutions globales sous forme de service (« as-a-service ») capables d’activer des écosystèmes analytiques hybrides et de s’intégrer avec, afin de permettre aux analystes économiques et aux experts en données de se consacrer à l’identification de précieux enseignements issus d’ensembles de données disparates et d’en dégager de réels avantages concurrentiels.

 

Yann Ros, Consultant Teradata expert du retail. Mes prévisions dans le retail

Expérience fluide – Les détaillants cherchent à intégrer leurs canaux physiques et numériques pour créer une expérience d’achat unique. Le défi consiste à trouver une façon d’intégrer les interactions avec le client lorsqu’il fait des achats en magasin, achète des produits associés supplémentaires en ligne ou sélectionne l’expédition à domicile, ainsi que de suivre l’achat jusqu’à sa conclusion. Les détaillants investissent des milliards pour faire évoluer l’expérience d’achat physique. À titre d’exemple, Walmart.com a remanié son site de vente en ligne en 2018, Target repense ses magasins physiques et Amazon a lancé Amazon Go et fait l’acquisition de Wholefoods.

Adoption de l’IA – Une des requêtes les plus singulières que je reçois est de savoir comment un détaillant peut adopter l’IA dans ses processus métier qui vont de l’approvisionnement, de l’exécution de commandes et de la reconstitution des stocks aux communications personnalisées automatiques, en passant par le processus d’achat. Walmart, Lowes et d’autres détaillants testent le recours aux robots dans leurs magasins pour améliorer le remplissage des rayonnages, le stockage et l’automatisation des processus de préparation et d’emballage.

Dernier kilomètre / logistique – Tous les détaillants se focalisent sur une disponibilité permanente. Toutes les entreprises investissent, concluent des partenariats ou font des acquisitions pour améliorer la rentabilité de leurs procédés. Les détaillants ont recours à la livraison en bornes/casiers libre-service (Walmart, Amazon), aux partenariats avec d’autres détaillants (Amazon et Kohl’s) et aux acquisitions (Walmart et Parcel). Dans cette optique, les détaillants ont lancé des initiatives pour améliorer leurs chaînes d’approvisionnement (Walmart a investi 11 milliards de dollars, Target a investi 7 milliards de dollars dans ses nouveaux centres SC Flow) afin d’optimiser les délais de livraison, tout en réduisant le coût des biens vendus.

Expérience physique – Walmart, Target, Macy’s, pour n’en citer que quelques-uns, investissent tous dans l’expérience en magasin. Le concept de boutique éphémère Market@Macy’s de Macy’s ainsi que ses boutiques de démarque Backstage vont changer la façon dont les clients achètent chez Macy’s. Target investit dans un relooking complet de ses magasins physiques (1000 boutiques dans tout le pays d’ici fin 2020) pour offrir une expérience d’achat aussi inédite qu’originale.

Christophe Gendre, conclusion

2019 sera l’année où « nous » (fournisseurs, consultants, clients, analystes, etc.) opérerons un retour vers le futur dans la mesure où nous comprendrons que l’essentiel de notre valeur ajoutée découle d’une meilleure résolution d’anciennes problématiques (perte de clientèle, fraude, risque, coûts, etc.) en utilisant davantage de données, et non de la prise en compte de nouvelles situations, toujours plus ésotériques. J’ai l’impression que dans de nombreuses entreprises l’intérêt pour les cas d’utilisation inédits décroît à la faveur de ceux que les entreprises tentent de résoudre depuis des années. La différence est que nous sommes actuellement en mesure de proposer plus de solutions que jamais auparavant, grâce à de meilleurs ensembles de données (plus importants, plus étendus et plus approfondis) et, dans une certaine mesure, grâce aux progrès technologiques.

2019 sera l’année où le traitement des données – le fastidieux travail d’acquisition, de gestion et d’intégration des données – sera reconnu comme un facteur clé du succès d’une entreprise souhaitant passer au numérique. Sans une alimentation efficace en données, les entreprises ne pourront jamais tirer profit de l’IA et tout le défi réside dans une gestion et une mise à disposition opportunes de ces données. Les sociétés qui parviendront à acquérir, gérer et intégrer efficacement les données adéquates avec les technologies d’IA seront les grandes gagnantes de 2019.

 

À propos de Teradata

Teradata révolutionne le travail des entreprises et la vie des utilisateurs grâce à la puissance des données. Teradata tire le meilleur parti de toutes les données, à tout moment, afin de vous permettre de tout analyser (anything), d’effectuer des déploiements où vous le souhaitez (anywhere) et d’obtenir les analyses qui comptent le plus pour votre entreprise. Et tout ceci, sur site, sur le cloud, où de façon hybride. Nous appelons cela « pervasive data intelligence » ou la démocratisation de l’intelligence des données omniprésentes. C’est notre réponse à la complexité, aux coûts et à l’inadéquation des approches analytiques actuelles.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *