La première édition de l’Observatoire de l’IA responsable d’Impact AI analyse la façon dont les salariés perçoivent le déploiement de l’IA dans leur entreprise.
Impact AI, le think & do tank de l’IA responsable, dévoile aujourd’hui, en partenariat avec KPMG en France et BNP Paribas, la nouvelle édition de son Observatoire de l’IA Responsable, réalisé par VIAVOICE, en partenariat avec KPMG en France et BNP Paribas. L’objectif de cet Observatoire est d’analyser la façon dont ces salariés perçoivent le déploiement de l’IA dans leur entreprise, les opportunités et limites de cette technologie, leurs réactions face à l’enjeu de l’IA responsable(1) et ce qu’impliquerait sa mise en oeuvre dans leurs tâches quotidiennes.
Méthodologie : étude d’opinion auprès d’un échantillon de 1 000 salariés du secteur privé, issu d’un échantillon représentatif de la population salariée résidant en France métropolitaine, âgée de 18 ans et plus. Interviews réalisées en ligne du 15 au 25 novembre 2024. Représentativité de l’échantillon assurée par la méthode des quotas (sexe, âge, catégorie socio-professionnelle, région, secteur et taille de l’entreprise).
Le rôle de l’IA dans le rayonnement d’un pays
À l’examen des résultats de l’Observatoire, un premier constat s’impose : le rôle de l’IA dans le développement et le rayonnement d’un pays est considéré comme important ou très important pour plus d’un salarié sur deux (52 %), mais valorisé encore davantage par ceux qui utilisent l’IA (74 %). À ce jeu, et sans surprise, ce sont les États-Unis qui sont considérés aujourd’hui comme le principal gagnant du développement de l’IA (pour 53 % des salariés qui utilisent l’IA) devant la Chine (42 %), la Corée du Sud (33 %), la France (30 %) et l’Union européenne (29 %), Israël (29 %).
Trouver le bon équilibre entre innovation, sécurité et responsabilité
Près de trois quarts des salariés jugent nécessaire de réguler le développement de l’IA, dont 37 % « tout à fait nécessaire », avec une proportion plus importante chez les utilisateurs de l’IA (85 % se prononcent en faveur d’une régulation). Pour autant, 36 % des salariés interrogés, quelle que soit la taille de l’entreprise et le secteur d’activité, estiment qu’il faut trouver un équilibre entre innovation, sécurité et responsabilité dans les projets IA des entreprises, 21 % estiment qu’il faut privilégier le respect des principes éthiques, alors que seuls 10 % font de l’innovation une priorité.
Quant à identifier quelle structure ou institution serait la plus à même d’exercer les fonctions de contrôle et de régulation, 30 % des salariés penchent plutôt pour une agence internationale que pour une régulation par l’État (25 %) ou par l’Europe (19 %). Pour autant, l’AI Act européen est jugé plutôt comme une « très bonne ou une bonne chose » par 57 % des salariés interrogés, cette proportion atteignant même 75 % chez les utilisateurs d’IA dans le cadre professionnel.
Quelles conséquences sur l’emploi ?
Les salariés identifient assez clairement les risques liés au déploiement de l’IA dans les entreprises. Ils placent au premier rang l’impact sur les emplois (41 %), devant les risques liés à la confidentialité des données (33 %), une dépendance excessive à l’IA (31 %), la non-conformité aux réglementations (24 %), le manque de transparence quant aux tâches réalisées par l’IA (23 %), l’amplification de stéréotypes liés à la présence de biais dans les algorithmes (17 %), les risques d’uniformisation du travail (17 %) et l’impact environnemental (11 %).
L’IA responsable, une nécessité éthique et un gage d’efficacité…
Face à une définition précise de l’IA responsable, 63 % des salariés interrogés jugent que le développement d’une telle IA est « souhaitable ou indispensable » (25 % l’estiment même indispensable), avec une conviction encore plus fortement ancrée chez les utilisateurs d’IA dans le cadre professionnel (83 %). À quels domaines doit s’appliquer en priorité la responsabilité de l’IA ? 36 % des salariés citent d’abord la protection des données personnelles et sensibles, devant le respect des droits fondamentaux (27 %), l’amélioration du bien-être humain (25 %), le respect de l’humain et de sa singularité (24 %), le respect des principes éthiques (22 %), la garantie de la transparence (21 %), le respect de la santé humaine (20 %), l’impact environnemental (17 %), l’explicabilité des choix (13 %), la réduction des biais dans les algorithmes (11 %), l’inclusion sociale (9 %). Derrière cette diversité des champs de responsabilité de l’IA, apparaît néanmoins une conviction, forte de près de 8 salariés sur 10, qu’une l’IA responsable doit s’attacher au respect de l’être humain, de sa santé, de son bien-être et de ses droits, quelle que soit la taille de l’entreprise, même si la question des droits fondamentaux est la plus sensible dans les entreprises de plus de 250 salariés, cités par 36 % des personnes interrogées contre une moyenne de 25 % dans les entreprises de taille inférieure.
(1) La définition de l’IA responsable proposée aux salariés interrogés était libellée de cette façon : une intelligence artificielle responsable est conçue pour respecter des principes éthiques, garantir la transparence et minimiser les risques potentiels, y compris les biais dans ses algorithmes. Elle favorise l’inclusion sociale et la protection des données, tout en étant capable de choix explicables. De plus, elle vise à améliorer le bien-être humain sans causer de dommages sociaux, environnementaux ou de santé.
Pour autant, au-delà des valeurs qu’elle porte, l’IA responsable est considérée comme un facteur d’efficacité dans le travail (44 % des opinions), aide à prendre de meilleures décisions (39 %), tout en consommant moins de ressources (32 %) et en étant transparentes (31 %) et éthiques (30 %).
Une mise en œuvre encore inégale dans les entreprises, une acculturation à intensifier
Forts de leurs convictions, les salariés français jugent de façon très disparate la manière dont leurs entreprises s’emparent de ce concept d’IA responsable et le mettent en œuvre. 63% des salariés déclarent ignorer tout des démarches mises en œuvre par leur entreprise pour se mettre en conformité en matière d’IA responsable. Invités à situer, sur une échelle de 1 à 10, sa mise en place dans leur entreprise, 50 % des salariés s’arrêtent à 4. Seuls, 9 % d’entre eux indiquent pouvoir se référer à une charte éthique et/ou à un interlocuteur ou un comité d’éthique concernant l’IA.
C’est probablement la raison pour laquelle 44 % des salariés appellent de leurs voeux la mise en place d’une surveillance de l’IA, 42 % souhaitent que l’entreprise garantisse une utilisation de l’IA selon des principes éthiques.
Pour les salariés, les entreprises disposent néanmoins des atouts nécessaires pour réussir en leur sein une acculturation à l’IA responsable, à commencer par ses compétences internes en matière d’IA (28 % des salariés), la sensibilisation aux enjeux liés à l’IA et la politique de formation (22 %), la motivation au changement de la part des salariés (20 %), l’engagement de la direction (16 %), le montant des budgets alloués à l’IA responsable (14 %).
Pour accélérer cette acculturation à l’IA responsable, les salariés suggèrent qu’un certain nombre de freins soient levés, comme le manque de compétences internes, cité par 30 % des salariés, la complexité technique de l’IA (26 %), les coûts élevés de sa mise en oeuvre (24 %), la résistance au changement (22 %) ou le manque d’engagement de la direction.
« Les conclusions de cette première édition de l’Observatoire de l’IA responsable montrent la grande sensibilité des Français aux notions d’IA responsable et d’IA éthique et vont donc nourrir les grands travaux que le collectif entend mener en 2025, avec l’impulsion de l’AI Action Summit de février : autour du travail, de la santé, de l’environnement et pour toujours plus de formation et d’appropriation de toutes et tous des outils d’IA responsable. » Christophe LIÉNARD, Président d’Impact AI
À PROPOS D’ Impact AI
L’association Impact AI, est un collectif de réflexion et d’action constitué d’un écosystème d’acteurs divers, réunis pour favoriser l’adoption de l’IA responsable depuis 2018. Son objectif est de se positionner comme un acteur de référence sur l’utilisation responsable de l’IA en Europe. Impact AI compte aujourd’hui plus de 80 membres, grandes entreprises, ESN, sociétés de conseils, acteurs de l’intelligence artificielle, start ups et écoles. RDV sur impact-ai.fr
À PROPOS DE KPMG en France
Leader de l’Audit et du Conseil, KPMG réunit en France 11 000 professionnels engagés à agir pour une nouvelle prospérité, au service des entreprises de toute taille. 100 ans après sa création, KPMG devient en France entreprise à mission avec pour raison d’être d’oeuvrer et d’innover avec passion pour bâtir la confiance, allier performance et responsabilité, faire grandir les talents au coeur de l’économie, des territoires et de la société. Fort de son modèle multidisciplinaire, KPMG combine les expertises sectorielles, ESG et numériques en s’appuyant sur son Centre d’Excellence d’ESG et ses 1 000 experts du digital en France pour accompagner les projets de croissance et de transformations de ses clients dans tout le territoire. KPMG apporte à ses clients la puissance d’un réseau mondial pluridisciplinaire dans 143 pays et se singularise par son maillage territorial en France. KPMG s’inscrit comme le leader d’une IA responsable et de confiance, créatrice de valeur et plaçant l’humain au coeur de la transformation de ses clients.
À PROPOS DE BNP Paribas
BNP Paribas est la première banque de l’Union européenne et un acteur bancaire international de premier plan. Elle est présente dans 63 pays et rassemble près de 183 000 collaborateurs, dont plus de 145 000 en Europe. Le Groupe détient des positions clés dans ses trois grands pôles opérationnels : Commercial, Personal Banking & Services pour l’ensemble des banques commerciales du Groupe et plusieurs métiers spécialisés parmi lesquels BNP Paribas Personal Finance ou encore Arval ; Investment & Protection Services pour les solutions d’épargne, d’investissement et de protection ; et Corporate & Institutional Banking, centré sur les clientèles Entreprises et Institutionnels. Fort d’un solide modèle diversifié et intégré, le Groupe accompagne l’ensemble de ses clients (particuliers, associations, entrepreneurs, PME, grandes entreprises et institutionnels) pour les aider à réaliser leurs projets en leur proposant des services de financement, d’investissement, d’épargne ou de protection.
En Europe, BNP Paribas est composé de quatre marchés domestiques : la Belgique, la France, l’Italie et le Luxembourg. Le Groupe déploie également son modèle intégré de banque commerciale dans les pays du bassin méditerranéen, en Turquie et en Europe de l’Est. Acteur bancaire international de premier plan, le Groupe dispose de plateformes et de métiers leaders en Europe, d’une forte présence dans la zone Amériques, ainsi que d’un dispositif solide et en forte croissance en Asie-Pacifique. BNP Paribas met en oeuvre dans l’ensemble de ses activités une démarche de Responsabilité Sociale et Environnementale lui permettant de contribuer à la construction d’un futur durable, tout en assurant la performance et la stabilité du Groupe.