Comment utiliser la technologie de manière responsable : les enseignements de la Responsible Tech Night d'Avanade
- Publié le jeudi 30 novembre 2023
- temps de lecture 8 minutes
La technologie est un outil puissant qui peut créer un impact positif pour les humains et la planète, mais elle comporte aussi des défis et des risques qu'il faut prendre en compte. Comment s'assurer que la technologie est responsable, éthique et inclusive ? Comment éviter les écueils du biais, de la manipulation et de la désinformation ? Comment favoriser une culture de confiance et de collaboration entre les différents acteurs impliqués dans la conception, le développement et le déploiement de la technologie ?
Ce sont quelques-unes des questions qui ont été explorées lors de la conférence Responsible Tech Night d'Avanade, un événement qui a eu lieu le 14 septembre 2023, à Paris. L'événement, organisé par Avanade, un leader de l'innovation numérique et partenaire de Microsoft, en collaboration avec le média IT for Business France, a réuni des experts, des clients et des partenaires de divers secteurs et horizons pour partager leurs visions et leurs expériences sur le thème de la technologie responsable.
Dans cet article, nous allons résumer les principaux points forts et les leçons tirées de l'événement, qui comprenait une keynote de Laurence Devillers, professeure d'intelligence artificielle et d'éthique, une table ronde avec des représentants de SUEZ, Eiffage, entre autres, et une conversation avec Microsoft sur leur vision et leurs initiatives pour une IA responsable.
Laurence Devillers a commencé par donner un aperçu de l'état actuel de l'IA, qu'elle a décrit comme une "vague" qui transforme divers domaines et industries, de la santé à l'éducation, de la mobilité au divertissement. Elle a expliqué que l'IA n'est pas une technologie unique, mais une combinaison de différentes méthodes et techniques, telles que l'apprentissage profond, le traitement du langage naturel, la vision par ordinateur, et l'IA générative.
Elle a également souligné que l'IA n'est pas intrinsèquement responsable ou irresponsable, mais qu'elle reflète les valeurs et les intentions des humains qui la créent et l'utilisent. Par conséquent, elle a plaidé l’importance d'avoir une boussole éthique claire pour guider le développement et le déploiement de l'IA, et pour éviter les potentiels dommages et risques qu'elle peut entraîner, tels que le biais, la discrimination, la manipulation, la désinformation, et la perte d'autonomie.
- Elle a proposé un cadre pour l'IA responsable, basé sur quatre piliers : le respect, la bienveillance, la justice, et la responsabilité.
- Le respect signifie que l'IA doit respecter la dignité, la vie privée, et l'autonomie des humains, et ne pas les traiter comme des objets ou des sources de données.
- La bienveillance signifie que l'IA doit viser à créer un impact positif pour les humains et la planète, et ne pas causer de mal ou de souffrance.
- La justice signifie que l'IA doit être équitable, inclusive, et transparente, et ne pas créer ou renforcer les inégalités ou les injustices.
- La responsabilité signifie que l'IA doit être responsable de ses actions et de ses décisions, et ne pas se soustraire à la responsabilité ou à la responsabilisation.
Elle a également donné quelques exemples de comment mettre ces principes en pratique, tels que l'utilisation d'approches « human-in-the-loop », l'explicabilité et l'interprétabilité, l'application de techniques de préservation de la vie privée et de minimisation des données, la réalisation d'évaluations et d'audits d'impact, et la création de comités et de codes de conduite éthiques.
Elle a conclu en insistant sur l'importance d'avoir un dialogue multidisciplinaire et démocratique sur les implications éthiques et sociales de l'IA, impliquant non seulement les chercheurs, les développeurs, et les régulateurs, mais aussi les utilisateurs, les clients, et les citoyens. Elle a également appelé à plus d'éducation et de sensibilisation sur le sujet, notamment pour les jeunes générations, qui seront les futurs créateurs et utilisateurs de l'IA.
Le premier invité était Claire Mathieu, la directrice des données et de l'IA chez SUEZ, Digital Solutions, un leader mondial des services de gestion de l'eau et des déchets. Elle a expliqué comment SUEZ utilise les données et l'IA pour accompagner ses clients dans leur transition écologique, en optimisant l'utilisation de l'eau, la collecte, le tri et le recyclage des déchets. Elle a également mis en évidence certains des défis et des opportunités de l'utilisation de l'IA dans ce secteur, tels que l'assurance de la qualité, de la sécurité, et de la confidentialité des données, la valorisation de l'expertise des spécialistes du domaine, et la création de valeur pour les clients et la société.
Le deuxième invité était un responsable de la data et de l'innovation chez un acteur majeur du secteur de la construction et du génie civil. Elle a décrit comment l'entreprise utilise les données et l'IA pour améliorer son efficacité opérationnelle, sa sécurité, et sa performance environnementale, en surveillant et en analysant les données de ses équipements, de ses véhicules, et de ses usines, et en prédisant et en prévenant les risques et les incidents sur ses chantiers. Elle a également souligné l'importance d'avoir une approche centrée sur l'humain pour les données et l'IA, en impliquant les utilisateurs finaux dans la conception et le déploiement des solutions, et en leur fournissant la formation et le soutien nécessaires.
Le troisième invité était Fabrice Blanc, le directeur du matériel et du génie civil chez Eiffage, un groupe leader de la construction et des concessions. Il a partagé comment Eiffage utilise les données et l'IA pour optimiser sa gestion de flotte, en collectant et en traitant les données de ses machines, de ses camions, et de ses outils, et en fournissant à ses managers et à ses opérateurs des informations et des recommandations en temps réel. Il a également mentionné certains des bénéfices et des défis de l'utilisation des données et de l'IA dans ce secteur, tels que la réduction de la consommation de carburant, des coûts de maintenance, et de l'empreinte carbone, ainsi que l'assurance de la fiabilité, de la sécurité, et de la gouvernance des données.
Ce panel a montré comment trois entreprises leaders dans les secteurs de l'eau, des déchets, et de la construction utilisent les données et l'IA pour stimuler leur innovation et être plus durable. Elles ont toutes partagé le même constat important : les données sont une étape critique.
L'événement s'est terminé par une présentation d'Eneric Lopez, directeur des initiatives nationales et de l'impact social en IA chez Microsoft France, qui a présenté la vision et les initiatives de Microsoft pour une IA responsable. Il a expliqué que la mission de Microsoft est de permettre à chaque individu et chaque organisation sur la planète à accomplir davantage, et que l'IA est un levier clé pour cette mission. Il a également affirmé que l'approche de Microsoft en matière d'IA responsable est un parcours de 7 ans avec six principes comme fondation : l'équité, la fiabilité et la sécurité, la confidentialité et la sécurité, l'inclusivité, la transparence, et la responsabilité.
Il a ensuite partagé certaines des actions et des outils concrets que Microsoft a déployés pour mettre ces principes en action :
- Gouvernance : Le comité AI and Ethics in Engineering and Research (AETHER) et le Office of Responsible AI, qui fournissent des recommandations, des orientations et assurent la mise en œuvre de l'IA responsable dans chaque département et filiale
- Cadre : La norme de l'IA responsable, qui définit les exigences et les bonnes pratiques pour développer et déployer des solutions d'IA
- Outils : Le centre de ressources de l'IA responsable, qui fournit une collection de ressources et d'outils pour apprendre et appliquer l'IA responsable
Régis Ravant, directeur Data & AI chez Avanade, a constaté un fort intérêt pour l'IA responsable parmi ses clients, avec une cinquantaine de rendez-vous en 4 mois. Ces rendez-vous ont réuni des personnes de différents domaines, dont les comités de direction, les fonctions de transformation RH, les fonctions techniques, et les fonctions de direction générale.
Trois grands sujets ont été abordés : la technologie elle-même, ses limites et ses scénarios potentiels, et son impact sur la population. Une enquête réalisée juste avant l'été a confirmé que la perception du marché parmi les clients était similaire.
Quelques chiffres intéressants ont été mentionnés : 83% des dirigeants internationaux attendent une croissance du chiffre d'affaires liée aux idées génératives, la majorité considère l'éthique comme l'élément principal pour la réussite d'une démarche d'IA, notamment l'IA générative. Cependant, seuls 33% des entreprises se sentent prêtes à gérer les biais, les limites, et les risques associés à la technologie. Cela montre un écart entre l'enthousiasme pour l'IA et le niveau de préparation à son utilisation*.
Régis souligne également quelques fondamentaux comme l'aspect critique de la mise en place d'une fondation et d'une gouvernance des données pour avoir un patrimoine de données qualitatif, fiable, et non biaisé.
Laurent Curny, directeur général pour la France et le Benelux chez Avanade, conclut la conférence et compare les discussions avec celles qui ont eu lieu en Belgique et à Amsterdam plus tôt dans la semaine. Il nous rappelle que la technologie est un outil, et que la responsabilité nous incombe. La confiance est importante pour les employés et les clients, et la marque Avanade incarne cette confiance dans la durée. Si la marque est endommagée, les clients et les actionnaires peuvent partir.
*Rapport sur AI Readiness d'Avanade, 2023 : https://www.avanade.com/en/insights/generative-ai-readiness-report
"La technologie n'est pas responsable, c'est l'humain qui est responsable." - Laurent Curny
"L'ambition que nous devons avoir n'est pas simplement de réduire les risques, l'ambition que nous devons avoir est comment nous créons du bien." - Laurent Curny
"L'IA est très utile pour nous, à condition de savoir mieux l'utiliser, la développer, avoir de bonnes pratiques, suivre des normes, comprendre quels sont les risques pour la société." - Laurence Devillers
"Il y a un problème de temps. Nous pouvons utiliser massivement l'IA générative pour obtenir des réponses immédiates. En revanche, créer des normes ou des lois prend du temps, du temps de cerveau humain qui n'a pas accéléré son temps de réflexion. Donc il y a un vrai décalage entre le temps de la machine, qui n'est pas intelligente, et le temps de notre cerveau pour accumuler tout ça." – Laurence Devillers
"Grâce au buzz autour de l'IA générative, tous les membres du comité exécutif viennent me voir en me demandant ce qu'on peut faire avec. Les responsables stratégiques, achats et financiers passent tous dans mon bureau en ce moment." – Claire Mathieu
"Ce qui est possible mérite d'avoir sa chance." - Albert Camus, cité par Fabrice Blanc
"Plus de 70% des personnes formées à l'intelligence artificielle en France ont un niveau d'études équivalent à un master. Je fais un parallèle, c'est comme si en France, on ne formait que des chefs étoilés pour la restauration." – Eneric Lopez
Commentaires