Aequitas-fides

PAROLES d'EXPERT : 3 QUESTIONS A...

Interview exclusive AEQUITAS & FIDES (06/2020)

Dr. Lee Schlenker

Principal & Consultant Senior, Business Analytics Institute (BAI)

« Quelles problématiques éthiques induites par la Data Science ? »

Les considérations éthiques ont peu à voir avec les données elles-mêmes, mais dans la manière dont elles sont utilisées pour répondre aux défis commerciaux et sociaux. Les entreprises utilisent aujourd’hui les données et l’analytique pour automatiser les processus métier, étudier le comportement des consommateurs, créer de nouveaux produits et services et influer sur les actions individuelles et collectives. Alors que l’étude de l’éthique visait traditionnellement à tracer une ligne de démarcation entre ce qui est bien et ce qui est condamnable, la pratique de l’éthique des données cherche à éveiller notre perception par rapport aux pratiques acceptables de traitement des données.

En développant notre propre cadre d’éthique des données, nous explorons comment l’intelligence artificielle conditionne l’agence humaine, les conséquences des biais implicites, les limites de la gouvernance par les chiffres, les dangers de la dérive sémantique et le paradoxe de l’innovation. Répondre à ces questions devient un impératif essentiel, tant pour les entreprises que pour les consommateurs, à mesure que l’apprentissage machine (ML) et l’intelligence artificielle (IA) deviennent parties intégrantes des processus d’entreprise.

L’Institut d’intelligence artificielle centrée sur l’homme (HAI) de l’Université de Stanford est un excellent exemple de la difficulté et de l’importance de l’examen des biais éthiques. Partant du principe que « les concepteurs de l’IA doivent être largement représentatifs de l’humanité », l’Université a lancé l’Institut l’année dernière pour « faire progresser la recherche, l’éducation, les politiques et les pratiques en matière d’IA afin d’améliorer la condition humaine ». Pourtant, lorsque l’Institut a révélé les 120 professeurs et chefs de file de la technologie à la tête de l’initiative, tous étaient formés dans les meilleures écoles de commerce et d’ingénierie du monde, plus de 80 % étaient blancs, avec presque autant d’hommes.

Ce groupe est-il représentatif de la population en général ou des différents courants raciaux, culturels et intellectuels qui ont dominé l’industrie au cours des cinq dernières décennies ? Compte-tenu des similitudes dans leurs parcours et leur éducation, dans quelle mesure sont-ils capables de comprendre la complexité des défis éthiques locaux ? Si l’objectif de la transformation numérique est de transformer les données en actions, agissons-nous pour renforcer le statu quo ou pour promouvoir une diversité plus représentative ou événementielle de croyances souhaitables sur ce que l’avenir peut contenir ?

Ce sont autant de questions qui révèlent à quel point les défis éthiques sont complexes.

1/ Pourquoi est-ce indispensable pour une organisation d’intégrer l’éthique dans sa réflexion autour de la Data ?

Dans une myriade de secteurs et de marchés aujourd’hui, l’avantage concurrentiel découle de la qualité des données disponibles et de la pertinence des pratiques analytiques pour répondre aux défis sectoriels. Dans le même ordre d’idées, la valeur client est étroitement liée à sa perception de la qualité de l’offre de produits et de services organisationnels. La valeur « cliente » est de plus en plus conditionnée par les perceptions de la façon dont les organisations produisent, distribuent et commercialisent leurs produits et leurs services. L’automatisation croissante de ces processus ne déplace pas la responsabilité des enjeux économiques et sociaux potentiels sur les algorithmes et les robots, mais sur les gestionnaires et les organisations qui les ont mis en place.

Les algorithmes n’ajoutent pas de valeur à une entreprise, ce sont les personnes qui le font. Les entreprises investiront 383 milliards de dollars dans l’IA cette année, nous devons comprendre comment et où l’intelligence artificielle améliorera le potentiel humain. L’enquête annuelle 2018 de Deloitte auprès de 1400 adopteurs précoces de l’IA a révélé que 32 % pensaient que les défis éthiques étaient l’une des préoccupations fondamentales de ces investissements, et a cité la propension de l’IA à diffuser de fausses informations, des biais et des dommages à la réputation comme constituant des risques majeurs pour leurs organisations. Les conséquences inattendues de projets comme le chatbot «Tay» de Microsoft ou le micro-profilage de Cambridge Analytica soulignent combien il peut être coûteux d’ignorer l’éthique des données.

L’idée même que l’IA peut améliorer le potentiel humain dépend du degré de confiance que les organisations et les consommateurs ont dans l’objectivité des données, des algorithmes et des scénarios d’utilisation. Les équipes de Direction doivent être en mesure de faire confiance à la façon dont les données de leur organisation sont utilisées, et pourtant, le sondage Trifacta de cette année révèle que 75 % des cadres manquent de confiance dans la pertinence de leurs données. De plus, Kaiser Fung souligne dans un récent article de la Harvard Business Review (HBR) que les personnes qui collectent, stockent et gèrent les données d’une organisation sont rarement tenues à des normes éthiques.

Google, IBM et Salesforce, entre autres, ont désormais explicitement reconnu l’importance de l’éthique numérique dans le développement de leurs propres infrastructures d’information. Alors que nous transformons de plus en plus les entreprises et la « société des atomes » en bits, l’éthique numérique devient bien plus qu’un argument marketing ou une source d’avantage concurrentiel.

Comme l’écrivait récemment la finlandaise Liisa Jaakonsaari, la conception d’un « cadre sur la responsabilité algorithmique et la transparence » est essentielle non seulement pour garantir la concurrence loyale et la libre circulation des informations qui sous-tendent l’économie de marché, mais aussi la vie privée, la confiance et l’équité qui sont essentielles au bon fonctionnement des sociétés numériques.

2/ Concrètement, comment cela se traduit-il ? Avons-nous de bons élèves en la matière (cadre d’application) ?

L’objectif de Data Science est de produire de nouvelles perspectives et de nouvelles connaissances sur la façon dont les individus et la technologie interagissent. L’objectif de l’éthique des données est de développer une sagesse pratique pour guider l’adoption de ces technologies tout en établissant des pratiques commerciales acceptables. Si les connaissances de base de la science des données peuvent être apprises dans un manuel, la sagesse pratique nécessaire pour répondre aux préoccupations éthiques de l’IA vient de l’expérience. Notre objectif commercial ici n’est pas d’encourager les organisations à approuver un « code d’éthique », mais d’encourager leurs managers à explorer à la fois les coûts humains et les avantages de la mise en œuvre de nouvelles générations de technologies de l’information.

Dans la formation, le coaching et le mentorat que propose le Business Analytics Institute (BAI), nous nous concentrons sur les contributions respectives de l’intelligence machine et humaine dans les quatre points cardinaux de la prise de décision managériale : la perception, la prédiction, l’évaluation et l’action.

Nous pensons que cette discussion contribuera au développement d’un état d’esprit managérial autour d’un cadre d’éthique des données pouvant s’appliquer dans le contexte de chaque organisation. Dans chaque cas, nous introduisons ce cadre en utilisant des scénarios réels d’adaptation de l’IA et la valeur de l’analyse pour l’entreprise et le marché.

Comment tenir compte des valeurs humaines dans les systèmes d’information conçus pour favoriser la prise de décision basée sur les données ?

Nous avons constaté que l’un des principaux défis de « l’éthique numérique » est de savoir comment tenir compte des valeurs humaines dans les systèmes d’information conçus pour favoriser la prise de décision fondée sur les données.

L’orientation actuelle de l’IA dans de nombreuses organisations vers l’automatisation de la prise de décision souligne l’importance de cette discussion chaque fois que la “rationalité” est utilisée de façon erronée pour représenter la finalité de l’intelligence humaine. Nous suggérons qu’une des clés pour relever ces défis est de concevoir des pratiques de données qui tiennent compte à la fois de la valeur financière et des valeurs humaines en fournissant une représentation plus globale de la façon dont chaque organisation transforme les données en action.

En déplaçant les discussions autour de l’IA de la réduction des coûts à la promotion de valeur(s), nous pensons que nous pouvons aider les organisations à aligner les contributions respectives de l’intelligence humaine et de la machine dans le succès futur de leur entreprise.

Dr. Lee SCHLENKER est Consultant Senior du Business Analytics Institute (BAI) et Professeur de l’Analytique de Données et de la Gestion Communautaire. Au cours des vingt dernières années, il a dirigé de nombreuses missions pour les grands groupes de conseil dans les secteurs de l’industrie, des télécommunications, des travaux publics et des services. Il est régulièrement sollicité pour apporter son expertise unique lors de conférences internationales pour le compte des sociétés innovatrices telles que Apple, IBM, Oracle, SAP, SAS et Vinci en Europe, en Asie et au Moyen-Orient.

 

Le BAI est partenaire de AEQUITAS & FIDES pour la formation, le coaching et l’accompagnement des entreprises sur tous les sujets liés à la #Data.