Les sociétés ne doivent pas ignorer les défis associés à l’IA

Les récents événements aux États-Unis ont montré que le recours à l’intelligence artificielle peut donner naissance à des problèmes sociaux. Les personnes qui s’intéressent à un sujet tel que « les élections américaines ont été truquées » seront amenées à ne voir que...

Les récents événements aux États-Unis ont montré que le recours à l’intelligence artificielle peut donner naissance à des problèmes sociaux. Les personnes qui s’intéressent à un sujet tel que « les élections américaines ont été truquées » seront amenées à ne voir que des informations sur ce sujet à cause des algorithmes utilisés par les groupes des réseaux sociaux. Ces personnes n’étant pas exposées à d’autres faits et opinions, l’impact de telles informations peut être préjudiciable.

Une étude [1] réalisée par McKinsey montre que les organisations utilisent l’IA comme un outil de création de valeur. Les leaders de son utilisation sont originaires de plusieurs secteurs qui investissent déjà au moins 20 % de leur EBIT dans l’IA.

S’il s’agit d’un signe probant pour les investisseurs, nous sommes intimement convaincus que les entreprises doivent gérer les risques qui accompagnent l’utilisation de l’IA. La même étude montre également qu’une minorité d’entreprises a conscience de ces risques et qu’un nombre encore plus faible s’attache à les réduire. En fait, lors de notre engagement auprès des entreprises sur ces questions, nous les entendons souvent dire que les autorités de tutelle devraient définir des attentes plus claires concernant le recours à cette technologie. Les sociétés tournées vers l’avenir ne doivent pas attendre l’adoption de réglementations, mais assumer dès le départ leurs responsabilités.

Quels sont certains des problèmes sociaux occasionnés ?

Droits civils : Les systèmes d’IA sont de plus en plus utilisés dans des espaces socialement sensibles tels que l’éducation, l’emploi, le logement, la notation de solvabilité, le maintien de l’ordre et la justice pénale. Souvent, ces systèmes sont déployés sans connaissance contextuelle ou sans consentement avisé, menaçant ainsi les droits civils et les libertés. À titre d’exemple, le droit à la confidentialité est menacé, notamment en raison de l’utilisation croissante des technologies de reconnaissance faciale qu’il est presque impossible de supprimer de ces systèmes à base d’IA.

Travail et automatisation : L’automatisation à base d’IA sur le lieu de travail offre le potentiel d’améliorer l’efficacité et de réduire le volume de tâches répétitives. Les métiers devraient changer à mesure de la création d’emplois grâce à l’automatisation dans certains secteurs et le remplacement de salariés dans d’autres. L’IA peut également s’accompagner d’une surveillance accrue de notre travail, ce qui signifie que les entreprises doivent veiller à ce que leurs salariés soient pleinement conscients des méthodes de contrôle et d’évaluation utilisées. Un autre exemple plus particulièrement associé au secteur technologique est le travail dissimulé de personnes qui contribuent à développer, à maintenir et à tester les systèmes d’IA. Cette catégorie de tâches invisibles répétitives et souvent peu reconnues, souvent baptisées « travail au clic », est rémunérée à la tâche et fréquemment sous-payée.

Sécurité et responsabilité : L’IA se voit déjà confier des tâches décisionnelles au sein de nombreux secteurs, dont les services financiers, les hôpitaux et les réseaux électriques. En raison des pressions à l’innovation, divers systèmes d’IA ont été déployés avant que leur sécurité technique ne soit garantie. Le véhicule autonome d’Uber qui a tué une femme et le système IBM de recommandation de traitements peu sûrs et incorrects contre le cancer sont des exemples d’approches basées sur l’IA qui peuvent mal tourner. Dans la mesure où des accidents peuvent survenir, la supervision et la responsabilité sont essentielles si l’on veut que les systèmes d’IA deviennent des décisionnaires clés au sein de nos sociétés.

Biais : Le problème le plus couramment abordé concernant les systèmes à base d’IA est qu’ils sont propices à générer des biais susceptibles de refléter, voire de renforcer, les préjugés et les inégalités sociales. Ces biais peuvent provenir de données qui reflètent des discriminations existantes ou qui sont sous-représentatives de la société moderne. Même si les données sous-jacentes ne présentent pas de biais, leur déploiement peut conduire à un encodage des biais de diverses manières. Un rapport publié par l’UNESCO [2] a montré que les assistants vocaux fonctionnant à base d’IA (d’Alexa d’Amazon à Siri d’Apple) augmentent les biais en matière de genre. D’après ce rapport, ces assistants vocaux fonctionnant à base d’IA utilisent des voix féminines par défaut et sont programmés de telle manière qu’ils laissent supposer une soumission des femmes. Aujourd’hui, les femmes ne représentent que 12 % des chercheurs en IA et seulement 6 % des développeurs de logiciels. Dans la mesure où les ingénieurs en IA sont principalement des techniciens masculins, un biais propre à leurs valeurs et à leurs croyances peut être intégré à la conception d’applications. Par ailleurs, l’utilisation des mauvais modèles ou de modèles présentant des fonctionnalités par inadvertance discriminatoires peut donner lieu à un système biaisé. Une autre question associée aux biais est le problème de la « boîte noire », à savoir qu’il est impossible de comprendre les étapes franchies par le système à base d’IA pour parvenir à certaines décisions, ce qui peut donner naissance à un biais inconscient. Enfin, un biais intentionnel pourrait être intégré aux algorithmes.

La modération du contenu sous le feu des projecteurs

Les plateformes de réseaux sociaux utilisent des algorithmes de modération de contenu et des équipes de contrôle constituées d’êtres humains afin de vérifier les commentaires des utilisateurs sur la base d’une série déterminée à l’avance de règles et de lignes directrices. La tâche de modération de contenu nécessite une forte résistance psychologique : elle n’est souvent pas adaptée au télétravail avec des membres de la famille dans la pièce, ce qui signifie que pendant la pandémie de Covid-19, les entreprises ont dû diminuer les volumes de contenus susceptibles d’être contrôlés.

La pertinence et l’importance de la modération du contenu est apparue clairement dans la campagne #StopHateForProfit soulignant la rentabilité des discours toxiques et de la désinformation sur Facebook. La campagne a incité plus de 1 000 annonceurs, dont de grands acteurs tels que Target, Unilever et Verizon, à boycotter les publicités Facebook en juillet 2020. La priorité accordée à la modération de contenu a été maintenue jusqu’aux élections américaines et a pris la forme de lignes directrices et de procédures plus strictes mises en place au sein de l’ensemble des principaux groupes spécialisés dans les réseaux sociaux.

L’investissement nécessite un engagement

Pour les raisons susmentionnées, nous avons lancé un thème d’engagement sur l’impact social de l’intelligence artificielle en 2019. Dans une perspective d’investissement, nous observons de grandes opportunités au sein de cette tendance. Des informations plus approfondies concernant l’intelligence artificielle en tant qu’opportunité d’investissement sont disponibles dans le livre blanc publié par notre équipe d’investissement thématique en décembre 2016. Toutefois, nous avons également reconnu que l’IA peut avoir des effets indésirables contre lesquels les entreprises présentes dans nos portefeuilles doivent lutter. Nous avons demandé aux sociétés de réaliser 5 tâches :

  1. Développer et publier des politiques claires concernant l’utilisation, l’achat et le développement de l’intelligence artificielle qui abordent de manière explicite les répercussions sociétales et en matière de droits de l’homme.
  2. Réaliser des analyses d’impact périodiques de leurs activités liées à l’IA. Ces analyses doivent porter sur les résultats discriminatoires, les biais sociaux, le travail dissimulé et les craintes en matière de confidentialité.
  3. Mettre en place de solides dispositions en matière de gouvernance compte tenu des complexités du contrôle du « machine learning ». La société doit maintenir des processus de contrôle qui identifient les incidents et les risques associés aux conséquences indésirables de l’IA. Le conseil d’administration doit être suffisamment formé et expérimenté afin de superviser de manière substantielle l’environnement de contrôle de l’IA et de valider les politiques IA et les rapports sur les risques.
  4. Tenir compte des problèmes sociaux occasionnés par l’IA lors de l’étape de conception et de développement. Cela signifie, entre autres, que les équipes de développement de l’entreprise doivent disposer de suffisamment de connaissances des droits de l’homme et de la déontologie. Afin d’atténuer les biais sociaux, l’entreprise doit également encourager la diversité et l’inclusion au sein de ses équipes spécialisées dans l’IA.
  5. Adopter une approche faisant participer de multiples partenaires dans le cadre du développement et de l’utilisation de l’IA par la société. Plusieurs initiatives et plateformes sont disponibles afin de partager et de promouvoir les meilleures pratiques. Nous attendons également des entreprises qu’elles produisent des rapports sur leurs activités de lobbying liées à la législation en matière d’IA.

Une prise de conscience bien plus grande est nécessaire

Courant 2020, nous avons dialogué avec la plupart des entreprises de notre groupe d’engagement. Lors de nos conversations initiales, certaines entreprises ont remis en cause la pertinence de cette question ou n’en assument pas la responsabilité. Le point de vue de certaines d’entre elles semble déjà changer quelque peu.

La saison des votes à l’assemblée générale pour l’année 2020 a fait état d’un nombre croissant de propositions actionnariales relatives aux droits de l’homme numérique. Robeco a codirigé l’établissement d’une proposition actionnariale lors de l’assemblée générale annuelle du groupe Alphabet demandant la création d’un comité de Supervision du risque propre aux droits de l’homme, composé d’administrateurs indépendants dotés de l’expérience nécessaire. Quelques 16 % des actionnaires ont voté en faveur de notre résolution, soit une part significative des votes des actionnaires minoritaires.

Lors de la 1ère semaine du mois de novembre, Alphabet a annoncé une mise à jour de la Charte de son Comité d’audit qui comporte désormais l’examen des principales expositions aux risques liés au développement durable et aux droits civils et humains. Cette nouveauté est en accord avec notre demande de formalisation de la supervision du conseil et constitue une première étape dans sa mise en œuvre sur des questions spécifiques en matière de durabilité, telles que les droits de l’homme.

À l’avenir, l’utilisation de l’intelligence artificielle ne fera qu’augmenter et influencer dans une large mesure nos vies et notre travail. Dès lors où la morale et l’éthique ne peuvent pas être programmées, nous sommes convaincus que les sociétés doivent assumer leurs responsabilités. Mais un long combat reste encore à mener.

Daniëlle Essink , Masja Zandbergen , 2 février

Notes

[1] Étude réalisée à l’échelle mondiale : « The state of AI in 2020 » | McKinsey

[2] « Artificial intelligence and gender equality : key findings of UNESCO’s Global Dialogue », août 2020

Partager
Envoyer par courriel Email
Viadeo Viadeo

Focus

Stratégie La thématique des infrastructures à la lumière de l’investissement responsable

Investir dans le domaine des infrastructures en adoptant une approche sélective fondée sur des critères environnementaux, sociaux et de gouvernance (ESG), c’est financer les entreprises qui ont une démarche ESG vertueuse, qui permettent par exemple de (...)

© Next Finance 2006 - 2021 - Tous droits réservés