En bouleversant les organisations, les algorithmes d’intelligence artificielle (IA) ont révélé des vulnérabilités jusqu’alors inconnues. C’est la raison pour laquelle un encadrement législatif concernant leur utilisation est demandé avec de plus en plus d’insistance.

Qu’est-ce qu’un algorithme ? La CNIL donne comme définition « la description d’une suite d’étapes permettant d’obtenir un résultat à partir d’éléments fournis en entrée ». C’est donc une liste d’opérations nécessaires pour, par exemple, calculer les annuités de remboursement d’un prêt ou encore reconnaître un objet photographié.

Les menaces provenant d’algorithmes

Les algorithmes ont un usage dual, c’est-à-dire à la fois civil et militaire. Leur utilisation par des civils a néanmoins la spécificité de générer des menaces permettant d’obtenir un avantage en situation de guerre (économique). En témoigne l’usage « double » visible sur le réseau social TikTok. Alors que cette application de partage de vidéos a libéré de nouveaux modes d’expression au sein de la population chinoise, par exemple lors du mouvement « tang ping » (refus par la jeunesse de la société de consommation), elle a aussi permis au service de modération de surveiller ce qui se dit en ligne, d’occulter à l’aide des algorithmes de diffusion les comptes traitant des effets de l’épidémie de COVID 19 sur la population civile, de diffuser des vidéos promouvant l’idéologie sociale et enfin de créer des faux comptes pour acquérir plus d’information sur la façon dont les gens pensent.[1]

Ces menaces relèvent de trois catégories. Il peut d’abord s’agir de « biais », c’est-à-dire d’un traitement différent d’un élément après modification de sa valeur. Un phénomène de ce genre fait l’objet d’une étude[2] publiée récemment par l’université d’Harvard et Accenture. Elle révèle comment les algorithmes d’évaluation des candidatures maintiennent à l’écart les demandeurs d’emploi âgés ou présentant une période d’inactivité à la suite d’une incarcération ou d’une prise en charge médicale. Le second risque concerne les manipulations. En 2020, un moteur de recherche coréen, Naver, a écopé d’une amende de 20 millions d’euros pour avoir falsifié son algorithme à son profit. L’espionnage est la troisième menace. La NSA a pu collecter automatiquement grâce à l’algorithme Skynet les données de citoyens américains suspectés de terrorisme.

En plus d’un usage délibérément malveillant, des menaces naissent du fonctionnement autonome des programmes algorithmiques. Ceux-ci n’ont pas l’obligation de justifier leur logique comme le ferait censément tout travailleur humain. En identifiant automatiquement en 2017 une catégorie d’utilisateurs qualifiés de « Jew haters », l’algorithme de Facebook a respecté à la lettre ses consignes de programmation : trouver les centres d’intérêts communs de comptes pour les mettre en relation. Des solutions comme des « audits algorithmiques » pour en expliciter les calculs par des inspecteurs indépendants ainsi que l’édition de normes éthiques comme Trustworthy AI sont actuellement à l’étude.

Une première règlementation portée par l’Union européenne

Ces solutions doivent s’appuyer sur une législation chargée de sauvegarder la liberté et la sécurité on line. L’Union européenne a été pionnière sur cette question. L’article 22 du Règlement général sur la protection des données (RGPD) accorde le droit de ne pas faire l’objet d’une décision prise de manière automatique sans avoir été prévenu(e). Son règlement « Platform to Busines », entré en application en juillet 2020, oblige les « services d’intermédiation en ligne » (comme Amazon ou Google) à documenter le paramètre (ou les paramètres les plus importants) pour classer et recommander des produits.

Adoptés par le Conseil européen le 25 novembre dernier, les règlements Digital Service Act et Digital Market Act prévoient d’obliger les acteurs usant d’algorithmes d’informer leurs utilisateurs du traitement de leurs données. Le fonctionnement des algorithmes sera encadré par un organisme européen. Celui-ci a déjà lieu en France : la loi du 24 août 2021 mandate le Conseil Supérieur de l’Audiovisuel (CSA) pour inspecter les algorithmes servant à la diffusion d’infox. Enfin, en avril 2021, la Commission européenne a annoncé la création d’un règlement similaire au RGPD portant sur l’IA.

Pour une régulation à l’échelle mondiale

Pour être efficace, la gouvernance des algorithmes doit être internationale. Une résolution du Parlement européen datant de janvier 2021 notait que, dans le cyberespace, ceux-ci fonctionnent « par delà les frontières ». Les documents de Facebook révélés par Frances Haugen renseignent que ses algorithmes de modération avaient des niveaux d’entraînement différents selon la langue paramétrée. Les fausses nouvelles originaires du Yémen ou du Myanmar étaient ainsi bien moins identifiées que celles provenant de comptes anglophones.

La gouvernance mondiale des algorithmes rencontre néanmoins deux obstacles. Le premier est l’absence d’accords internationaux limitant le comportement des États dans le cyberespace. Le second est l’importance des firmes privées, américaines, chinoises ou d’autres nationalités, disposant de moyens de recherche et de développement comme de contrôle du Net nettement supérieurs à ceux d’États souverains. Ces entreprises, aussi puissantes soient-elles, restent toutefois assujetties à la législation de leur pays d’origine. Ainsi, les firmes chinoises sont tenues de faire du renseignement pour la République Populaire de Chine.

Des institutions transnationales commencent à énoncer des règles d’utilisation. En mai 2019, l’OCDE a émis des recommandations pour encadrer le fonctionnement des algorithmes. Le Conseil de l’Europe a présenté en mai 2020 ses lignes directrices pour des systèmes algorithmiques respectueux des droits de l’homme. Le 25 novembre 2021, l’UNESCO a annoncé la signature d’un accord instaurant un usage éthique de cette technologie par ses 193 États membres. Il définit quatre principes fondamentaux parmi lesquels le refus de la surveillance et de la notation sociale de masse ainsi que la possibilité de surveiller les outils fonctionnant à l’aide de l’IA pour, le cas échéant, prendre des mesures. La création le 14 septembre 2021 de GlobalPolicyAI, qui associe huit organisations, dont la Commission européenne, l’OCDE et l’UNESCO, facilite cette gouvernance. Son objectif est de promouvoir les recherches ainsi que les pratiques vertueuses en matière de contrôle de l’IA pour être réappliquées.

La limitation de l’utilisation des algorithmes a par ailleurs été discutée par les membres des Nations-Unies ayant participé à l’Open-Ended Working Group (OEWG). Cette réunion s’est déroulée sous forme de sessions de discussions pendant les mois de septembre 2019, de février 2020 et de mars 2021. C’est la première tentative de coopération à l’échelle mondiale pour pacifier autant que possible l’usage des technologies de l’information et de la communication (TIC) auxquelles appartiennent les algorithmes. À l’issue de ces réunions, les membres ont reconnu la gravité des menaces cyber et l’importance de la coopération internationale pour s’en protéger.

Les signataires s’engagent à adopter des normes éthiques non-contraignantes (non-binding norms) et à appliquer des mesures pour maintenir la confiance (confidence building measure) pour neutraliser les menaces cyber identifiées. Pour les appliquer, les signataires prévoient de se doter de structures pour se défendre contre un usage malveillant des TIC et dialoguer notamment pendant l’Internet Governance Forum (IGF). Un exemple de ces structures est fourni en France par le Pôle d’Expertise de la Régulation Numérique (PEReN). Ce centre de recherche appartenant à la Direction Générale des Entreprises (DGE) étudie l’utilisation des technologies numériques par les entreprises privées et s’intéresse tout spécifiquement aux algorithmes (avec la collaboration de l’INRIA).

La gouvernance des algorithmes à l’échelle mondiale n’en est donc qu’à ses débuts. Elle pose de nombreuses questions sur la responsabilité des entreprises privées, la coopération internationale dans le cyberespace et enfin l’autonomie humaine à l’égard des algorithmes. La seule certitude à l’heure actuelle est que leurs réponses viendront de la collaboration des pouvoirs publics avec les chercheurs et les ingénieurs issus de laboratoires publics comme privés et enfin la société civile.

[1] LES OPÉRATIONS D’INFLUENCE CHINOISES, IRSEM, octobre 2021

[2] HIDDEN WORKERS: UNTAPPED TALENT, Accenture & Harvard Business School, 2021

Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.
Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.