Appels à la retenue    Air Algérie Annulation de vols    ERP, entreprise ressources planning, une solution vers un maillage structurel en vue d'une bonne gouvernance par la numérisation    Plus de 870.000 quintaux d'olives cueillis depuis le début de la campagne oléicole    Berlin, Paris et Londres assurent ne pas avoir participé aux frappes contre l'Iran    Les réfugiés soudanais confrontés à leurs propres défis    La CAVB dévoilé le calendrier détaillé de ses compétitions en 2026    Athlétisme : Championnats arabes juniors, du 26 au 30 avril en Tunisie    Les dates et les horaires des matchs fixés    Les étals affichent cette année une stabilité    Echouage d'un bateau de pêche sur la plage « La Crique »    Sinistre à Mostaganem Intervention de la Protection civile pour l'extinction d'un incendie dans un appartement à Debdaba    Ouverture de la 4e édition    La 9e édition s'ouvre aujourd'hui    Symbole incontournable de l'identité religieuse et civilisationnelle de l'Algérie    Hidaoui préside une rencontre avec les jeunes de la wilaya de Souk Ahras    En présence d'une marée humaine, funérailles déchirantes de la collégienne Zahra    «Le nouveau texte vise à consolider le processus démocratique en Algérie»    Programme TV du 4 novembre 2025 : Coupes et Championnats – Heures et chaînes    Programme TV du samedi 25 octobre 2025 : Ligue 1, Bundesliga, CAF et championnats étrangers – Heures et chaînes    Programme TV du 24 octobre 2025 : Ligue 2, Ligue 1, Serie A, Pro League – Heures et chaînes    Festival international du Malouf: fusion musicale syrienne et russe à la 4e soirée    Adhésion de l'Algérie à l'AIPA en tant que membre observateur unique: le Parlement arabe félicite l'APN    Industrie pharmaceutique : nécessité de redoubler d'efforts pour intégrer l'innovation et la numérisation dans les systèmes de santé nationaux    Conseil de sécurité : début de la réunion de haut niveau sur la question palestinienne et la situation au Moyen-Orient    Examen de validation de niveau pour les diplômés des écoles coraniques et des Zaouïas mercredi et jeudi    APN : la Commission de la santé à l'écoute des préoccupations des associations et parents des "Enfants de la lune"    Réunion de haut niveau du Conseil de sécurité sur la question palestinienne et la situation au Moyen-Orient    Boudjemaa reçoit le SG de la HCCH et le président de l'UIHJ    Athlétisme / Mondial 2025 : "Je suis heureux de ma médaille d'argent et mon objectif demeure l'or aux JO 2028"    Ligne minière Est : Djellaoui souligne l'importance de la coordination entre les entreprises de réalisation    Mme Bendouda appelle les conteurs à contribuer à la transmission du patrimoine oral algérien aux générations montantes    CREA : clôture de l'initiative de distribution de fournitures scolaires aux familles nécessiteuses    Poursuite du suivi et de l'évaluation des programmes d'investissement public dans le secteur de la Jeunesse    Agression sioniste contre Ghaza : le bilan s'alourdit à 65.382 martyrs et 166.985 blessés    La ministre de la Culture préside deux réunions consacrées à l'examen de l'état du cinéma algérien    Le Général d'Armée Chanegriha reçoit le Directeur du Service fédéral pour la coopération militaire et technique de la Fédération de Russie    Foot/ Coupe arabe Fifa 2025 (préparation) : Algérie- Palestine en amical les 9 et 13 octobre à Annaba    L'Algérie et la Somalie demandent la tenue d'une réunion d'urgence du Conseil de sécurité    30 martyrs dans une série de frappes à Shuja'iyya    Lancement imminent d'une plate-forme antifraude    Les grandes ambitions de Sonelgaz    La force et la détermination de l'armée    Tebboune présente ses condoléances    Lutte acharnée contre les narcotrafiquants    La Coquette se refait une beauté    Cheikh Aheddad ou l'insurrection jusqu'à la mort    Un historique qui avait l'Algérie au cœur    







Merci d'avoir signalé!
Cette image sera automatiquement bloquée après qu'elle soit signalée par plusieurs personnes.



«Responsabilité algorithmique»
Publié dans Le Soir d'Algérie le 19 - 03 - 2019

Les mathématiciens contemporains ont donné le nom de leur maître, le Perse du IXe siècle, Al-Khwarizmi à l'algorithme dont on retrouve aujourd'hui l'une des applications dans le fonctionnement des ordinateurs.
Pour faire simple, on empruntera à Gérard Berry, chercheur en science informatique, la définition grand public suivante : « Un algorithme, c'est tout simplement une façon de décrire dans ses moindres détails comment procéder pour faire quelque chose. Il se trouve que beaucoup d'actions mécaniques, toutes probablement, se prêtent bien à une telle décortication. Le but est d'évacuer la pensée du calcul, afin de le rendre exécutable par une machine numérique (ordinateur…). »
Aussi, les algorithmes régulent nos vies, avec des finalités diverses telles que le tri, le classement et la prévision, permettant « avec une certaine efficacité d'automatiser des traitements répétitifs à grande échelle, de trier des centaines de milliers de résultats, ou bien de formuler des recommandations après avoir examiné des millions de décisions passées ».
S'il n'y a pas l'ombre d'un doute sur la neutralité des machines, ce n'est pas le cas des algorithmes qui leur servent de matière grise.
Une étude pertinente de 23 pages effectuée par une équipe de chercheurs de Télécom ParisTech liste les biais des algorithmes pouvant conduire à des discriminations dans toutes les sphères où il leur est fait recours : le commerce, l'éducation, l'emploi, etc.(*)
Trois questions motivent leur recherche : par quels mécanismes les biais des algorithmes peuvent-ils se produire ? Peut-on les éviter ? Et, enfin, peut-on les corriger ou bien les limiter ?
Sont en cause ici les biais dont sont conçus les algorithmes et les données qui les nourrissent : « Les biais des algorithmes pourraient être alors définis comme une déviation par rapport à un résultat censé être neutre, loyal ou encore équitable. »
Le biais, nous dit le dictionnaire, est une « distorsion, une déformation systématique d'un échantillon statistique choisi par un procédé défectueux, ou d'une évaluation ».
Qu'il s'agisse d'outils d'aide à la décision pour le choix d'un parcours universitaire, de recommandations de vidéos, de recherches d'information en ligne (moteur de recherche) ou de logiciels intégrés aux véhicules, les algorithmes s'immiscent de plus en plus dans notre quotidien sur une base de confiance d'autant plus large qu'ils sont supposés réunir les qualités de neutralité ou encore d'équité ou de loyauté.
Ces vertus demeurent bien théoriques : « l'actualité quotidienne atteste de nombreux cas de pratiques discriminatoires liées à des algorithmes, volontaires ou involontaires, à l'encontre de certaines populations. Aux Etats-Unis par exemple, des travaux ont mis en évidence que les populations afro-américaines étaient plus souvent pénalisées par les décisions de justice qui s'appuient sur le recours aux algorithmes. Ces mêmes populations sont également plus discriminées sur les plateformes populaires de locations d'appartement en ligne. Enfin, des publicités ciblées et automatisées en ligne relatives aux opportunités d'emploi dans les domaines des sciences, de la technologie, de l'ingénierie et des mathématiques aux Etats-Unis seraient plus fréquemment proposées aux hommes qu'aux femmes ».
Les biais incriminés sont de trois types :
- primo, les biais cognitifs dont de nombreuses recherches en psychologie et sciences cognitives montrent l'existence dans la prise de décision. A ce titre, un type de biais connu est le biais de stéréotype. Ce dernier peut survenir lorsqu'un individu agit en référence au groupe social auquel il s'identifie plutôt que sur ses capacités individuelles ;
- secundo, les biais statistiques : « Un exemple frappant est l'algorithme mis en place à partir de 2015 par Amazon pour faciliter le recrutement de talents. L'algorithme utilisait des données de centaines de milliers de curriculum vitae (CV) reçus par Amazon au cours des dix dernières années en vue de noter de nouvelles candidatures. L'algorithme attribuait une note allant de 1 à 5 étoiles, à l'image de l'évaluation de produits sur Amazon. L'utilisation de l'algorithme a été rapidement suspendue en raison de son incapacité à sélectionner les meilleurs candidats et sa propension à discriminer les femmes. » L'algorithme en question, censé faciliter le recrutement, attribuait fréquemment de mauvaises notes à des femmes pourtant qualifiées et en adéquation avec les postes à pouvoir. De la même manière, l'algorithme utilisé par la justice américaine pour prévoir la probabilité de récidive d'une personne inculpée surévaluait le risque de récidive des Afro-américains et sous-évaluait celui des Blancs ;
- tertio, les biais économiques : «Les algorithmes peuvent être biaisés volontairement ou involontairement pour des raisons économiques, de prix et de coût.»
- les biais peuvent être également dus à des manipulations volontaires de la part des entreprises. Ce phénomène est connu sous le nom de « search engine manipulation ».
Trois enjeux de société s'articulent autour des biais des algorithmes.L'intelligence artificielle est souvent vue comme une menace pour l'emploi, le respect de la vie privée ou le contrôle des décisions prises par des systèmes perçus comme des boîtes noires. Aussi, « l'intelligence artificielle ne tiendra ses promesses que si les enjeux d'équité, d'interprétabilité, d'explicabilité et de responsabilité sont considérés au même niveau que la recherche d'efficacité. »
Le concept d'interprétabilité est en particulier soutenu par un programme ambitieux de l'agence du département de la Défense des Etats-Unis (DARPA) : « Ces recherches s'orientent sur le développement de méthodes qui aident à mieux comprendre ce que le modèle a appris ainsi que des techniques pour expliquer les prédictions individuelles. »
Le concept d'explicabilité se réfère à la nécessité d'expliquer aux utilisateurs finaux comment et pourquoi un résultat a été obtenu. Il est particulièrement souligné ici « la conformité au droit et à la régulation. Un résultat doit pouvoir être contesté en cas de défaut, de discrimination et autres. Depuis l'entrée en vigueur du Règlement général sur la protection des données (RGPD) en Europe, les personnes ont le « droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l'affectant de manière significative de façon similaire ». Le RGPD stipule également que, pour les décisions automatisées basées sur des données à caractère personnel, les personnes ont le droit de « demander une explication de la décision [algorithmique] prise à l'issue de cette évaluation et de contester la décision. »
Les menaces qui pèsent sur les libertés individuelles et collectives ont été auparavant recensées et explicitées par la mathématicienne américaine Cathy O'Neil dans son ouvrage Weapons of Math Destruction, publié en 2016 et traduit en français en 2018 sous le titre Algorithmes : la bombe à retardement (aux éditions Les Arènes) : « Aujourd'hui, les modèles mathématiques et les algorithmes prennent des décisions majeures, servent à classer et catégoriser les personnes et les institutions, influent en profondeur sur le fonctionnement des Etats sans le moindre contrôle extérieur. Et avec des effets de bords incontrôlables. »
Aussi, reste-t-il à faire jouer la transparence ou l'auditabilité des algorithmes afin de surmonter « l'idée selon laquelle les algorithmes sont opaques et des boîtes noires ».
Il se dessine en bout de course une «responsabilité algorithmique » selon laquelle « une personne ou une organisation légalement responsable du préjudice doit fournir une explication ou une compensation au préjudice subi ».
A. B.
(*) Patrice Bertail, David Bounie, Stephan Clémençon, Patrick Waelbroeck, Algorithmes : biais, discrimination et équité, Télécom ParisTech, Paris, 14 février 2019
https://www.telecomparistech.fr/fileadmin/documents/pdf/Recherche/Algorithmes_-_Biais__discrimination__equite.pdf


Cliquez ici pour lire l'article depuis sa source.