Le Conseil de sécurité échoue à adopter un projet de résolution concernant l'adhésion de l'Etat de Palestine à l'ONU    Le Président-directeur général du quotidien "El Djoumhouria" relevé de ses fonctions    Rencontres bilatérales entre M. Attaf et ses homologues brésilien et jordanien à New York    Le secteur des moudjahidine "déterminé à poursuivre l'actualisation des textes juridiques et réglementaires"    Le Général d'Armée Saïd Chanegriha reçoit le président du Comité militaire de l'Otan    Coup d'envoi de la célébration du mois du patrimoine    Rencontre d'évaluation du Plan de prise en charge des malades atteints de cardiomyopathie hypertrophique obstructive    Mois du patrimoine : un concours national pour le meilleur projet architectural alliant tradition et modernité    La révision des programmes scolaires a atteint un "stade très avancé"    Coupe d'Algérie 2023-2024 (demi-finales) : MC Alger-CS Constantine à huis clos    Inauguration du Centre national de regroupement et préparation des talents et élite sportive de Fouka    CNEP-Banque ouvre à Béchar une nouvelle direction régionale    Agression contre Ghaza: 33.970 martyrs et 76.770 blessés, selon un nouveau bilan    Ouverture du 1er séminaire sur "Les tribunaux de commerce spécialisés"    Reddition d'un terroriste à Bordj Badji Mokhtar et arrestation de 10 éléments de soutien aux groupes terroristes en une semaine    Football : le sélectionneur national assiste à une partie de l'entraînement du CSC    Le projet du périmètre irrigué par les eaux recyclées, une phase importante de la stratégie nationale du secteur    BM/FMI : Faid participe aux travaux des réunions de printemps à Washington    Production prévisionnelle de plus de 4 millions quintaux de pomme de terre saisonnière    L'OM Annaba vise le 2e tour    Manchester City passe à l'action pour Ryan Aït Nouri    Défaite du WA Tlemcen face à Al Nasr    Toutes les structures prêtes pour la réussite de la saison du Hadj-2024    Les objectifs réels d'Eric Zemmour aidé par Jean Messiah (II)    Impacts géostratégiques et énergétiques    Saisie de 4,55 g de drogue dure (kétamine), une arrestation à Aïn Nouissy    Démantèlement d'une bande de cambrioleurs    Plus de 152.000 colis alimentaires distribués durant le mois de Ramadhan    Le mouvement «Peace Now» qualifie de «fasciste» la formation par Ben Gvir d'une unité spéciale pour poursuivre ses activistes en Cisjordanie    Rencontre sur le programme d'économie sociale et solidaire    Trois hauts cadres d'ATM Mobilis derrière les barreaux    La bibliothèque de cheikh Benbadis remise à titre wakf à « Djamaâ El-Djazaïr »    Soixante-dix nouveaux films en compétition    Mustapha Ramdane, homme de lettre et réformateur apprécié dans la vallée du M'zab    Rendre nos lois plus claires    Le correspondant de presse Abdallah Benguenab n'est plus        Le Président Tebboune va-t-il briguer un second mandat ?    L'ORDRE INTERNATIONAL OU CE MECANISME DE DOMINATION PERVERSE DES PEUPLES ?    L'imagination au pouvoir.    Le diktat des autodidactes    Prise de Position : Solidarité avec l'entraîneur Belmadi malgré l'échec    Coupe d'afrique des nations - Equipe Nationale : L'Angola en ligne de mire    Suite à la rumeur faisant état de 5 décès pour manque d'oxygène: L'EHU dément et installe une cellule de crise    Pôle urbain Ahmed Zabana: Ouverture prochaine d'une classe pour enfants trisomiques    El Tarf: Des agriculteurs demandent l'aménagement de pistes    Ils revendiquent la régularisation de la Pension complémentaire de retraite: Sit-in des mutualistes de la Sonatrach devant le siège Aval    L'évanescence de la paix    







Merci d'avoir signalé!
Cette image sera automatiquement bloquée après qu'elle soit signalée par plusieurs personnes.



L'histoire exemplaire de l'intelligence artificielle (1re partie)
Publié dans Le Soir d'Algérie le 07 - 11 - 2021


Par le Pr Baddari Kamel(*)
Jamais une discipline scientifique, au même titre que l'informatique qui lui est sous-jacente, n'a connu un progrès aussi fulgurant que l'intelligence artificielle (IA). Elle est devenue, en l'espace de quelques dizaines d'années, une science à part entière avec son langage et ses propres méthodes.
Elle a remotivé les chercheurs et les industriels dans nombre de domaines en leur fournissant les outils nécessaires à la sortie des difficultés sur lesquelles ils butaient. Dans cette contribution, il sera question de l'histoire de cette discipline devenue mature, malgré son jeune âge.
Un point d'histoire de l'IA
Comme toute science à ses débuts, l'IA a connu des hauts et des bas depuis son avènement en 1956. Déjà en 1958, on avait prédit qu'un programme informatique aura un jour la performance d'un maître d'échecs. Plus tard, effectivement, un programme soviétique a triomphé d'un programme nord-américain lors du congrès IFIP 1974 de Stockholm ; pourtant, durant ces années, en URSS, l'informatique était considérée comme un outil entre les mains de la bourgeoisie, ce qui a d'ailleurs retardé son développement grand public dans ce pays, comme quoi le développement de la recherche scientifique et l'innovation sont indissociables de leurs contextes politique et culturel. Plus tard, la Russie s'est rattrapée pour devenir une puissance en la matière. Une journaliste scientifique américaine avait usé, dans les années 80, d'un comparatif loin d'être burlesque, portant sur le rapprochement des intelligences de l'homme et de la machine, en disant que «les raisons invoquées aujourd'hui pour argumenter l'infériorité de l'intelligence des ordinateurs par rapport à l'intelligence des êtres humains sont exactement les mêmes que celles que l'on utilisait au XIXe siècle pour démontrer que les femmes ne seraient jamais les égales intellectuelles de l'homme».
À l'heure actuelle, les communautés scientifiques s'interrogent sur la supériorité de la machine sur l'homme, malgré les progrès immenses réalisés par l'IA.
Epoque 1 - (Avant l'an 2000)
Balbutiements et naissance de l'IA
1950 : Publication d'un article de Alan Turing, «Computing Machinery and intelligence», visant à mettre au point une méthode pour définir la conscience d'une machine. Cette méthode est connue aujourd'hui sous l'appellation de «Test Turing», fort bien connue chez les informaticiens.
1956 : Conférence de Dartmouth aux Etats-Unis, à l'issue de laquelle une déclaration sur l'IA a été proclamée comme étant un domaine scientifique à part entière. Cette conférence a réuni les pionniers de l'IA, à savoir John McCarthy et Marvin Lee Minsky du Massachusetts Institute of Technology (MIT) et deux scientifiques, Claude Shannon et Nathan Rochester d'IBM.
1960 : Implication des travaux de recherche dans de grands laboratoires pour le développement du domaine de l'IA.
Il faut à cet effet souligner que les années 1950 à 1960 sont aux USA une période qui favorise la recherche scientifique et technologique pour diverses raisons, parmi lesquelles la guerre froide avec les pays de l'Est qui, plus est, allait être revigorée par l'explosion de la 1re bombe atomique soviétique en 1949 ainsi qu'avec le choc de la fusée Spoutnik en 1957. C'est pour ces raisons que des crédits importants étaient alloués à des sociétés pour tester les idées les plus folles.
Epoque 2 - (1974 – 1990)
Baisse d'intérêt, malgré les systèmes experts
1974 : Période nommée le «AI Winter» où le domaine a connu une baisse d'intérêt et de financement au niveau mondial.
1980 : Réintégration des projets de l'IA grâce aux systèmes experts.
Durant cette période, un projet japonais de nom ICOT, portant l'intitulé «La cinquième génération, le pari de l'IA à l'aube du XXIe siècle», a été annoncé. Le projet fait suite à l'article «Machines Who Think» de la journaliste américaine Pamela McCorduck. Il promettait la mise en œuvre d'un ordinateur entièrement intelligent pour l'année 1988. Nous savons par la suite que ce projet n'a pas donné les résultats escomptés. Il s'agissait d'une tentative au but inavoué de réveiller un marché à fort potentiel, mais qui n'arrivait pas à décoller, et interpellait brillamment aussi bien les industriels que les cercles scientifiques.
Epoque 3 - (1990 – 2000)
Incertitudes et espoirs
1990 : Début de l'exploitation de l'IA sur le terrain.
1997 : Redéploiement de l'IA grâce au supercalculateur «Deep Blue» d'IBM, d'architecture parallèle.
Epoque 4- (Après l'an 2000)
Grâce à l'informatique
Cette quatrième époque de l'IA se caractérise par son impact sur la société et sur divers domaines (l'informatique, la musique, les films...).
Les périodes marquantes durant cette époque sont :
Début des années 2000 : L'utilisation de l'IA dans les films de science-fiction pour réaliser des scénarii proches de la réalité.
2001-2010 : Implication de l'IA dans la société grâce au développement de l'informatique.
Après 2010 : Développement de nouveaux processus, le « Machine Learning », et leur utilisation dans les domaines vitaux de la société (médecine, commerce, réseaux sociaux, gouvernance...).
Alors, qu'est-ce que l'IA ?
Définir l'IA n'est pas une mince affaire. L'IA est un domaine vaste qui comprend plusieurs axes et diverses définitions, selon le point de vue où l'on se place. Généralement, on pourrait dire que l'IA est un système construit autour de données et d'algorithmes d'apprentissage en vue d'effectuer des prédictions. Dans Facebook ou Youtube, l'algorithme d'apprentissage se base sur les vidéos regardées et les endroits cliqués par l'utilisateur pour rechercher ses centres d'intérêt (vidéos qui lui seront suggérées, amis à ajouter...).
De façon générale, l'IA vise à développer des machines capables d'accomplir des tâches pour résoudre les problématiques qui se posent à l'homme, autrement dit toute problématique qui fait appel à des procédés cognitifs pour sa solution, tels que : 1/La reconnaissance et la localisation des objets (dans une image, une séquence vidéo...) ; 2/la planification, la réalisation et le contrôle de mouvements robotiques ; 3/la conduite autonome des engins roulants (véhicules,...) ; 4/la détection des symptômes de quelques maladies ; 5/le commerce et les déclarations intelligentes des impôts ; 6/les élections sécurisées ; 7/la justice et les banques, etc.
La réussite de telles tâches est conditionnée par la capacité d'apprentissage de la machine IA dans la mesure où un système intelligent ne peut guère augmenter ses performances ou développer ses compétences de prédiction sans un apprentissage cohérent et constructif. C'est à la manière du cerveau d'un enfant, la seule instruction qu'il a est d'apprendre au risque de détruire pour toujours apprendre.
Le rôle de Noam Chomsky
Noam Chomsky est un mathématicien de haut niveau et pape de la linguistique contemporaine. Il est de nationalité américaine. Versé dès les premières heures dans le développement de l'IA, il est l'un des rares scientifiques mondiaux à n'avoir pas perdu l'espoir dans cette discipline depuis son avènement. Travaillant sur l'analyse du langage naturel dans une approche cognitiviste, il créa dans les années soixante «la grammaire transformationnelle» ou «grammaire générative» qui allait devenir un outil de référence pour les chercheurs dans les années 70, et donna lieu par la suite à d'autres grammaires (réseaux sémantiques, ontologie...). Chomsky considérait que le traitement du langage naturel doit reposer essentiellement sur la syntaxe, ce qui est à notre sens un pari facile à gagner.
La grammaire de Chomsky allait servir aussi bien pour l'analyse des textes que pour la reconnaissance de la parole et de la synthèse vocale. Les écoles françaises, canadiennes et britanniques utilisant entre autres cette grammaire ont fourni des outils pertinents pour le développement de l'IA, principalement le traitement des langages naturels. Abordant la non- concrétisation à ce jour du test de Turing, Chomsky affirme que, sans la compréhension des mécanismes constitutifs du langage humain, l'IA «ne parlera peut-être jamais notre langage» !
L'IA d'aujourd'hui
L'IA a connu une période de latence, voire d'incertitude jusqu'en 2000.
À partir de cette date, des chercheurs, considérés comme les pionniers du «Machine Learning» (Yoshua Bengio, Geoffrey Hinton, et Yann Le Cun), allaient sauver la discipline. Partant des travaux de plusieurs chercheurs, ils allaient redorer le blason de cette discipline grâce à l'utilisation des réseaux de neurones artificiels auparavant mis au point par Frank Rosenblatt en 1957. Malheureusement, pour des raisons de capacité de calcul des ordinateurs qui ne permettaient pas d'entrevoir le développement d'applications nécessitant justement une puissance de calcul et une grande capacité de stockage de l'information, l'IA allait de nouveau connaître une période de somnolence.
Il a fallu attendre le début des années 2010 avec l'essor des Big Data et du traitement en parallèle pour qu'elle dispose enfin des conditions de son épanouissement, à savoir la puissance de calcul et le stockage des données dans le Cloud ou autres.
Le connexionnisme est né. Il permet à un réseau de neurones, dont le fonctionnement s'inspire des neurones du cerveau humain, d'apprendre à reconnaître des objets sur des images, inférer sur des textes... et de fil en aiguille, rendre plus fins ses raisonnements et ses argumentations. De nos jours (2021), les réseaux de neurones ne cessent de s'améliorer pour être au cœur de la recherche scientifique. Ils sont utilisés dans le «Machine Learning» dont une sous-catégorie est appelée l'apprentissage profond ou «Deep Learning», le plus répandu actuellement. Il repose sur des algorithmes bien élaborés permettant au réseau de neurones d'apprendre sur des exemples pour s'entraîner à effectuer des prédictions.
Les exemples sont préalablement étiquetés pour que le réseau puisse savoir de quoi il s'agit.
À titre d'exemple, un réseau de neurones peut être utilisé pour apprendre à reconnaître un objet tel qu'une voiture, une moto ou une plaque de signalisation... Pour ce faire, si on considère l'exemple d'une voiture, on présente au réseau un grand nombre de voitures et l'algorithme se met à apprendre à reconnaître cette voiture sur de nouvelles images représentant des voitures de tout genre.
Ainsi, en analysant des milliers de photos de voitures, le réseau de neurones artificiel apprendra à reconnaître une voiture donnée sur n'importe quelle photo qui lui sera présentée. C'est la phase d'apprentissage capitale pour l'IA.
Les niveaux faible et fort de l'IA ?
De par les possibilités et le niveau d'intelligence intégré dans une machine (un robot par exemple), on distingue essentiellement deux types : l'IA faible et l'IA forte. La première est utilisée pour effectuer des tâches précises. Elle est experte dans un domaine précis comme d'ailleurs un système expert. Sortie de son domaine de prédilection, elle devient inutile.
C'est la seule qui existe pour l'instant. Elle agit de la manière dont elle a été programmée. Son handicap est qu'elle ne possède pas de sens commun à l'image de l'être humain. Elle est modélisée par une machine capable de percevoir les composantes de son environnement et de prendre des décisions en fonction d'observations effectuées sur la base de ces perceptions. L'exemple le plus connu est le «Deep Blue» de la société IBM qui a battu le champion d'échecs Garry Kasparov en 1996. Ce type de machines est le plus ancien. Elle est aussi modélisée par une machine à base d'images qui s'appuie sur des représentations du monde réel (le monde effectif tel qu'il existe) pour prendre une décision.
La conduite autonome de voitures en est un exemple. Une voiture autonome étant dotée d'un ensemble de représentations de son environnement à un instant donné, lui donnant la capacité d'ajuster sa vitesse ou sa trajectoire en fonction des éléments qu'ils enregistrent en temps réel tels que l'état du trafic, la situation de la route, les plaques de signalisation, le climat...
Quant à l'IA forte qui fait actuellement l'objet d'une recherche intensive dans quelques pays, elle a l'ambition de créer des machines qui seraient à l'image de l'être humain, dotées d'une intelligence cognitive avancée comme le cerveau humain en est capable de réaliser naturellement. Elles seraient autonomes et dotées d'une conscience et du sens commun. De par les domaines qui lui sont sous-jacents comme l'intelligence émotionnelle, l'intelligence cognitive..., l'IA forte soulève de véritables interrogations et constitue le défi essentiel au développement de l'IA.
L'IA forte se décline en deux sous-types de machines : la machine à base de « la théorie de l'esprit » et la machine à base de l'auto-conscience.
La première désigne « la capacité mentale d'inférer des états mentaux à soi-même et à autrui et de les comprendre». Grâce à cette théorie, les robots seront capables d'appréhender et classifier les représentations du monde, comprendre et hiérarchiser les émotions selon le degré d'influence sur le comportement humain...
La machine à base de «l'auto-conscience» est une machine consistant à construire des représentations avec autonomie et indépendance complètes. Les machines auto-conscientes comprennent les émotions humaines et les appliquent ensuite aux différents scénarii afin de prédire d'autres situations.
Apprendre, toujours apprendre
Un réseau de neurones ne peut être programmé directement pour effectuer une tâche. L'exemple précédent montre que pour reconnaître une voiture d'un genre particulier, le réseau apprendra à la reconnaître sur une quantité importante de voitures pour qu'à la fin, il puisse l'identifier sur n'importe quelle autre photo qui lui sera présentée. La phase d'apprentissage est donc capitale pour le fonctionnement d'une IA. Ceci dit, dans le «Machine Learning», on distingue trois méthodes d'apprentissage distinctes : l'apprentissage supervisé, l'apprentissage non supervisé et l'apprentissage renforcé. L'apprentissage supervisé consiste à faire des prédictions à partir de données annotées (étiquetées), au contraire de l'apprentissage non supervisé où les données ne sont pas annotées. Il suffit que le réseau de neurones analyse l'ensemble de données pour se donner une fonction-coût lui indiquant dans quelle mesure il est éloigné du résultat souhaité.
Le réseau modifie sa fonction-coût pour s'adapter et augmenter la précision de l'algorithme. On utilise l'algorithme de rétro-propagation de gradient pour déterminer et améliorer cette fonction-coût.
Enfin, avec l'apprentissage par renforcement, un «agent» effectue des tâches, reçoit ou non des récompenses et apprend à maximiser ces «récompenses» dans un environnement. La voiture autonome en est un exemple. L'«agent» est récompensé s'il évite les collisions, obéit aux règles de circulation et atteint le point de sa destination. Lorsque l'une de ces actions n'est pas atteinte, l'«agent» est pénalisé (ne reçoit pas la récompense attendue). Dans l'un ou l'autre cas, la machine apprend de ses performances ou de ses erreurs.
Pour ce faire, l'«agent» commence par effectuer des actions aléatoires à la recherche des séquences d'actions qui offrent de meilleures récompenses grâce aux commentaires qu'il reçoit de son environnement (l'état de la route de circulation dans l'exemple).
B. K.
(À suivre...)
(*) Professeur des Universités en mathématiques et en physique. Expert de l'enseignement supérieur et de la recherche scientifique. Expert en conduite de changement. Université de M'sila.


Cliquez ici pour lire l'article depuis sa source.