Génocide à Ghaza : La France interdit à huit entreprises sionistes de participer à un salon sur la sécurité à Paris    Sûreté nationale Badaoui reçoit une délégation d'Interpol    « La République du Zimbabwe est un partenaire fiable pour l'Algérie »    Les habitants d'Aït Bouzid, commune de Tala Hamza, sollicitent l'intervention du président de la République    Le ministre de l'Industrie inspecte la 2e ligne de production de la cimenterie de Timegtène    Installation du nouveau directeur des impôts    Des colons continuent de clôturer des milliers de dunams de terre    6 000 amputations dans l'enclave    Sahara occidental : Le Président sahraoui participe aux célébrations du 50e anniversaire de l'indépendance de l'Angola    Sélection algérienne : Tougaï forfait face au Zimbabwe et à l'Arabie Saoudite    Y a-t-il un dysfonctionnements profonds ou fragilité du corps arbitral ?    Le CMDA.World accueillera la championne du Monde et Olympique, l'Algérienne Kaylia Nemour    Un cinquantenaire découvert pendu à Ouled Yaiche    Association El Amel des diabétiques de Relizane Prévenir le diabète mieux que le guérir    Arrestation d'un individu ayant diffusé une vidéo portant atteinte à l'image des services de sécurité    L'Algérie, partenaire clé dans les efforts internationaux de lutte    La valeur travail n'est pas une norme transhistorique mais inhérente au capitalisme    Un livre de 1658 est rendu au Brésil    Programme TV du 4 novembre 2025 : Coupes et Championnats – Heures et chaînes    Programme TV du samedi 25 octobre 2025 : Ligue 1, Bundesliga, CAF et championnats étrangers – Heures et chaînes    Programme TV du 24 octobre 2025 : Ligue 2, Ligue 1, Serie A, Pro League – Heures et chaînes    Festival international du Malouf: fusion musicale syrienne et russe à la 4e soirée    Adhésion de l'Algérie à l'AIPA en tant que membre observateur unique: le Parlement arabe félicite l'APN    Industrie pharmaceutique : nécessité de redoubler d'efforts pour intégrer l'innovation et la numérisation dans les systèmes de santé nationaux    Conseil de sécurité : début de la réunion de haut niveau sur la question palestinienne et la situation au Moyen-Orient    Examen de validation de niveau pour les diplômés des écoles coraniques et des Zaouïas mercredi et jeudi    APN : la Commission de la santé à l'écoute des préoccupations des associations et parents des "Enfants de la lune"    Réunion de haut niveau du Conseil de sécurité sur la question palestinienne et la situation au Moyen-Orient    Boudjemaa reçoit le SG de la HCCH et le président de l'UIHJ    Athlétisme / Mondial 2025 : "Je suis heureux de ma médaille d'argent et mon objectif demeure l'or aux JO 2028"    Ligne minière Est : Djellaoui souligne l'importance de la coordination entre les entreprises de réalisation    Mme Bendouda appelle les conteurs à contribuer à la transmission du patrimoine oral algérien aux générations montantes    CREA : clôture de l'initiative de distribution de fournitures scolaires aux familles nécessiteuses    Poursuite du suivi et de l'évaluation des programmes d'investissement public dans le secteur de la Jeunesse    Agression sioniste contre Ghaza : le bilan s'alourdit à 65.382 martyrs et 166.985 blessés    La ministre de la Culture préside deux réunions consacrées à l'examen de l'état du cinéma algérien    Le Général d'Armée Chanegriha reçoit le Directeur du Service fédéral pour la coopération militaire et technique de la Fédération de Russie    Foot/ Coupe arabe Fifa 2025 (préparation) : Algérie- Palestine en amical les 9 et 13 octobre à Annaba    L'Algérie et la Somalie demandent la tenue d'une réunion d'urgence du Conseil de sécurité    30 martyrs dans une série de frappes à Shuja'iyya    Lancement imminent d'une plate-forme antifraude    Les grandes ambitions de Sonelgaz    La force et la détermination de l'armée    Tebboune présente ses condoléances    Lutte acharnée contre les narcotrafiquants    La Coquette se refait une beauté    Cheikh Aheddad ou l'insurrection jusqu'à la mort    Un historique qui avait l'Algérie au cœur    







Merci d'avoir signalé!
Cette image sera automatiquement bloquée après qu'elle soit signalée par plusieurs personnes.



L'histoire exemplaire de l'intelligence artificielle (1re partie)
Publié dans Le Soir d'Algérie le 07 - 11 - 2021


Par le Pr Baddari Kamel(*)
Jamais une discipline scientifique, au même titre que l'informatique qui lui est sous-jacente, n'a connu un progrès aussi fulgurant que l'intelligence artificielle (IA). Elle est devenue, en l'espace de quelques dizaines d'années, une science à part entière avec son langage et ses propres méthodes.
Elle a remotivé les chercheurs et les industriels dans nombre de domaines en leur fournissant les outils nécessaires à la sortie des difficultés sur lesquelles ils butaient. Dans cette contribution, il sera question de l'histoire de cette discipline devenue mature, malgré son jeune âge.
Un point d'histoire de l'IA
Comme toute science à ses débuts, l'IA a connu des hauts et des bas depuis son avènement en 1956. Déjà en 1958, on avait prédit qu'un programme informatique aura un jour la performance d'un maître d'échecs. Plus tard, effectivement, un programme soviétique a triomphé d'un programme nord-américain lors du congrès IFIP 1974 de Stockholm ; pourtant, durant ces années, en URSS, l'informatique était considérée comme un outil entre les mains de la bourgeoisie, ce qui a d'ailleurs retardé son développement grand public dans ce pays, comme quoi le développement de la recherche scientifique et l'innovation sont indissociables de leurs contextes politique et culturel. Plus tard, la Russie s'est rattrapée pour devenir une puissance en la matière. Une journaliste scientifique américaine avait usé, dans les années 80, d'un comparatif loin d'être burlesque, portant sur le rapprochement des intelligences de l'homme et de la machine, en disant que «les raisons invoquées aujourd'hui pour argumenter l'infériorité de l'intelligence des ordinateurs par rapport à l'intelligence des êtres humains sont exactement les mêmes que celles que l'on utilisait au XIXe siècle pour démontrer que les femmes ne seraient jamais les égales intellectuelles de l'homme».
À l'heure actuelle, les communautés scientifiques s'interrogent sur la supériorité de la machine sur l'homme, malgré les progrès immenses réalisés par l'IA.
Epoque 1 - (Avant l'an 2000)
Balbutiements et naissance de l'IA
1950 : Publication d'un article de Alan Turing, «Computing Machinery and intelligence», visant à mettre au point une méthode pour définir la conscience d'une machine. Cette méthode est connue aujourd'hui sous l'appellation de «Test Turing», fort bien connue chez les informaticiens.
1956 : Conférence de Dartmouth aux Etats-Unis, à l'issue de laquelle une déclaration sur l'IA a été proclamée comme étant un domaine scientifique à part entière. Cette conférence a réuni les pionniers de l'IA, à savoir John McCarthy et Marvin Lee Minsky du Massachusetts Institute of Technology (MIT) et deux scientifiques, Claude Shannon et Nathan Rochester d'IBM.
1960 : Implication des travaux de recherche dans de grands laboratoires pour le développement du domaine de l'IA.
Il faut à cet effet souligner que les années 1950 à 1960 sont aux USA une période qui favorise la recherche scientifique et technologique pour diverses raisons, parmi lesquelles la guerre froide avec les pays de l'Est qui, plus est, allait être revigorée par l'explosion de la 1re bombe atomique soviétique en 1949 ainsi qu'avec le choc de la fusée Spoutnik en 1957. C'est pour ces raisons que des crédits importants étaient alloués à des sociétés pour tester les idées les plus folles.
Epoque 2 - (1974 – 1990)
Baisse d'intérêt, malgré les systèmes experts
1974 : Période nommée le «AI Winter» où le domaine a connu une baisse d'intérêt et de financement au niveau mondial.
1980 : Réintégration des projets de l'IA grâce aux systèmes experts.
Durant cette période, un projet japonais de nom ICOT, portant l'intitulé «La cinquième génération, le pari de l'IA à l'aube du XXIe siècle», a été annoncé. Le projet fait suite à l'article «Machines Who Think» de la journaliste américaine Pamela McCorduck. Il promettait la mise en œuvre d'un ordinateur entièrement intelligent pour l'année 1988. Nous savons par la suite que ce projet n'a pas donné les résultats escomptés. Il s'agissait d'une tentative au but inavoué de réveiller un marché à fort potentiel, mais qui n'arrivait pas à décoller, et interpellait brillamment aussi bien les industriels que les cercles scientifiques.
Epoque 3 - (1990 – 2000)
Incertitudes et espoirs
1990 : Début de l'exploitation de l'IA sur le terrain.
1997 : Redéploiement de l'IA grâce au supercalculateur «Deep Blue» d'IBM, d'architecture parallèle.
Epoque 4- (Après l'an 2000)
Grâce à l'informatique
Cette quatrième époque de l'IA se caractérise par son impact sur la société et sur divers domaines (l'informatique, la musique, les films...).
Les périodes marquantes durant cette époque sont :
Début des années 2000 : L'utilisation de l'IA dans les films de science-fiction pour réaliser des scénarii proches de la réalité.
2001-2010 : Implication de l'IA dans la société grâce au développement de l'informatique.
Après 2010 : Développement de nouveaux processus, le « Machine Learning », et leur utilisation dans les domaines vitaux de la société (médecine, commerce, réseaux sociaux, gouvernance...).
Alors, qu'est-ce que l'IA ?
Définir l'IA n'est pas une mince affaire. L'IA est un domaine vaste qui comprend plusieurs axes et diverses définitions, selon le point de vue où l'on se place. Généralement, on pourrait dire que l'IA est un système construit autour de données et d'algorithmes d'apprentissage en vue d'effectuer des prédictions. Dans Facebook ou Youtube, l'algorithme d'apprentissage se base sur les vidéos regardées et les endroits cliqués par l'utilisateur pour rechercher ses centres d'intérêt (vidéos qui lui seront suggérées, amis à ajouter...).
De façon générale, l'IA vise à développer des machines capables d'accomplir des tâches pour résoudre les problématiques qui se posent à l'homme, autrement dit toute problématique qui fait appel à des procédés cognitifs pour sa solution, tels que : 1/La reconnaissance et la localisation des objets (dans une image, une séquence vidéo...) ; 2/la planification, la réalisation et le contrôle de mouvements robotiques ; 3/la conduite autonome des engins roulants (véhicules,...) ; 4/la détection des symptômes de quelques maladies ; 5/le commerce et les déclarations intelligentes des impôts ; 6/les élections sécurisées ; 7/la justice et les banques, etc.
La réussite de telles tâches est conditionnée par la capacité d'apprentissage de la machine IA dans la mesure où un système intelligent ne peut guère augmenter ses performances ou développer ses compétences de prédiction sans un apprentissage cohérent et constructif. C'est à la manière du cerveau d'un enfant, la seule instruction qu'il a est d'apprendre au risque de détruire pour toujours apprendre.
Le rôle de Noam Chomsky
Noam Chomsky est un mathématicien de haut niveau et pape de la linguistique contemporaine. Il est de nationalité américaine. Versé dès les premières heures dans le développement de l'IA, il est l'un des rares scientifiques mondiaux à n'avoir pas perdu l'espoir dans cette discipline depuis son avènement. Travaillant sur l'analyse du langage naturel dans une approche cognitiviste, il créa dans les années soixante «la grammaire transformationnelle» ou «grammaire générative» qui allait devenir un outil de référence pour les chercheurs dans les années 70, et donna lieu par la suite à d'autres grammaires (réseaux sémantiques, ontologie...). Chomsky considérait que le traitement du langage naturel doit reposer essentiellement sur la syntaxe, ce qui est à notre sens un pari facile à gagner.
La grammaire de Chomsky allait servir aussi bien pour l'analyse des textes que pour la reconnaissance de la parole et de la synthèse vocale. Les écoles françaises, canadiennes et britanniques utilisant entre autres cette grammaire ont fourni des outils pertinents pour le développement de l'IA, principalement le traitement des langages naturels. Abordant la non- concrétisation à ce jour du test de Turing, Chomsky affirme que, sans la compréhension des mécanismes constitutifs du langage humain, l'IA «ne parlera peut-être jamais notre langage» !
L'IA d'aujourd'hui
L'IA a connu une période de latence, voire d'incertitude jusqu'en 2000.
À partir de cette date, des chercheurs, considérés comme les pionniers du «Machine Learning» (Yoshua Bengio, Geoffrey Hinton, et Yann Le Cun), allaient sauver la discipline. Partant des travaux de plusieurs chercheurs, ils allaient redorer le blason de cette discipline grâce à l'utilisation des réseaux de neurones artificiels auparavant mis au point par Frank Rosenblatt en 1957. Malheureusement, pour des raisons de capacité de calcul des ordinateurs qui ne permettaient pas d'entrevoir le développement d'applications nécessitant justement une puissance de calcul et une grande capacité de stockage de l'information, l'IA allait de nouveau connaître une période de somnolence.
Il a fallu attendre le début des années 2010 avec l'essor des Big Data et du traitement en parallèle pour qu'elle dispose enfin des conditions de son épanouissement, à savoir la puissance de calcul et le stockage des données dans le Cloud ou autres.
Le connexionnisme est né. Il permet à un réseau de neurones, dont le fonctionnement s'inspire des neurones du cerveau humain, d'apprendre à reconnaître des objets sur des images, inférer sur des textes... et de fil en aiguille, rendre plus fins ses raisonnements et ses argumentations. De nos jours (2021), les réseaux de neurones ne cessent de s'améliorer pour être au cœur de la recherche scientifique. Ils sont utilisés dans le «Machine Learning» dont une sous-catégorie est appelée l'apprentissage profond ou «Deep Learning», le plus répandu actuellement. Il repose sur des algorithmes bien élaborés permettant au réseau de neurones d'apprendre sur des exemples pour s'entraîner à effectuer des prédictions.
Les exemples sont préalablement étiquetés pour que le réseau puisse savoir de quoi il s'agit.
À titre d'exemple, un réseau de neurones peut être utilisé pour apprendre à reconnaître un objet tel qu'une voiture, une moto ou une plaque de signalisation... Pour ce faire, si on considère l'exemple d'une voiture, on présente au réseau un grand nombre de voitures et l'algorithme se met à apprendre à reconnaître cette voiture sur de nouvelles images représentant des voitures de tout genre.
Ainsi, en analysant des milliers de photos de voitures, le réseau de neurones artificiel apprendra à reconnaître une voiture donnée sur n'importe quelle photo qui lui sera présentée. C'est la phase d'apprentissage capitale pour l'IA.
Les niveaux faible et fort de l'IA ?
De par les possibilités et le niveau d'intelligence intégré dans une machine (un robot par exemple), on distingue essentiellement deux types : l'IA faible et l'IA forte. La première est utilisée pour effectuer des tâches précises. Elle est experte dans un domaine précis comme d'ailleurs un système expert. Sortie de son domaine de prédilection, elle devient inutile.
C'est la seule qui existe pour l'instant. Elle agit de la manière dont elle a été programmée. Son handicap est qu'elle ne possède pas de sens commun à l'image de l'être humain. Elle est modélisée par une machine capable de percevoir les composantes de son environnement et de prendre des décisions en fonction d'observations effectuées sur la base de ces perceptions. L'exemple le plus connu est le «Deep Blue» de la société IBM qui a battu le champion d'échecs Garry Kasparov en 1996. Ce type de machines est le plus ancien. Elle est aussi modélisée par une machine à base d'images qui s'appuie sur des représentations du monde réel (le monde effectif tel qu'il existe) pour prendre une décision.
La conduite autonome de voitures en est un exemple. Une voiture autonome étant dotée d'un ensemble de représentations de son environnement à un instant donné, lui donnant la capacité d'ajuster sa vitesse ou sa trajectoire en fonction des éléments qu'ils enregistrent en temps réel tels que l'état du trafic, la situation de la route, les plaques de signalisation, le climat...
Quant à l'IA forte qui fait actuellement l'objet d'une recherche intensive dans quelques pays, elle a l'ambition de créer des machines qui seraient à l'image de l'être humain, dotées d'une intelligence cognitive avancée comme le cerveau humain en est capable de réaliser naturellement. Elles seraient autonomes et dotées d'une conscience et du sens commun. De par les domaines qui lui sont sous-jacents comme l'intelligence émotionnelle, l'intelligence cognitive..., l'IA forte soulève de véritables interrogations et constitue le défi essentiel au développement de l'IA.
L'IA forte se décline en deux sous-types de machines : la machine à base de « la théorie de l'esprit » et la machine à base de l'auto-conscience.
La première désigne « la capacité mentale d'inférer des états mentaux à soi-même et à autrui et de les comprendre». Grâce à cette théorie, les robots seront capables d'appréhender et classifier les représentations du monde, comprendre et hiérarchiser les émotions selon le degré d'influence sur le comportement humain...
La machine à base de «l'auto-conscience» est une machine consistant à construire des représentations avec autonomie et indépendance complètes. Les machines auto-conscientes comprennent les émotions humaines et les appliquent ensuite aux différents scénarii afin de prédire d'autres situations.
Apprendre, toujours apprendre
Un réseau de neurones ne peut être programmé directement pour effectuer une tâche. L'exemple précédent montre que pour reconnaître une voiture d'un genre particulier, le réseau apprendra à la reconnaître sur une quantité importante de voitures pour qu'à la fin, il puisse l'identifier sur n'importe quelle autre photo qui lui sera présentée. La phase d'apprentissage est donc capitale pour le fonctionnement d'une IA. Ceci dit, dans le «Machine Learning», on distingue trois méthodes d'apprentissage distinctes : l'apprentissage supervisé, l'apprentissage non supervisé et l'apprentissage renforcé. L'apprentissage supervisé consiste à faire des prédictions à partir de données annotées (étiquetées), au contraire de l'apprentissage non supervisé où les données ne sont pas annotées. Il suffit que le réseau de neurones analyse l'ensemble de données pour se donner une fonction-coût lui indiquant dans quelle mesure il est éloigné du résultat souhaité.
Le réseau modifie sa fonction-coût pour s'adapter et augmenter la précision de l'algorithme. On utilise l'algorithme de rétro-propagation de gradient pour déterminer et améliorer cette fonction-coût.
Enfin, avec l'apprentissage par renforcement, un «agent» effectue des tâches, reçoit ou non des récompenses et apprend à maximiser ces «récompenses» dans un environnement. La voiture autonome en est un exemple. L'«agent» est récompensé s'il évite les collisions, obéit aux règles de circulation et atteint le point de sa destination. Lorsque l'une de ces actions n'est pas atteinte, l'«agent» est pénalisé (ne reçoit pas la récompense attendue). Dans l'un ou l'autre cas, la machine apprend de ses performances ou de ses erreurs.
Pour ce faire, l'«agent» commence par effectuer des actions aléatoires à la recherche des séquences d'actions qui offrent de meilleures récompenses grâce aux commentaires qu'il reçoit de son environnement (l'état de la route de circulation dans l'exemple).
B. K.
(À suivre...)
(*) Professeur des Universités en mathématiques et en physique. Expert de l'enseignement supérieur et de la recherche scientifique. Expert en conduite de changement. Université de M'sila.


Cliquez ici pour lire l'article depuis sa source.