Article récent faisant le point sur la recherche en intelligence artificielle
Café Philo du pays de Fayence :: Archives des anciens cafés :: Archives :: Café du 17-12-2015: "Le cerveau, l'ordinateur et la conscience" par Bernard et Gérard
Article récent faisant le point sur la recherche en intelligence artificielle
La date de notre prochain café approche, et chaque jour je trouve de nouvelles informations concernant les recherches en cours sur l'intelligence artificielle (IA). C'est que, après de nombreuses désillusions, le sujet revient au goût du jour, avec des progrès impressionnants.
J'ai abandonné l'idée de faire une synthèse du sujet, son évolution est trop rapide.
Je viens pourtant de trouver à l'instant un article qui essaye de faire le point, et qui peut être une bonne introduction à lire avant la soirée de jeudi prochain. Ce n'est pas un texte philosophique, mais un article d'information qui montre l'ampleur du phénomène.
L'article est dû à Thierry Lucas, de la revue "L'Usine Digitale".
Je vous mets directement le texe ci-dessous.
Gérard
Deep learning, big data, réseaux de neurones... pourquoi l’intelligence artificielle revient-elle maintenant ?
Par Thierry LucasJournaliste à « L'Usine Digitale »
12 mai 2015
S’il y a un réel renouveau des recherches sur l’intelligence artificielle (IA) et des peurs qu’elles suscitent, c’est que bien des choses ont changé, comme l’apparition de nouvelles technologies d’apprentissage automatique (machine learning), la démocratisation de moyens de calculs puissants, l’accès à des données massives (big data)... Sans parler des progrès enregistrés dans la conception et la fabrication de puces électroniques qui imitent le fonctionnement du cerveau. Des géants — historiques comme IBM ou récents comme Google etFacebook — sont bien décidés à intégrer toutes ces avancées technologiques pour développer des applications qui vont de la médecine à la robotique, en passant par les fonctions d’assistants numériques personnels, les réseaux sociaux…
Avec le grand retour de l’IA, un autre terme revient lui aussi sur le devant de la scène : le réseau de neurones. Ces logiciels, qui imitent le fonctionnement du cerveau, ont eux aussi une longue histoire. Après plusieurs vagues d’engouements et de déception sur leur capacité à effectuer des tâches vraiment utiles, ils accompagnent aujourd’hui les avancées du "deep learning" ou "apprentissage profond". Il s’agit d’une technique de machine learning (apprentissage automatique) née vers 2006, qui utilise des réseaux de neurones à multiples couches pour effectuer une série de traitements hiérarchisés, dans le but de classer des milliers d’objets en catégories, sans critères prédéfinis. Cet apprentissage, dit "non supervisé", a constitué, semble-t-il, une vraie rupture.
L’AVÈNEMENT DU DEEP LEARNING
En tout cas, deux des plus éminents inventeurs et promoteurs du deep learning (DL) ont été recrutés par Facebook (Yann LeCun, université de New York) et Google (Geoffrey Hinton, université de Toronto). Google a par ailleurs racheté la start-up DeepMind, en pointe dans le domaine. Les deux géants d’Internet ont déjà démontré ce qu’ils pouvaient faire avec le deep learning. Facebook a développé DeepFace, une application de reconnaissance de visages qui atteint des forts taux de réussite (plus de 97 %). Inédit… sauf chez les humains. DeepFace met en œuvre des algorithmes de DL avec un réseau de neurones à 9 couches. Quant à Google, il a effectué l’étonnante démonstration d’un descripteur d’images : un logiciel qui décrit par une phrase le contenu de la scène représentée dans l’image. Le DL et les réseaux de neurones sont ici utilisés pour 1) apprendre à identifier ce que contient l’image, 2) apprendre à le formuler en langage naturel. Car le DL permet aussi des progrès sensibles dans le traitement du langage (synthèse et reconnaissance vocale). Microsoft et Google (dans Androïd) mettent d’ailleurs du deep learning dans leurs nouvelles interfaces vocales, avec une efficacité en nette progression.
"Quand il s’agit de combiner des données sous la forme de textes, de résultats d’examens, d’images…, les méthodes statistiques traditionnelles ne suffisent plus"
Nicholas Vayatis, qui dirige le CMLA, un laboratoire de mathématiques appliquées L’ENS Cachan/CNRS
Le deep learning est aussi au cœur de Watson — le système IBM de traitement cognitif des données, notamment en langage naturel — qui s’était rendu célèbre en répondant brillamment aux questions d’un jeu télévisé Jeopardi. En fait, Watson utilise le DL couplé avec d’autres techniques de l’intelligence artificielle, et vise bien d’autres applications (médecine, météo, marketing personnalisé…). Si le deep learning s’insinue partout, d’autres techniques d’apprentissage automatique, nées dès les années 1990, ont amené de réels progrès. C'est le cas de l’apprentissage statistique, avec des algorithmes de classification très efficaces sur de grands nombres de données. Ses applications se retrouvent déjà sur le Web (filtres anti-spam, marketing digital, moteur de recommandation…). Et commencent à diffuser dans d’autres domaines, comme le médical.
LE GRAND RETOUR DU RÉSEAU DE NEURONES
D’autres méthodes en développement intéressent déjà les grands groupes. IBM a créé une équipe de recherche, dans son centre d’Almaden en Californie, axée sur les algorithmes d’apprentissage de Numenta. Cette start-up simule elle aussi des réseaux de neurones, simples, mais avec l’idée d’être aussi fidèle que possible au fonctionnement des neurones biologiques. Les applications visées pourraient concerner le contrôle intelligent de machines, la robotique…
Dans bien des cas, l’usage des techniques d’apprentissage non supervisé est lié à un autre changement majeur des dernières années : l’accès à des masses de données, via internet et les réseaux sociaux. C’est pourquoi machine learning, deep learning et big data sont étroitement liés. Un autre facteur clé est la démocratisation de la puissance de calcul, notamment grâce aux architectures parallèles utilisant des processeurs graphiques (GPU), capables de faire tourner des algorithmes de machine learning en des temps raisonnables.
Mais si les moyens de calcul et simulation ont contribué à la résurgence de l’IA, une autre option poursuit son chemin : construire un "cerveau" dans le silicium, avec des puces électroniques dont l’architecture se calque sur celle des neurones et des synapses. Là encore, l’idée ne date pas d’hier. Mais les progrès commencent à être impressionnants.
LA POUSSÉE DES PUCES NEUROMORPHIQUES
Dernier record en date : 1 million de neurones et 256 millions de synapses sur une puce. C’est IBM qui a réalisé cette puce TrueNorth de 5,4 milliards de transistors en 2014, dans le cadre du projet Synapse financé par l’agence de la défense américaine (Darpa). Conçue pour la détection et l’identification d’objets dans une image (entre autres), cette puce a aussi l’avantage – c’est un point fort des architectures "neuromorphiques" — d’une faible consommation : 70 MW. IBM travaille à interconnecter ses puces TrueNorth, dans le but d’en assembler 4096 pour obtenir un ordinateur de 4 milliards de neurones et 1 000 milliards de synapses… Qui consommera seulement 4 kW !
En Europe, des équipes de l’université de Manchester et de l’université d’Heidelberg travaillent sur des ordinateurs à architectures neuromorphiques. Elles sont associées au projet européen Humain Brain, axé sur l’élucidation du fonctionnement du cerveau humain.
Les progrès de l’intelligence artificielle peuvent donc aussi faire progresser la connaissance du cerveau. Quant à l’usage pratique de futurs ordinateurs neuromorphiques, IBM a déjà son idée. Il envisage d’intégrer des résultats du projet Synapse dans l’offre Watson pour, aux côtés d’autres techniques, créer des systèmes qui sauront apprendre et raisonner, au service des humains.
Thierry Lucas
Gérard- Messages : 11
Article récent faisant le point sur la recherche en intelligence artificielle :: Commentaires
Aucun commentaire.
» CUM : Festival de la Recherche
» Querelle des sociologues : le point de vue d'un socilogue critique
» Article sur les assistants virtuels, proposé par Geneviève
» Intelligence "artificielle"
Ven 15 Déc - 11:01 par Bernard
» « Le Monde » publie l’appel d’économistes, de responsables politiques, d’artistes, de philosophes, de syndicalistes pour demander un pacte finance-climat.
Mar 12 Déc - 20:12 par Bernard
» Les paradis fiscaux : Ronen Palan, un spécialiste de ces problèmes, juge qu'ils sont un corollaire de la mondialisation et que la liste noire ne permet pas de s'y attaquer.
Jeu 7 Déc - 11:31 par Bernard
» L'anthropologue Tidiane N'Diaye analyse l'esclavage ancien et moderne : en particulier les raisons qui expliquent la disparition ou le très petit nombre de noirs dans les pays musulmans.
Sam 2 Déc - 17:48 par Bernard
» Un collectif d'intellectuels contre la "banalisation de l'antisémitisme" à l'université"
Sam 2 Déc - 15:47 par Bernard
» Un collectif d'intellectuels contre la "banalisation de l'antisémitisme" à l'université"
Sam 2 Déc - 15:47 par Bernard
» Deux intellectuels africains analysent et proposent :"« Face à l’esclavage des Noirs, restaurer la dignité doit devenir une passion africaine »
Sam 25 Nov - 12:19 par Bernard
» Quelle des sociologues : "une sociologie qui se focalise trop sur les discriminations"
Jeu 23 Nov - 17:44 par Bernard