-40%
Le deal à ne pas rater :
Tefal Ingenio Emotion – Batterie de cuisine 10 pièces (induction, ...
59.99 € 99.99 €
Voir le deal

Le cerveau, l'ordinateur et la conscience, par Gérard Schumacher, partie 2

Aller en bas

04012016

Message 

Le cerveau, l'ordinateur et la conscience, par Gérard Schumacher, partie 2 Empty Le cerveau, l'ordinateur et la conscience, par Gérard Schumacher, partie 2




Etat actuel des recherches en intelligence artificielle

1) Budgets comparés de différents organismes de recherche:
   Budget global du LHC (y compris masse salariale de 2500 personnel propre impliquant 12000 associés) en 2014 : 1,1 milliard $
   Budget global de la NASA en 2013 ; 17,7 milliards $
   Budget de recherche et développement pour 2014 :
   Google  : 10,44 milliards de $
   Facebook : 3,27 milliards de $
   Sources : http://ycharts.com/companies/GOOG/r_and_d_expense


2) Définition : Intelligence artificielle : système capable d'exécuter une tâche cognitive sans qu'elle n'ait été explicitement programmée.
       Exemples :

  • le robot qui apprend à marcher par lui-même
  • l'apprentissage profond qui permet :

    • la reconnaissance automatique d'une classe d'objets
    • la compréhension du sens des mots en traduction automatique (sémantique)






3) Historique :
         a) Systèmes asservis
               -électroniques
               - logiciels
                  consigne, feed-back, exemple pilote automatique bateaux, avions

         b) Neurones artificiels, inspirés des neurones biologiques
               -électroniques
               - logiciels (1950)
               - neurone biomimétique fonctionnel (groupe de chercheurs suédois, 2015) , dans un nerf comportant un neurone endommagé 
                 on peut remplacer celui-ci et restaurer ainsi les fonctions du nerf (Parkinson).

         c) Neurone formel (ou logique)


Le cerveau, l'ordinateur et la conscience, par Gérard Schumacher, partie 2 1lVaQYlEIjEhkpBmDy69JKJEIpGYEv8PyMlpBK8aKgUAAAAASUVORK5CYII=
             Le neurone combine ses entrées, puis cette valeur passe à travers la fonction d'activation pour produire sa sortie. 
             Chaque entrée est pondérée par un coefficient (poids synaptique).
           d) Le réseau de neurones (1957,  Frank Rosenblatt:Perceptron)
Un réseau de neurones est composé d'une succession de couches dont chacune prend ses entrées sur les sorties de la précédente. À chaque connexion est associé un poids synaptique. Ces poids sont ajustées dans une phase d'apprentissage qui est la partie la plus laborieuse , mais la plus import,ante du processus. Pendant cette phase on présente à l'ordinateur un nombre très important d'informations concernant une classe d'objets (image, phrases). Les poids synaptiques convergent chacun, petit à petit, pour que la sortie corresponde de mieux en mieux à l'objet présenté. Puis les poids synaptiques n'évoluent presque plus. La machine a terminé son apprentissage.
Le cerveau, l'ordinateur et la conscience, par Gérard Schumacher, partie 2 ANC6OlGhdwtPAAAAABJRU5ErkJggg== L'apprentissage automatique permet ainsi de remplir des tâches difficiles ou impossibles à remplir par des moyens algorithmiques classiques.
 Ces modèles sont adaptatifs, de façon à prendre en compte l'évolution de la base des informations, et donc d'auto-améliorer le système d'analyse ou de réponse.
Un réseau de neurones artificiels est constitué d'agents simples, mais c'est leur nombre et leurs interconnexions qui leur permettent de résoudre des problèmes de degré de complexité bien supérieurs.
Exemple :
Un système d'apprentissage automatique peut permettre à un robot ayant la capacité de bouger ses membres mais ne sachant initialement rien de la coordination des mouvements permettant la marche, d'apprendre à marcher. Le robot commencera par effectuer des mouvements aléatoires, puis, en sélectionnant et privilégiant les mouvements lui permettant d'avancer, mettra peu à peu en place une marche de plus en plus efficace.

Reconnaissance automatique des classes d'objet
Chez Facebook, la recherche porte principalement sur la reconnaissance automatique d'images (visages). Pendant la période d'apprentissage profond, on présente à l'ordinateur des millions d'images (par exemple de chiens) sous différentes tailles et différents angles. La bonne surprise, c'est que l'apprentissage terminé, et les valeurs trouvées des poids synaptiques entrés dans le réseau de neurones, l'ordinateur est capable de reconnaître la classe « chien », même s'il n'a jamais vue cette race là, et encore moins sous cet angle-là.

Traduction automatique
Chez Google on travaille surtout sur la sémantique.
En 2000, Yoshua Bengio ( directeur du laboratoire d'apprentissage profond de l'Université de Montréal) avait démontré pour la première fois que les machines sont capables d'apprendre par elles-mêmes le langage naturel grâce à des algorithmes d'apprentissage profond. L'ordinateur comprend mieux le sens des mots et les liens qui les unissent. Autrement dit, il développe une compréhension sémantique de la langue.
En 2013, Thomas Mikolov, jeune chercheur au laboratoire d’intelligence artificielle chez Google, montre qu'un ordinateur découvre des analogies entre des mots. En réalisant le calcul suivant : vecteur « Madrid » moins vecteur « Espagne » plus vecteur « France », le résultat obtenu est un vecteur très proche de « Paris ». A sa manière, la machine a donc compris par elle-même le concept de capitale. « Ce résultat peut paraître anodin mais pour la communauté des chercheurs en intelligence artificielle, c'est extraordinaire. D'autant plus que le réseau de neurones n'a pas été entraîné pour cela : c'est un effet d'émergence spontanée de l'apprentissage.
De récentes améliorations, comme l'ajout d'une mémoire à cours terme à chaque neurone (réseau récurrent), permet à l'ordinateur de comprendre également l'enchaînement temporel des actions, et d'acquérir une sorte de « sens commun ». Il peut ainsi comprendre le sens de phrases contenant de nombreuses négations telles que «il n'est pas possible de ne pas détester cette image ». Parfois il peut même détecter naturellement, sans avoir jamais été formée pour cela, une certaine ironie anglo-saxone qui consiste à écrire le contraire de ce que l'on pense, suivi de « not ».


               e) L'ordinateur quantique
L'ordinateur classique est constitué d'éléments transistors fonctionnant comme des interrupteurs. O
L'ordinateur quantique est constitué d'éléments basés fonctionnant selon les principes de la mécanique quantique, comme l'expéreince de pensée 
du chat de Schrödinger (le chat est à la fois mort et vivant).
                               Ordinateur classique                  Ordinateur quantiques


Elements                 Transistor                                     Qbit
Nbre de niveaux          0 ou 1                                      0 et 1
Nbre d'éléments          N x 106                                          quelque dizaines
Nbre de valeurs           n                                                2n
Avec 200 éléments 200 1,6 1060 (plus que d’atomes dans l’univers observable)

En  2001, IBM a créé un calculateur quantique de 7 qubits et factorisé le nombre 159 . Le calcul aurait pris 1025 années avec un ordinateur classique, et il n'a pris que 20 minutes au calculateur quantique.
La NASA et Google se sont associé récement pour exploiter un ordinateur quantique fabriqué par la société canadienne D-wave, et qui est constitué de 1024 qbits (novembre 2015).
Objectif à long terme : construire des réseaux de neurones quantiques !!!


Pour finir, quelques prédictions erronées célèbres :
Pour montrer qu'il ne faut jamais dire "c'est impossible"



  • La conception du monde tel qu'on se l'imaginait avant Copernic
  • « La réalisation d'une machine volante plus lourde que l'air est impossible ». Citation attribuée à Lord Kelvin (William Thomson), président de la Royal Society en 1895
  • « Les aéroplanes sont des jouets scientifiques intéressants, mais ne présentent pas de valeur militaire ». Maréchal Ferdinand Foch, 1911.
  • « Je pense qu'il y a un marché mondial pour quelque chose comme cinq ordinateurs. » Thomas Watson, président d'IBM, 1943
  • « La télévision n'aura de succès que pendant six mois. Le public se lassera vite de regarder passivement un meuble en bois tous les soirs ». Darryl Zanuck, directeur de la Twentieth Century Fox
  • « Croyez-moi, l'Allemagne est financièrement incapable de faire face à une guerre ». David Lloyd George, ancien Premier ministre britannique, 1er août 1934





                                                                                                                                                                                                                   

                                                                                                                                                                  Gérard Schumacher


Gérard
Gérard

Messages : 11

Revenir en haut Aller en bas

Partager cet article sur : reddit
- Sujets similaires

 
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum