nadoulek.net : mondialisation, civilisations, stratégie

Accueil > STRATEGIE > Bibliothèque d’articles > Stratégies et technologies > Intelligence, neurones et simulation

Intelligence, neurones et simulation

Avatars sémantiques, 3e partie.

mardi 20 décembre 2011, par Bernard NADOULEK

Pouvons-nous communiquer de manière ouverte et créative avec une machine ? Ou bien cette communication ne serait-elle qu’un leurre ? L’intelligence, c’est-à-dire la faculté de comprendre et d’anticiper à partir de ce que nous avons compris, peut-elle être inculquée à un automate ? Il faudrait pour cela que nous sachions ce qu’est l’intelligence, que nous puissions la définir. Or nous ne le savons pas vraiment. Au-delà du sens commun : "la faculté de comprendre et d’anticiper", dictionnaires, encyclopédies et ouvrages de référence contiennent des centaines d’approches, de définitions parfois contradictoires selon qu’elles émanent du domaine des sciences physiques, sociales ou humaines. Puisqu’il serait présomptueux de trancher et d’établir un schéma d’arborescence opérationnel de l’intelligence, les informaticiens ont adopté un point de vue pragmatique. Il consiste à créer des systèmes informatiques qui simulent partiellement des fonctions de l’intelligence.


Ainsi, chaque programme d’intelligence artificielle simule une partie de nos capacités d’organisation intellectuelle, de raisonnement, de perception et d’apprentissage. Le plus souvent grâce à des systèmes experts dédiés sur lesquels nous reviendrons. L’informatique imite donc l’intelligence plus qu’elle ne la "comprend" et cette imitation tient principalement dans le domaine de la rationalité, c’est-à-dire des opérations logiques.

Les tenants d’une conception de l’intelligence artificielle fondée sur la rationalité ont un moment espéré qu’un système informatique pourrait atteindre la capacité de fonctionnement d’un cerveau humain en augmentant le nombre d’opérations logiques dont l’intelligence artificielle était capable. En 1970, un ordinateur effectuait 107 opérations par seconde, ce qui était loin d’égaler le cerveau humain qui traite approximativement 2x1014 opérations par seconde. Aujourd’hui des ordinateurs personnels haut de gamme approchent les 1012 opérations logiques par seconde et certains ordinateurs professionnels de pointe dépassent celles du cerveau. Pourtant, à part battre un humain aux échecs ou accomplir le type de raisonnement limité d’un système expert, l’intelligence artificielle est très loin d’approcher l’intelligence humaine. Pourquoi ? Parce que les applications de l’IA sont fragmentées, parce que nous ne pouvons relier tous les domaines de connaissance explorés dans une même base de données et parce que, même si nous le pouvions, nous ne disposons pas de règles pour embrasser un champ de connaissances illimité, ni pour passer d’un domaine à l’autre en les reliant intuitivement comme le fait notre intelligence "naturelle". De plus, la reproduction de notre intelligence ouvre de vastes domaines de questionnement. L’intelligence est-elle limitée à des processus physiologiques ? La pensée est-elle calculable par des processus finis ? Un ordinateur peut-il vraiment manier des symboles ? Plutôt que de tenter de répondre à ces questions métaphysiques, les informaticiens se sont tournés vers les réseaux de neurones et les processus quantiques qui ouvrent de nouvelles perspectives.

Puisque l’objet de l’intelligence artificielle est de simuler le fonctionnement du cerveau, il était inévitable que la recherche aboutisse à créer des réseaux de neurones artificiels. La fonction des réseaux de neurones est l’apprentissage par l’expérience. En informatique, c’est la faculté d’implémenter dans un système des éléments supplémentaires à ceux introduits par son créateur. En biologie, un réseau de neurones est un ensemble de points interconnectés de manière non linéaire, il a des fonctions cognitives comme celles des réseaux corticaux du cerveau, qui nous permettent de catégoriser les phénomènes auxquels nous sommes confrontés : par exemple, différencier les humains et les animaux, ou encore différencier les humains (ou les animaux) entre eux. Le cerveau humain est constitué d’environ 100 milliards de neurones structurés en millions de réseaux. Les réseaux de neurones artificiels sont loin d’atteindre la complexité des réseaux biologiques mais ils permettent d’en reproduire le fonctionnement de manière simplifiée. Les impulsions qui entrent dans un réseau sont transformées selon des règles dont nous sommes loin de comprendre la nature, mais que nous pouvons observer grâce aux résultats qu’ils produisent en sortie. Dans les systèmes informatiques, la reconnaissance de formes à laquelle se livrent les réseaux de neurones, concerne, par exemple, la reconnaissance optique des caractères du montant des chèques pour les banques, des codes postaux pour le tri du courrier à la Poste, des bilans d’entreprise pour déterminer leur valeur à la Bourse, etc. De très nombreuses autres applications de classification concernent, en vrac, l’ADN, les fonctions mathématiques, la modélisation, la météorologie, etc. Le point commun entre ces applications est l’apprentissage induit par l’expérience. Cet apprentissage est fondé sur la mémorisation de nombreux exemples dans une base de données et sur la faculté de généraliser pour traiter de nouveaux problèmes grâce aux comparaisons avec les exemples stockés.

Le problème est que nous ne comprenons pas vraiment comment fonctionnent ces réseaux de neurones : ni leurs règles, ni comment ils évoluent entre leur point d’entrée et leur point de sortie. Ce sont de véritables boîtes noires. Les seules règles que nous parvenons à établir sont soit très spécialisées, et peu exportables à un niveau d’intelligibilité générale, soit tellement générales qu’elles n’ont que peu de valeur pour la recherche en sciences humaines. Par exemple, la règle établie par Donald HEBB est que quand des neurones sont excités conjointement, le lien qui les unit se renforce et ils prennent "l’habitude" de réagir conjointement. Il y aurait un parallélisme entre le fonctionnement neuronal et le mécanisme comportemental pavlovien. C’est à la fois beaucoup et très peu. C’est beaucoup parce que la thèse du renforcement conjoint nous confirme une des règles de l’apprentissage : la répétition et le renforcement qu’elle implique sont une des bases de l’émergence de nouvelles réponses. C’est très peu, car cette thèse ne nous apprend rien de nouveau : c’est la base même d’une partie de l’apprentissage scolaire fondé sur les réflexes conditionnés. D’autre part, si le concept est utile en terme d’apprentissage, c’est justement son automaticité qui masque, plus qu’il ne révèle, le fonctionnement sémantique de la pensée.

Ainsi, qu’il s’agisse du fractionnement mimétique de l’intelligence artificielle ou du fonctionnement masqué des réseaux de neurones, la simulation informatique de l’intelligence "naturelle" n’en est encore qu’à ses balbutiements. Mais il nous faut aller plus loin pour explorer l’approche pragmatique et limitée des systèmes experts et de l’informatique linguistique. Ce sera l’objet de notre prochain article.

Revenir à "Avatars sémantiques", 1ère partie.

Revenir à "Avatars sémantiques", 2e partie.

Pour communiquer sur ce sujet avec Bernard NADOULEK.


version iPhone | Suivre la vie du site RSS 2.0 | Plan du site | SPIP | Nous contacter | S'abonner