Turing peut penser les machines. Les machines peuvent-elles penser ? Une simple digression sur la complexité du matériel

Il est peu probable que l'intelligence artificielle classique s'incarne dans des machines pensantes ; la limite de l'ingéniosité humaine dans ce domaine, apparemment, sera limitée à la création de systèmes qui imitent le travail du cerveau.

La science de l'intelligence artificielle (IA) est en pleine révolution. Pour en expliquer les causes, le sens et la mettre en perspective, il faut d'abord se tourner vers l'histoire.

Au début des années 1950, la question traditionnelle et quelque peu vague de savoir si une machine pouvait penser a cédé la place à la question plus accessible de savoir si une machine qui manipulait des symboles physiques selon des règles basées sur la structure pouvait penser. Cette question est formulée plus précisément parce que la logique formelle et la théorie du calcul ont fait des progrès significatifs au cours du demi-siècle précédent. Les théoriciens ont commencé à apprécier les possibilités des systèmes de symboles abstraits qui subissent des transformations conformément à certaines règles. Il semblait que si ces systèmes pouvaient être automatisés, alors leur puissance de calcul abstraite se manifesterait dans un système physique réel. De telles vues ont contribué à la naissance d'un programme de recherche bien défini sur une base théorique assez profonde.

Une machine peut-elle penser ?

Il y avait de nombreuses raisons de répondre oui. Historiquement, l'une des causes premières et les plus profondes a été deux résultats importants de la théorie du calcul. Le premier résultat fut la thèse de Church selon laquelle toute fonction effectivement calculable est récursivement calculable. Le terme "efficacement calculable" signifie qu'il existe une sorte de procédure "mécanique" par laquelle il est possible de calculer le résultat en un temps fini compte tenu des données d'entrée. "Récursivement calculable" signifie qu'il existe un ensemble fini d'opérations qui peuvent être appliquées à une entrée donnée, puis appliquées séquentiellement et à plusieurs reprises aux résultats nouvellement obtenus pour calculer la fonction en un temps fini. Le concept d'une procédure mécanique n'est pas formel, mais plutôt intuitif, et donc la thèse de Church n'a pas de preuve formelle. Cependant, cela va au cœur de ce qu'est le calcul, et de nombreuses preuves différentes convergent pour le soutenir.

Le deuxième résultat important a été obtenu par Alan M. Turing, qui a montré que toute fonction récursivement calculable peut être calculée en temps fini à l'aide d'une machine de manipulation de symboles simplifiée au maximum, appelée plus tard machine de Turing universelle. Cette machine est régie par des règles applicables de manière récursive sensibles à l'identité, à l'ordre et à l'emplacement des symboles élémentaires qui servent d'entrée.

Un corollaire très important découle de ces deux résultats, à savoir qu'un ordinateur numérique standard, pourvu du programme correct, d'une mémoire suffisamment grande et d'un temps suffisant, peut calculer n'importe quelle fonction pilotée par des règles avec entrée et sortie. En d'autres termes, il peut démontrer n'importe quel ensemble systématique de réponses à des influences arbitraires de l'environnement extérieur.

Concrétisons cela comme suit : les résultats discutés ci-dessus signifient qu'une machine correctement programmée qui manipule des symboles (ci-après dénommée machine MC) doit satisfaire au test de Turing pour la présence d'un esprit conscient. Le test de Turing est purement un test comportemental, mais ses exigences sont très fortes. (Nous discuterons ci-dessous de la validité de ce test, où nous rencontrons le deuxième "test" fondamentalement différent pour la présence d'un esprit conscient.) Selon la version originale du test de Turing, l'entrée dans la machine MS devrait être des questions et des phrases en langage familier naturel, que nous tapons sur le clavier du périphérique d'entrée, et la sortie est les réponses de la machine MS imprimées par le périphérique de sortie. Une machine est considérée comme ayant réussi ce test de présence d'un esprit conscient si ses réponses ne peuvent pas être distinguées de celles tapées par une personne réelle et intelligente. Bien sûr, à l'heure actuelle, personne ne connaît la fonction par laquelle il serait possible d'obtenir un rendement qui ne diffère pas du comportement d'une personne rationnelle. Mais les résultats de Church et Turing nous garantissent que quelle que soit cette fonction (présumée efficace), une machine MS bien conçue peut la calculer.

C'est une conclusion très importante, surtout si l'on considère que la description de Turing de l'interaction avec une machine au moyen d'une machine à écrire est une limitation insignifiante. La même conclusion vaut même si la MC-machine interagit avec le monde de manière plus complexe : à travers l'appareil de vision directe, la parole naturelle, etc. Au final, la fonction récursive plus complexe reste toujours calculable de Turing. Il ne reste qu'un seul problème : trouver cette fonction indubitablement complexe qui contrôle les réponses d'une personne aux influences de l'environnement extérieur, puis écrire un programme (un ensemble de règles applicables de manière récursive) avec lequel la machine MS calculera cette fonction. Ces objectifs ont constitué la base programme scientifique intelligence artificielle classique.

Les premiers résultats sont encourageants

Des machines MC avec des programmes ingénieusement programmés ont démontré toute une gamme d'actions qui semblaient appartenir aux manifestations de l'esprit. Ils ont répondu à des commandes complexes, résolu des problèmes arithmétiques, algébriques et tactiques difficiles, joué aux dames et aux échecs, prouvé des théorèmes et maintenu un dialogue simple. Les résultats ont continué de s'améliorer avec l'avènement de dispositifs de stockage plus grands, de machines plus rapides et du développement de programmes plus puissants et sophistiqués. L'IA classique ou "programmée" a été un domaine scientifique très dynamique et couronné de succès à presque tous les points de vue. Le déni récurrent que les machines MC seraient éventuellement capables de penser semblait être biaisé et mal informé. Les preuves en faveur d'une réponse positive à la question posée dans le titre de l'article semblaient plus que convaincantes.

Bien sûr, il y avait quelques ambiguïtés. Tout d'abord, les machines MC ne ressemblaient pas beaucoup cerveau humain. Cependant, ici aussi, l'IA classique avait une réponse convaincante prête. Premièrement, le matériau physique dont est faite une machine MS n'a essentiellement rien à voir avec la fonction qu'elle calcule. Ce dernier est inclus dans le programme. Deuxièmement, les détails techniques de l'architecture fonctionnelle de la machine sont également sans importance, puisque des architectures complètement différentes, conçues pour fonctionner avec des programmes complètement différents, peuvent néanmoins assurer la même fonction d'entrée-sortie.

Par conséquent, l'objectif de l'IA était de trouver une fonction caractéristique de l'esprit en termes d'entrée et de sortie, et également de créer le plus efficace des nombreux programmes possibles afin de calculer cette fonction. Dans le même temps, il a été dit que la manière spécifique dont la fonction est calculée par le cerveau humain n'a pas d'importance. Ceci complète la description de l'essence de l'IA classique et les motifs d'une réponse positive à la question posée dans le titre de l'article.

Une machine peut-elle penser ? Il y avait aussi des arguments en faveur d'une réponse négative. Tout au long des années 1960, les arguments négatifs notables étaient relativement rares. On a parfois objecté que la pensée n'est pas un processus physique et qu'elle se déroule dans une âme immatérielle. Cependant, une telle vision dualiste ne semblait pas suffisamment convaincante d'un point de vue évolutif ou logique. Cela n'a pas eu d'effet dissuasif sur la recherche en IA.

Des considérations d'une autre nature ont attiré beaucoup plus l'attention des spécialistes de l'IA. En 1972, Hubert L. Dreyfus a publié un livre très critique des démonstrations d'intelligence dans les systèmes d'IA. Il a souligné que ces systèmes ne modélisaient pas de manière adéquate la vraie pensée et a révélé le modèle inhérent à tous ces systèmes. tentatives infructueuses. À son avis, les modèles manquaient de cet énorme stock de connaissances générales non formalisées sur le monde que toute personne possède, ainsi que de la capacité inhérente au bon sens de s'appuyer sur certaines composantes de ces connaissances, en fonction des exigences d'un environnement changeant. . Dreyfus n'a pas nié la possibilité fondamentale de créer un système physique artificiel capable de penser, mais il était très critique à l'idée que cela ne pouvait être réalisé qu'en manipulant des symboles avec des règles appliquées de manière récursive.

Dans les cercles des spécialistes de l'intelligence artificielle, ainsi que des philosophes du raisonnement Dreyfusétaient perçues principalement comme myopes et biaisées, fondées sur les simplifications inévitables inhérentes à ce domaine de recherche encore très jeune. Peut-être que ces lacunes ont vraiment eu lieu, mais elles étaient bien sûr temporaires. Le temps viendra où des machines plus puissantes et de meilleurs programmes permettront de se débarrasser de ces lacunes. Il semblait que le temps travaille pour l'intelligence artificielle. Ainsi, ces objections n'ont eu aucun impact notable sur les recherches futures dans le domaine de l'IA.

Cependant, il s'est avéré que le temps a travaillé pour Dreyfus: à la fin des années 70 - début des années 80, une augmentation de la vitesse et de la mémoire des ordinateurs n'a pas beaucoup augmenté leurs "capacités mentales". Il s'est avéré, par exemple, que la reconnaissance de formes dans les systèmes de vision artificielle nécessite une quantité de calcul étonnamment élevée. Pour obtenir des résultats pratiquement fiables, il a fallu consacrer de plus en plus de temps à l'ordinateur, dépassant de loin le temps nécessaire pour effectuer les mêmes tâches pour un système de vision biologique. Un processus de simulation aussi lent était alarmant : après tout, dans un ordinateur, les signaux se propagent environ un million de fois plus vite que dans le cerveau, et la fréquence d'horloge de l'unité centrale de traitement de l'ordinateur est environ le même nombre de fois supérieure à la fréquence des oscillations trouvées. dans le cerveau. Et pourtant, sur des tâches réalistes, la tortue dépasse facilement le lièvre.

De plus, pour résoudre des problèmes réalistes, il est nécessaire que le programme informatique ait accès à une base de données extrêmement importante. Construire une telle base de données est déjà un problème assez difficile en soi, mais il est exacerbé par une autre circonstance : comment donner accès en temps réel à des fragments spécifiques et dépendants du contexte de cette base de données. Au fur et à mesure que les bases de données devenaient de plus en plus volumineuses, le problème d'accès se compliquait. Une recherche exhaustive prenait trop de temps et les méthodes heuristiques n'étaient pas toujours couronnées de succès. Des craintes similaires à celles exprimées par Dreyfus commencent à être partagées même par certains experts travaillant dans le domaine de l'intelligence artificielle.

À cette époque (1980), John Searle a présenté un concept critique révolutionnaire qui remettait en question l'hypothèse fondamentale du programme de recherche classique sur l'IA, à savoir l'idée que la manipulation correcte des symboles structurés en appliquant de manière récursive des règles qui tiennent compte de leur structure , peut constituer l'essence de l'esprit conscient.

L'argument principal de Searle était basé sur une expérience de pensée dans laquelle il démontre deux faits très importants. Premièrement, il décrit une machine MC qui (comme nous devons le comprendre) implémente une fonction qui, en entrée et en sortie, est capable de passer le test de Turing sous la forme d'une conversation qui se déroule exclusivement en chinois. Deuxièmement, la structure interne de la machine est telle que, quel que soit son comportement, il ne fait aucun doute pour l'observateur que ni la machine dans son ensemble, ni aucune partie de celle-ci ne comprend la langue chinoise. Tout ce qu'il contient est une personne qui ne parle que l'anglais, en suivant les règles écrites dans les instructions, à l'aide desquelles les caractères doivent être manipulés pour entrer et sortir par la boîte aux lettres de la porte. En bref, le système satisfait positivement au test de Turing, malgré le fait qu'il n'ait pas une véritable compréhension de la langue chinoise et du contenu sémantique réel des messages (voir l'article de J. Searle "The Mind of the Brain - a Computer Program? ").

La conclusion générale de ceci est que tout système qui manipule simplement des symboles physiques selon des règles sensibles à la structure sera au mieux une parodie pathétique d'un véritable esprit conscient, puisqu'il est impossible de générer une "vraie sémantique" en tournant simplement le bouton de " syntaxe vide". Notons ici que Searle ne propose pas de test comportemental (non comportemental) de présence de conscience : les éléments de l'esprit conscient doivent avoir un contenu sémantique réel.

On est tenté de reprocher à Searle le fait que son expérience de pensée n'est pas adéquate, puisque le système qu'il propose, agissant comme un "Rubik's cube", fonctionnera d'une lenteur absurde. Cependant, Searle insiste sur le fait que la vitesse ne joue aucun rôle dans ce cas. Celui qui pense lentement pense encore bien. Tout ce qui est nécessaire à la reproduction de la pensée, selon le concept de l'IA classique, selon lui, est présent dans la "salle chinoise".

L'article de Searle a suscité des réponses enthousiastes de la part d'experts en IA, de psychologues et de philosophes. Dans l'ensemble, cependant, il a rencontré encore plus d'hostilité que le livre de Dreyfus. Dans son article, qui est publié simultanément dans ce numéro de la revue, Searle présente un certain nombre d'arguments critiques à l'encontre de son concept. A notre avis, beaucoup d'entre eux sont légitimes, surtout ceux dont les auteurs « mordent à l'hameçon » goulûment, affirmant que bien que le système constitué d'une pièce et de son contenu soit terriblement lent, il comprend tout de même le chinois.

Nous aimons ces réponses, mais pas parce que nous pensons que la salle chinoise comprend le chinois. Nous sommes d'accord avec Searle qu'elle ne le comprend pas. L'attrait de ces arguments est qu'ils reflètent un échec à accepter le troisième axiome très important de l'argument de Searle : "La syntaxe en elle-même ne constitue pas la sémantique et n'est pas suffisante pour l'existence de la sémantique." Cet axiome est peut-être vrai, mais Searle ne peut prétendre à juste titre qu'il le sait avec certitude. De plus, suggérer que c'est vrai, c'est poser la question de savoir si le programme de recherche classique en IA est solide, puisque ce programme est basé sur l'hypothèse très intéressante que si nous pouvons seulement mettre en marche un processus structuré de manière appropriée, une sorte de danse interne d'éléments syntaxiques, correctement connectés avec les entrées et les sorties, nous pouvons alors obtenir les mêmes états et manifestations de l'esprit qui sont inhérents à l'homme.

Que le troisième axiome de Searle soulève vraiment cette question devient apparent lorsque nous le comparons directement avec sa première conclusion : "Les programmes apparaissent comme l'essence de l'esprit et leur présence n'est pas suffisante pour la présence de l'esprit." Il n'est pas difficile de voir que son troisième axiome porte déjà 90% de la conclusion presque identique à celui-ci. C'est pourquoi l'expérience de pensée de Searle est spécifiquement conçue pour soutenir le troisième axiome. C'est tout l'intérêt de la chambre chinoise.

Bien que l'exemple de la chambre chinoise rende l'axiome 3 attrayant pour les non-initiés, nous ne pensons pas qu'il prouve la validité de cet axiome, et afin de démontrer l'échec de cet exemple, nous proposons notre exemple parallèle à titre d'illustration. Souvent, un seul bon exemple qui réfute une affirmation contestée est bien meilleur pour clarifier la situation qu'un livre entier plein de jonglage logique.

Il y a eu de nombreux exemples de scepticisme dans l'histoire des sciences, comme nous le voyons dans le raisonnement de Searle. Au XVIIIe siècle. L'évêque irlandais George Berkeley considérait qu'il était inconcevable que les ondes de compression dans l'air puissent être en elles-mêmes l'essence des phénomènes sonores ou un facteur suffisant pour leur existence. Le poète et peintre anglais William Blake et le naturaliste allemand Johann Goethe considéraient qu'il était inconcevable que de petites particules de matière puissent elles-mêmes être une entité ou un facteur suffisant pour l'existence objective de la lumière. Même en ce siècle, il y a eu des hommes qui n'ont pas pu imaginer que la matière inanimée par elle-même, quelle que soit la complexité de son organisation, puisse être une entité organique ou une condition suffisante de la vie. De toute évidence, ce que les gens peuvent ou non imaginer n'a souvent rien à voir avec ce qui existe réellement ou n'existe pas dans la réalité. Cela est vrai même lorsqu'il s'agit de personnes ayant un très haut niveau d'intelligence.

Pour voir comment ces leçons historiques peuvent être appliquées au raisonnement de Searle, appliquons un parallèle artificiel à sa logique et renforçons ce parallèle avec une expérience de pensée.

Axiome 1. L'électricité et le magnétisme sont des forces physiques.

Axiome 2. Une propriété essentielle de la lumière est la luminosité.

Axiome 3. Les forces elles-mêmes apparaissent comme l'essence de l'effet de lueur et ne suffisent pas à sa présence.

Conclusion 1. L'électricité et le magnétisme ne sont pas l'essence de la lumière et ne suffisent pas à son existence.

Supposons que ce raisonnement ait été publié peu après James K. Maxwell en 1864 a suggéré que la lumière et les ondes électromagnétiques étaient identiques, mais avant que les parallèles systématiques entre les propriétés de la lumière et les propriétés des ondes électromagnétiques ne soient pleinement réalisés dans le monde. Le raisonnement logique ci-dessus peut sembler une objection convaincante à l'hypothèse audacieuse de Maxwell, surtout s'il est accompagné du commentaire suivant à l'appui de l'Axiome 3.

Considérez une pièce sombre dans laquelle se trouve une personne tenant un aimant permanent ou un objet chargé dans ses mains. Si une personne commence à déplacer l'aimant de haut en bas, alors, selon la théorie de l'éclairage artificiel (IA) de Maxwell, une sphère de propagation d'ondes électromagnétiques émanera de l'aimant et la pièce deviendra plus lumineuse. Mais, comme tous ceux qui ont essayé de jouer avec des aimants ou des balles chargées le savent bien, leurs forces (et d'ailleurs toutes les autres forces), même lorsque ces objets sont en mouvement, ne créent aucune lueur. Par conséquent, il semble impensable que nous puissions obtenir un véritable effet lumineux simplement en manipulant les forces !

Les fluctuations des forces électromagnétiques sont légères, bien que l'aimant qu'une personne déplace ne produise aucune lueur. De même, la manipulation de symboles selon certaines règles peut représenter l'intelligence, bien que le système basé sur des règles trouvé dans China Room de Searle semble manquer de compréhension réelle.

Que pourrait répondre Maxwell si ce défi lui était lancé ?

Premièrement, il aurait pu insister sur le fait que l'expérience de la "salle lumineuse" nous induit en erreur sur les propriétés de la lumière visible, car la fréquence de vibration de l'aimant est extrêmement basse, environ 1015 fois moins que nécessaire. Cela peut être suivi par la réponse impatiente que la fréquence ne joue aucun rôle ici, que la pièce avec l'aimant oscillant contient déjà tout le nécessaire pour la manifestation de l'effet de lueur en pleine conformité avec la théorie de Maxwell lui-même.

À son tour Maxwell pourrait « prendre l'appât » en prétendant à juste titre que la pièce est déjà pleine de luminosité, mais la nature et la force de cette luminescence est telle qu'une personne n'est pas capable de la voir. (En raison de la faible fréquence avec laquelle une personne déplace un aimant, la longueur des ondes électromagnétiques générées est trop grande et l'intensité est trop faible pour que l'œil humain puisse y réagir.) Cependant, étant donné le niveau de compréhension de ces phénomènes dans la période considérée (années 60 du siècle dernier), une telle explication aurait probablement provoqué des rires et des remarques moqueuses. Chambre lumineuse ! Mais excusez-moi, M. Maxwell, il fait complètement noir là-dedans !

On voit donc que les pauvres Maxwellça doit être dur. Tout ce qu'il peut faire, c'est insister sur les trois points suivants. Premièrement, l'axiome 3 du raisonnement ci-dessus n'est pas vrai. En effet, malgré le fait qu'intuitivement cela semble tout à fait plausible, nous nous posons involontairement une question à ce sujet. Deuxièmement, l'expérience de la chambre incandescente ne nous montre rien d'intéressant sur la nature physique de la lumière. Et troisièmement, pour vraiment résoudre le problème de la lumière et la possibilité de la lumière artificielle, nous avons besoin d'un programme de recherche qui nous permettra d'établir si, dans des conditions appropriées, le comportement des ondes électromagnétiques est complètement identique au comportement de la lumière. La même réponse devrait être donnée par l'intelligence artificielle classique au raisonnement de Searle. Bien que la chambre chinoise de Searle puisse sembler "sémantiquement sombre", il a peu de raisons d'insister sur le fait que la manipulation des symboles, effectuée selon certaines règles, ne peut jamais produire de phénomènes sémantiques, d'autant plus que les gens sont encore mal informés et limités uniquement par la compréhension de la langue niveau de bon sens de ceux sémantique et phénomènes mentaux qui ont besoin d'une explication. Au lieu de profiter de la compréhension de ces choses, Searle dans son raisonnement utilise librement le manque d'une telle compréhension chez les gens.

Après avoir exprimé nos critiques sur le raisonnement de Searle, revenons à la question de savoir si un programme d'IA classique a une réelle chance de résoudre le problème de l'esprit conscient et de créer une machine à penser. Nous croyons que les perspectives ici ne sont pas brillantes, mais notre opinion est basée sur des raisons qui sont fondamentalement différentes de celles utilisées par Searle. Nous nous appuyons sur des échecs spécifiques du programme de recherche classique sur l'IA et sur un ensemble de leçons que le cerveau biologique nous a enseignées à travers une nouvelle classe de modèles informatiques qui incarnent certaines propriétés de sa structure. Nous avons déjà mentionné les échecs de l'IA classique pour résoudre ces problèmes qui sont résolus rapidement et efficacement par le cerveau. Les scientifiques en viennent progressivement à un consensus sur le fait que ces échecs sont dus aux propriétés de l'architecture fonctionnelle des machines MS, qui sont tout simplement inadaptées à la résolution des tâches complexes qui les attendent.

Ce que nous devons savoir, c'est comment le cerveau réalise-t-il l'effet de pensée ? La rétro-ingénierie est une technique largement répandue en ingénierie. Lorsqu'une nouvelle technologie est mise sur le marché, les concurrents découvrent comment elle fonctionne en la démontant et en essayant de deviner le principe sur lequel elle repose. Dans le cas du cerveau, cette approche est extraordinairement difficile à mettre en œuvre, car le cerveau est la chose la plus complexe de la planète. Néanmoins, les neurophysiologistes ont réussi à révéler de nombreuses propriétés du cerveau à différents niveaux structurels. Trois caractéristiques anatomiques le distinguent fondamentalement de l'architecture des ordinateurs électroniques traditionnels.

Premièrement, le système nerveux est une machine parallèle, dans le sens où les signaux sont traités simultanément de millions de manières différentes. Par exemple, la rétine de l'œil transmet un signal d'entrée complexe au cerveau non pas par lots de 8, 16 ou 32 éléments, comme un ordinateur de bureau, mais sous la forme d'un signal composé de près d'un million d'éléments individuels arrivant simultanément au extrémité du nerf optique (le corps géniculé latéral), après quoi ils sont également traités simultanément, en une seule étape, par le cerveau. Deuxièmement, le "dispositif de traitement" élémentaire du cerveau, le neurone, est relativement simple. De plus, sa réponse à un signal d'entrée est analogique et non numérique, dans le sens où la fréquence du signal de sortie change continuellement avec les signaux d'entrée.

Troisièmement, dans le cerveau, en plus des axones menant d'un groupe de neurones à un autre, on trouve souvent des axones menant dans la direction opposée. Ces processus de retour permettent au cerveau de moduler la manière dont les informations sensorielles sont traitées. Plus important encore est le fait que, du fait de leur existence, le cerveau est un véritable système dynamique, dans lequel un comportement maintenu en permanence se caractérise à la fois par une très grande complexité et une relative indépendance vis-à-vis des stimuli périphériques. Les modèles de réseau simplifiés ont joué un rôle utile dans l'étude des mécanismes de fonctionnement des réseaux de neurones réels et des propriétés informatiques des architectures parallèles. Considérons, par exemple, un modèle à trois couches composé d'éléments de type neurone qui ont des connexions de type axone avec des éléments du niveau suivant. Le stimulus d'entrée atteint le seuil d'activation d'un élément d'entrée donné, qui envoie un signal de force proportionnelle le long de son "axone" aux nombreuses terminaisons "synaptiques" des éléments de la couche cachée. L'effet global est qu'un modèle particulier de signaux d'activation sur un ensemble d'éléments d'entrée génère un certain modèle de signaux sur un ensemble d'éléments cachés.

Il en va de même pour les éléments de sortie. De même, la configuration des signaux d'activation au niveau de la tranche de la couche cachée conduit à un certain schéma d'activation au niveau de la tranche des éléments de sortie. En résumé, nous pouvons dire que le réseau considéré est un dispositif pour convertir n'importe quel grand nombre de vecteurs d'entrée possibles (configurations de signaux d'activation) en un vecteur de sortie correspondant de manière unique. Cet appareil est conçu pour calculer une fonction spécifique. La fonction qu'il évalue dépend de la configuration globale de la structure de poids synaptique.

Les réseaux de neurones modélisent la principale propriété de la microstructure cérébrale. Dans ce réseau à trois couches, les neurones d'entrée (en bas à gauche) traitent le schéma des signaux de déclenchement (en bas à droite) et les transmettent via des connexions pondérées à la couche cachée. Les éléments de la couche cachée résument leurs multiples entrées pour former une nouvelle configuration de signal. Il est transmis à la couche externe, qui effectue d'autres transformations. En général, le réseau transformera tout ensemble de signaux d'entrée en sortie correspondante, en fonction de l'emplacement et de la force relative des connexions entre les neurones.

Il existe différentes procédures d'ajustement des poids, grâce auxquelles on peut rendre un réseau capable de calculer presque n'importe quelle fonction (c'est-à-dire n'importe quelle transformation entre vecteurs). En fait, il est possible d'implémenter une fonction dans le réseau qui ne peut même pas être formulée, il suffit juste de lui donner un ensemble d'exemples montrant quelles entrées et sorties nous aimerions avoir. Ce processus, appelé « apprentissage du réseau », s'effectue en sélectionnant séquentiellement les poids affectés aux liens, qui se poursuit jusqu'à ce que le réseau commence à effectuer les transformations souhaitées sur l'entrée afin d'obtenir la sortie souhaitée.

Bien que ce modèle de réseau simplifie grandement la structure du cerveau, il illustre tout de même plusieurs aspects importants. Premièrement, l'architecture parallèle offre un énorme avantage en termes de performances par rapport à un ordinateur traditionnel, car les nombreuses synapses à chaque niveau effectuent de nombreuses petites opérations de calcul en même temps, au lieu de fonctionner dans un mode séquentiel très chronophage. Cet avantage devient de plus en plus important à mesure que le nombre de neurones à chaque niveau augmente. Étonnamment, la vitesse de traitement de l'information ne dépend pas du tout du nombre d'éléments impliqués dans le processus à chaque niveau, ni de la complexité de la fonction qu'ils calculent. Chaque niveau peut avoir quatre éléments, ou cent millions ; une configuration de poids synaptique peut calculer de simples sommes à un chiffre ou résoudre des équations différentielles du second ordre. Ce n'est pas important. Le temps de calcul sera exactement le même.

Deuxièmement, le caractère parallèle du système le rend insensible aux petites erreurs et lui confère une stabilité fonctionnelle ; la perte de quelques liens, même d'un nombre notable, a un effet négligeable sur l'avancement global de la transformation opérée par le reste du réseau.

Troisièmement, un système parallèle stocke une grande quantité d'informations sous une forme distribuée, tout en permettant d'accéder à n'importe quel fragment de ces informations en un temps mesuré en quelques millisecondes. Les informations sont stockées sous la forme de certaines configurations des poids des connexions synaptiques individuelles qui ont été formées au cours du processus d'apprentissage précédent. Les informations souhaitées sont "libérées" lorsque le vecteur d'entrée traverse (et transforme) cette configuration de liaison.

Le traitement parallèle des données n'est pas idéal pour tous les types d'informatique. Lors de la résolution de problèmes avec un petit vecteur d'entrée, mais nécessitant plusieurs millions de calculs récursifs à répétition rapide, le cerveau s'avère complètement impuissant, tandis que les machines MS classiques démontrent leurs meilleures capacités. Il s'agit d'une classe informatique très vaste et importante, de sorte que les machines classiques seront toujours nécessaires et même nécessaires. Cependant, il existe une classe tout aussi large de calculs pour lesquels l'architecture du cerveau est la meilleure solution technique. Ce sont principalement les calculs auxquels sont habituellement confrontés les organismes vivants : reconnaître les contours d'un prédateur dans un environnement « bruyant » ; rappel instantané de la bonne réaction à son regard, de la manière de fuir lorsqu'il s'approche ou de se défendre lorsqu'il est attaqué ; faire la distinction entre les choses comestibles et non comestibles, entre les partenaires sexuels et les autres animaux ; choix de comportement dans un environnement physique ou social complexe et en constante évolution ; etc.

Enfin, il est très important de noter que le système parallèle décrit ne manipule pas les symboles selon des règles structurelles. Au contraire, la manipulation de symboles n'est qu'une des nombreuses autres compétences "intelligentes" que le réseau peut ou non apprendre. La manipulation de symboles basée sur des règles n'est pas le principal mode de fonctionnement du réseau. Le raisonnement de Searle est dirigé contre les machines MC régies par des règles ; les systèmes de transformation vectorielle du type que nous avons décrit sortent donc du cadre de son argument de chambre chinois, même s'il était valide, ce dont nous avons d'autres raisons indépendantes de douter.

Searle connaît les processeurs parallèles, mais, à son avis, ils seront également dépourvus de contenu sémantique réel. Pour illustrer leur inévitable infériorité à cet égard, il décrit une expérience de réflexion, cette fois avec un gymnase chinois rempli de personnes organisées en réseau parallèle. La suite de son raisonnement est similaire au raisonnement dans le cas de la chambre chinoise.

À notre avis, ce deuxième exemple n'est pas aussi réussi et convaincant que le premier. Tout d'abord, le fait qu'aucun élément du système ne comprenne le chinois ne joue aucun rôle, car il en va de même pour le système nerveux humain : pas un seul neurone de mon cerveau ne comprend de la langue anglaise, bien que le cerveau dans son ensemble comprenne. Searle poursuit en disant que son modèle (une personne par neurone plus un garçon aux pieds rapides par connexion synaptique) nécessiterait au moins 1014 personnes, puisque le cerveau humain contient 1011 neurones, chacun avec une moyenne de 103 connexions. . Ainsi, son système nécessiterait la population de 10 000 mondes comme notre Terre. Évidemment, la salle de sport est loin de pouvoir accueillir un modèle plus ou moins adéquat.

D'un autre côté, si un tel système pouvait encore être assemblé, à l'échelle cosmique appropriée, avec toutes les connexions modélisées avec précision, nous aurions un cerveau énorme, lent, étrangement conçu, mais toujours fonctionnel. Dans ce cas, bien sûr, il est naturel de s'attendre à ce qu'avec la bonne entrée, il pense, et non l'inverse, qu'il n'en est pas capable. Il ne peut être garanti que le fonctionnement d'un tel système représentera une pensée réelle, car la théorie du traitement vectoriel peut ne pas refléter adéquatement le fonctionnement du cerveau. Mais de la même manière, nous n'avons aucune garantie a priori qu'elle ne pensera pas. Searle identifie une fois de plus à tort les limites actuelles de sa propre imagination (ou de celle du lecteur) avec les limites de la réalité objective.

Cerveau

Le cerveau est une sorte d'ordinateur, bien que la plupart de ses propriétés soient encore inconnues. Il est loin d'être facile de caractériser le cerveau comme un ordinateur, et une telle tentative ne doit pas être prise trop à la légère. Le cerveau calcule des fonctions, mais pas de la même manière que dans les tâches appliquées résolues par l'intelligence artificielle classique. Lorsque nous parlons d'une machine en tant qu'ordinateur, nous ne parlons pas d'un ordinateur numérique séquentiel qui doit être programmé et qui a une séparation claire entre le logiciel et le matériel ; nous ne voulons pas non plus dire que cet ordinateur manipule des symboles ou suit certaines règles. Le cerveau est un ordinateur d'un genre fondamentalement différent.

La façon dont le cerveau capture le contenu sémantique de l'information n'est pas encore connue, mais il est clair que ce problème va bien au-delà de la linguistique et ne se limite pas aux humains en tant qu'espèce. Une petite parcelle de terre fraîche signifie, pour l'homme et le coyote, qu'il y a un gopher quelque part à proximité; écho avec certaines caractéristiques spectrales des moyens pour chauve souris la présence d'un papillon. Pour développer une théorie de la formation du sens, nous devons en savoir plus sur la façon dont les neurones encodent et transforment les signaux sensoriels, la base neurale de la mémoire, de l'apprentissage et de l'émotion, et la relation entre ces facteurs et le système moteur. Une théorie de la compréhension du sens basée sur les neurosciences peut même nécessiter nos intuitions, qui nous semblent maintenant si inébranlables et que Searle utilise si librement dans son raisonnement. De telles révisions ne sont pas rares dans l'histoire des sciences.

La science peut-elle créer une intelligence artificielle en utilisant ce que l'on sait du système nerveux ? Nous ne voyons aucun obstacle fondamental sur cette voie. Searle serait d'accord, mais avec une mise en garde : "Tout autre système capable de générer de l'intelligence doit avoir des propriétés causales (au moins) équivalentes aux propriétés correspondantes du cerveau." À la fin de l'article, nous examinerons cette déclaration. Nous pensons que Searle ne soutient pas qu'un système d'IA réussi doit nécessairement avoir toutes les propriétés causales du cerveau, telles que la capacité de sentir la pourriture, la capacité de transporter des virus, la capacité de jaunir sous l'action de la peroxydase de raifort, etc. Exiger une conformité totale reviendrait à demander à un avion artificiel de pouvoir pondre des œufs.

Il ne parlait probablement que de l'exigence qu'un esprit artificiel ait toutes les propriétés causales qui, comme il l'a dit, appartiennent à un esprit conscient. Cependant lesquels exactement ? Et nous voici de retour à la dispute sur ce qui appartient à l'esprit conscient et ce qui ne lui appartient pas. C'est juste l'endroit pour discuter, mais la vérité dans ce cas doit être découverte empiriquement - essayez de voir ce qui se passe. Puisque nous savons si peu de choses sur ce que sont exactement le processus de pensée et la sémantique, toute certitude sur les propriétés pertinentes ici serait prématurée. Searle laisse entendre à plusieurs reprises que chaque niveau, y compris la biochimie, doit être représenté dans toute machine qui prétend être une intelligence artificielle. Évidemment, c'est une exigence trop forte. Un cerveau artificiel peut obtenir le même effet sans utiliser de mécanismes biochimiques.

Cette possibilité a été démontrée dans les études de K. Mead au California Institute of Technology. Mead et ses collègues ont utilisé des dispositifs microélectroniques analogiques pour créer une rétine artificielle et une cochlée artificielle. (Chez les animaux, la rétine et la cochlée ne sont pas seulement des transducteurs : il y a un traitement parallèle complexe en cours dans les deux systèmes.) Ces appareils ne sont plus de simples modèles dans un mini-ordinateur dont Searle se moque ; ce sont de véritables éléments de traitement de l'information qui répondent en temps réel à des signaux réels : la lumière dans le cas de la rétine et le son dans le cas de la cochlée. Les conceptions des appareils sont basées sur les propriétés anatomiques et physiologiques connues de la rétine et de la cochlée de chat de la chouette effraie, et leur sortie est extrêmement proche des sorties connues des organes qu'ils modélisent.

Ces microcircuits n'utilisent aucun neurotransmetteur, les neurotransmetteurs ne semblent donc pas nécessaires pour obtenir les résultats souhaités. Bien sûr, nous ne pouvons pas dire que la rétine artificielle voit quelque chose, puisque sa sortie ne va pas au thalamus artificiel ou au cortex cérébral, etc. On ne sait pas encore s'il est possible de construire un cerveau artificiel entier à l'aide du programme Mead, mais à présent Nous n'avons aucune preuve que l'absence de mécanismes biochimiques dans le système rende cette approche irréaliste.

Le système nerveux couvre toute une gamme d'organisations, des molécules de neurotransmetteurs (ci-dessous) à l'ensemble du cerveau et de la moelle épinière. Les niveaux intermédiaires contiennent des neurones et des circuits neuronaux individuels, tels que ceux qui mettent en œuvre la sélectivité de la perception des stimuli visuels (au centre), et des systèmes constitués de nombreux circuits, similaires à ceux qui remplissent les fonctions de la parole (en haut à droite). Ce n'est que par la recherche que l'on peut établir à quel point un système artificiel est capable de reproduire des systèmes biologiques dotés d'un esprit.

Comme Searle, nous rejetons le test de Turing comme critère suffisant de la présence d'un esprit conscient. À un certain niveau, nous avons des raisons similaires de faire cela : nous convenons qu'il est très important de savoir comment une fonction définie par entrée-sortie est implémentée ; il est important que les processus corrects aient lieu dans la machine. A un autre niveau, nous sommes guidés par des considérations complètement différentes. Searle fonde sa position sur la présence ou l'absence de contenu sémantique sur des intuitions de bon sens. Notre point de vue est basé sur les défaillances spécifiques des machines MS classiques et les mérites spécifiques des machines dont l'architecture est plus proche de la structure du cerveau. Une comparaison de ces différents types de machines montre que certaines stratégies de calcul ont un avantage énorme et décisif sur d'autres en ce qui concerne les tâches mentales typiques. Ces avantages, établis empiriquement, ne font aucun doute. Évidemment, le cerveau profite systématiquement de ces avantages informatiques. Cependant, ce n'est pas nécessairement le seul système physique capable d'en tirer parti. L'idée de créer de l'intelligence artificielle dans une machine non biologique, mais essentiellement parallèle, reste très tentante et assez prometteuse.

Je vais me demander si les machines peuvent penser. Mais pour cela il faut d'abord définir le sens des termes « machine » et « penser ». Il serait possible de construire ces définitions de manière à ce qu'elles reflètent au mieux l'usage usuel de ces mots, mais une telle approche comporte un certain danger. Le fait est que si nous enquêtons sur le sens des mots « machine » et « penser » en examinant comment ces mots sont généralement définis, il nous sera difficile d'éviter la conclusion que le sens de ces mots et la réponse à la question "Les machines peuvent-elles penser ?" doit être recherchée à travers une enquête statistique similaire à un questionnaire Gallup. Cependant, c'est ridicule. Au lieu d'essayer de donner une telle définition, je remplacerai notre question par une autre qui lui est étroitement liée et qui s'exprime par des mots au sens relativement clair.

Cette nouvelle forme peut être décrite en termes de jeu que nous appellerons le "jeu d'imitation". Ce jeu est joué par trois personnes : un homme (A), une femme (B) et quelqu'un qui pose des questions (C), qui peut être une personne de n'importe quel sexe. L'interrogateur est séparé des deux autres participants au jeu par les murs de la pièce dans laquelle il se trouve. Le but du jeu pour le questionneur est de déterminer lequel des deux autres joueurs du jeu est un homme (A) et lequel est une femme (B). Il les connaît sous le nom de X et Y, et à la fin du jeu, il dit soit "X est A et Y est B" soit "X est B et Y est A". Il est autorisé à poser des questions telles que :

S : "Je demanderai à X de me dire la longueur de ses cheveux."

Supposons maintenant que X est en fait A. Dans ce cas, A doit donner la réponse. Pour A, le but du jeu est d'encourager C à arriver à la mauvaise conclusion. Donc sa réponse pourrait être quelque chose comme ça :

"Mes cheveux sont coupés courts et les mèches les plus longues mesurent environ neuf pouces de long."

Pour que le questionneur ne puisse pas déterminer oralement lequel des deux autres participants au jeu est un homme et lequel est une femme, les réponses aux questions auraient dû être données par écrit, et mieux encore - sur une machine à écrire. Le cas idéal serait un message télégraphique entre les deux salles où se trouvent les joueurs. Si cela ne peut être fait, alors les réponses et les questions doivent être transmises par un intermédiaire. Le but du jeu pour le troisième joueur, la femme (B), est d'aider le questionneur. Pour elle, la meilleure stratégie est probablement de donner des réponses véridiques. Elle peut aussi faire des remarques telles que "Femme - moi, ne l'écoute pas!", mais cela n'aboutira à rien, puisqu'un homme peut aussi faire de telles remarques.

Posons maintenant la question : « Que se passera-t-il si une machine participe à ce jeu à la place de A ? Le questionneur dans ce cas fera-t-il des erreurs aussi souvent que dans un jeu où les participants ne sont que des personnes ? Ces questions remplaceront notre question initiale, "Les machines peuvent-elles penser ?".

II. Critique de la nouvelle formulation du problème

De même que l'on pose la question : « Quelle est la réponse au problème sous sa nouvelle forme ? », on peut se demander : « Le problème mérite-t-il d'être considéré dans sa nouvelle formulation ? ». Nous examinerons cette dernière question sans remettre indéfiniment les choses, pour ne pas y revenir plus tard.

La nouvelle formulation de notre problème a l'avantage de faire une nette distinction entre les capacités physiques et mentales de l'homme. Aucun ingénieur ou chimiste ne prétend créer un matériau qui serait indiscernable de la peau humaine. Une telle invention pourrait un jour voir le jour. Mais même en supposant la possibilité de créer un matériau indiscernable de la peau humaine, nous pensons toujours qu'il n'est guère logique d'essayer de rendre la "machine à penser" plus humaine en l'habillant d'une telle chair artificielle. La forme que nous avons donnée au problème reflète cette circonstance à condition que le questionneur n'entre pas en contact avec les autres participants au jeu, ne les voie pas ou n'entende pas leurs voix. Certains autres avantages du critère introduit peuvent être démontrés en donnant des exemples de questions et de réponses possibles. Par exemple:

S : S'il vous plaît, écrivez un sonnet sur le pont sur la rivière Forth.

R : Sortez-moi de ça. Je n'ai jamais eu à écrire de poésie.

C : Ajoutez 34 957 à 70 764.

A (reste silencieux pendant environ 30 secondes, puis donne une réponse) : 105 621.

S : Jouez-vous aux échecs ?

S : Je n'ai qu'un roi en e8 et aucune autre pièce. Vous n'avez qu'un roi en e6 et une tour en h1. Comment allez-vous jouer ?

A (après 15 secondes de silence) : Rh8. Tapis.

Il nous semble que la méthode des questions et réponses est adaptée pour couvrir presque tous les domaines de l'activité humaine que nous voulons introduire en considération. Nous ne voulons pas blâmer la machine pour son incapacité à briller dans les concours de beauté, ni blâmer une personne pour avoir été vaincue dans une compétition avec un avion, les conditions de jeu rendent ces lacunes insignifiantes. Ceux qui répondent, s'ils le jugent bon, peuvent se vanter de leur charme, de leur force ou de leur courage, à leur guise, et l'interrogateur ne peut en exiger la preuve pratique.

Peut-être que notre jeu peut être critiqué au motif que les avantages y sont largement du côté de la machine. Si une personne essayait de faire semblant d'être une machine, alors, évidemment, elle aurait l'air très pathétique. Il se trahirait aussitôt par la lenteur et l'imprécision des calculs. De plus, une machine ne peut-elle pas faire quelque chose qui devrait être caractérisé comme de la pensée, mais qui serait très différent de ce que fait une personne ? Cette objection est très lourde. Mais en réponse, nous pouvons au moins dire que s'il est encore possible de mettre en œuvre une machine qui jouera de manière satisfaisante à l'imitation, alors cette objection ne devrait pas être particulièrement préoccupante.

On peut noter que dans le "jeu de l'imitation", il n'est pas exclu qu'imiter simplement le comportement humain ne soit pas la meilleure stratégie pour la machine. Un tel cas est possible, mais je ne pense pas qu'il nous conduira à quelque chose d'essentiellement nouveau. En tout cas, personne n'a tenté d'explorer notre théorie des jeux dans ce sens, et nous supposerons que la meilleure stratégie pour une machine est de donner des réponses qu'une personne donnerait dans le bon environnement.

III. Machines impliquées dans le jeu

La question posée dans la section I ne deviendra complètement précise que lorsque nous aurons précisé ce que l'on entend exactement par le mot "machine". Bien sûr, nous aimerions pouvoir utiliser n'importe quel type d'équipement d'ingénierie dans le jeu. Nous sommes également enclins à admettre la possibilité qu'un ingénieur ou un groupe d'ingénieurs puisse construire une machine qui fonctionnera mais ne puisse pas donner une description satisfaisante de son fonctionnement car la méthode qu'ils ont utilisée était fondamentalement expérimentale. [par essais et erreurs]. Enfin, nous voudrions exclure de la catégorie des machines les personnes nées de manière ordinaire. Il est difficile de construire une définition telle qu'elle satisfasse à ces trois conditions. Il est possible, par exemple, d'exiger que tous les concepteurs d'une machine soient du même sexe ; en réalité, cependant, cela ne suffit pas, puisque, apparemment, il est possible de faire croître un individu complet à partir d'une seule cellule prélevée ( par exemple) de la peau humaine. Le faire serait un exploit d'ingénierie biologique digne des plus grands éloges, mais nous ne sommes pas enclins à considérer ce cas comme "la construction d'une machine à penser".

Cela nous amène à penser à abandonner l'exigence selon laquelle tout type de technologie devrait être autorisé dans le jeu. Nous sommes d'autant plus enclins à cette idée que notre intérêt pour les « machines pensantes » est né d'un type particulier de machine, généralement appelée « ordinateur électronique » ou « ordinateur numérique ». Par conséquent, nous n'autorisons que les ordinateurs numériques à participer à notre jeu.

Altov Heinrich

Une machine peut-elle penser

Henri Altov

Une machine peut-elle penser ?

Je vais considérer la question : « Une machine peut-elle penser ? Mais pour cela il faut d'abord définir le sens du terme "penser"...

A. Turing. chaîne de déclenchement.

Deux fois par semaine, le soir, le grand maître venait à l'Institut de Cybernétique et jouait avec la machine électronique.

Dans le hall spacieux et désert, il y avait une table basse avec un échiquier, une horloge et un panneau de commande à bouton-poussoir. Le grand maître s'assit sur une chaise, arrangea les pièces et appuya sur le bouton "Démarrer". Sur la face avant de la machine électronique, une mosaïque mobile de voyants lumineux s'allumait. L'objectif du système de suivi visait à échiquier. Puis une courte inscription clignota sur le tableau mat. La voiture a fait son premier pas.

Elle était toute petite, cette voiture. Il semblait parfois au grand maître que le réfrigérateur le plus ordinaire se tenait en face de lui. Mais ce "réfrigérateur" a toujours gagné. En un an et demi, le grand maître a à peine réussi à tirer seulement quatre matchs.

La machine ne s'est jamais trompée. La menace de la pression du temps ne pesait jamais sur elle. Le grand maître a tenté plus d'une fois de renverser la voiture, faisant un geste délibérément ridicule ou sacrifiant une pièce. En conséquence, il a dû appuyer à la hâte sur le bouton "Surrender".

Le grand maître était un ingénieur et a expérimenté une machine pour affiner la théorie des automates auto-organisés. Mais parfois, il était exaspéré par la sérénité absolue du "réfrigérateur". Même aux moments critiques du jeu, la machine n'a pas réfléchi plus de cinq ou six secondes. Faisant clignoter calmement les lumières multicolores des voyants lumineux, elle écrivit le mouvement le plus fort possible. La machine a su s'adapter au style de jeu de son adversaire. Parfois, elle levait l'objectif et regardait la personne pendant un long moment. Le grand maître était inquiet et a fait des erreurs...

Pendant la journée, un laborantin silencieux entra dans le hall. Sombre, ne regardant pas la machine, il reproduit sur l'échiquier les parties jouées en temps différent joueurs d'échecs exceptionnels. La lentille du "réfrigérateur" s'étendait jusqu'à l'échec et pendait au-dessus du tableau. La machine n'a pas regardé l'assistant de laboratoire. Elle a enregistré les informations sans passion.

L'expérience pour laquelle l'automate d'échecs avait été créé touchait à sa fin. Il a été décidé d'organiser un match public entre l'homme et la machine. Avant le match, le grand maître a commencé à apparaître encore plus souvent à l'institut. Le grand maître a compris que perdre était presque inévitable. Et pourtant il a cherché dur points faibles dans le jeu du frigo. La machine, comme si elle devinait le combat à venir, jouait chaque jour de plus en plus fort. Elle a démêlé les plans les plus ingénieux du grand maître à la vitesse de l'éclair. Elle a brisé ses morceaux avec des attaques soudaines et exceptionnelles...

Peu avant le début du match, la voiture a été transportée au club d'échecs et installée sur la scène. Le grand maître est arrivé à la toute dernière minute. Il regrettait déjà d'avoir accepté le match. C'était désagréable de perdre face au « réfrigérateur » devant tout le monde.

Le grand maître a mis tout son talent et toute sa volonté de gagner dans la partie. Il a choisi une ouverture qu'il n'avait pas encore jouée avec une machine, et le jeu a immédiatement dégénéré.

Au douzième coup, le grand maître offrit à la voiture un fou pour un pion. Une combinaison subtile et préparée à l'avance était associée au sacrifice de l'évêque. La machine a réfléchi pendant neuf secondes - et a rejeté la victime. A partir de ce moment, le grand maître sut qu'il perdrait inévitablement. Cependant, il a continué le jeu - avec confiance, audace, risqué.

Aucune des personnes présentes dans la salle n'avait jamais vu un tel jeu. C'était du super art. Tout le monde savait que la machine gagne toujours. Mais cette fois, la position au tableau a changé si rapidement et si brusquement qu'il était impossible de dire qui gagnerait.

Après le vingt-neuvième coup, l'inscription a clignoté sur le tableau de bord de la machine: "Draw". Le grand maître regarda le "réfrigérateur" avec étonnement et se força à appuyer sur le bouton "Non". Ils se sont levés, réarrangeant le motif lumineux, les voyants lumineux - et se sont figés avec méfiance.

À la onzième minute, elle a fait le mouvement que le grand maître redoutait le plus. Un rapide échange de pièces s'ensuivit. La position du grand maître a empiré. Cependant, le mot "Draw" est réapparu sur le panneau de signalisation de la voiture. Le grand maître appuya obstinément sur le bouton "Non" et mena la reine dans une contre-attaque presque sans espoir.

Le système de suivi de la machine a immédiatement commencé à bouger. L'œil de verre de la lentille fixait l'homme. Le grand maître a essayé de ne pas regarder la machine.

Peu à peu, les tons jaunes ont commencé à prédominer dans la mosaïque lumineuse des voyants. Ils sont devenus plus riches, plus brillants - et finalement toutes les lampes se sont éteintes, sauf les jaunes. Un rayon doré tomba sur l'échiquier, étonnamment semblable à la chaleur du soleil.

Dans un silence tendu, l'aiguille de la grande horloge de contrôle cliqueta, sautant de division en division. La voiture réfléchit. Elle réfléchit pendant quarante-trois minutes, bien que la plupart des joueurs d'échecs assis dans la salle croyaient qu'il n'y avait rien de spécial à penser et qu'il était prudent d'attaquer avec un cavalier.

Soudain, les feux jaunes se sont éteints. L'objectif, frémissant d'incertitude, prit sa position habituelle. Un enregistrement du mouvement effectué est apparu sur le tableau de bord : la machine a soigneusement déplacé le pion. Il y eut du bruit dans le hall ; beaucoup ont estimé que ce n'était pas la meilleure décision.

Quatre coups plus tard, la machine a admis sa défaite.

Le grand maître, repoussant sa chaise, courut jusqu'à la voiture et souleva brusquement le bouclier latéral. Sous le bouclier, la lumière rouge du mécanisme de contrôle a clignoté et s'est éteinte.

Un jeune homme, correspondant d'un journal sportif, monta sur la scène qui fut aussitôt remplie de joueurs d'échecs.

On dirait qu'elle vient de céder, dit quelqu'un avec incertitude. - Elle a joué de manière si incroyable - et tout à coup ...

Eh bien, vous savez, - a objecté l'un des célèbres joueurs d'échecs, - il arrive que même une personne ne remarque pas une combinaison gagnante. La machine jouait à pleine puissance, mais ses capacités étaient limitées. Seulement et tout.

Le grand maître baissa lentement le bouclier de la machine et se tourna vers le correspondant.

Alors, - répéta-t-il avec impatience en ouvrant son carnet, - quelle est ton opinion ?

Mon avis? - a demandé au grand maître. - Ça y est : la chaîne de déclenchement du cent neuvième bloc a échoué. Bien sûr, le mouvement du pion n'est pas le plus fort. Mais maintenant, il est difficile de dire où est la cause et où est l'effet. Peut-être à cause de cette chaîne de déclenchement, la machine n'a pas remarqué le meilleur mouvement. Ou peut-être qu'elle a vraiment décidé de ne pas gagner - et cela lui a coûté des déclencheurs électrocutés. Après tout, il n'est pas si facile pour une personne de se casser ...

Mais pourquoi ce mouvement faible, pourquoi perdre ? - le correspondant a été surpris. Si une machine pouvait penser, elle s'efforcerait de gagner.

Le grand maître haussa les épaules et sourit.

Comment dire... Parfois, c'est beaucoup plus humain de faire un geste faible. Prêt à décoller!

l'ayak se tenait sur un haut rocher, loin dans la mer. Les gens ne se présentaient au phare qu'occasionnellement pour vérifier l'équipement automatique. A environ deux cents mètres du phare, une île sortait de l'eau. Pendant de nombreuses années, il a commencé sur l'île, comme sur un piédestal, ils ont installé un vaisseau spatial qui est revenu sur Terre après un vol longue distance. Cela n'avait aucun sens d'envoyer à nouveau de tels navires dans l'espace.

Je suis venu ici avec un ingénieur qui s'occupait des phares sur toute la côte de la mer Noire. Arrivés au sommet du phare, l'ingénieur m'a tendu les jumelles et m'a dit :

Il y aura une tempête. Très chanceux : avant le mauvais temps, il revient toujours à la vie.

Le soleil rougeâtre brillait faiblement sur les crêtes grises des vagues. Le rocher coupait les vagues, ils le contournaient et escaladaient bruyamment les pierres glissantes et rouillées. Puis, avec un profond soupir, ils se répandirent comme des flots d'écume, ouvrant la voie à de nouvelles vagues. C'est ainsi que les légionnaires romains avancent : le premier rang, après avoir frappé, repasse par la formation ouverte, qui se referme ensuite et attaque avec une vigueur renouvelée.

Grâce à des jumelles, je pouvais bien voir le navire. C'était un très vieux vaisseau biplace de reconnaissance à longue portée. Deux trous soigneusement rapiécés se détachaient dans la proue. Une profonde bosse courait le long de la coque. L'anneau d'amplification de la gravité a été divisé en deux et aplati. Les chercheurs en forme de cône d'un système obsolète depuis longtemps et l'observation météorologique des infrasons tournaient lentement au-dessus de la timonerie.

Vous voyez, - dit l'ingénieur, - il sent qu'il va y avoir une tempête.

Quelque part, une mouette hurla d'alarme, et la mer résonna du battement sourd des vagues. Une brume grise, élevée sur la mer, obscurcissait peu à peu l'horizon. Le vent tirait vers les nuages ​​les crêtes éclaircies des vagues, et les nuages, surchargés de mauvais temps, descendaient jusqu'à l'eau. Du contact du ciel et de la mer, un orage devait éclater.

Eh bien, je comprends toujours cela, - a poursuivi l'ingénieur : - des panneaux solaires alimentent les batteries et le cerveau électronique contrôle les appareils. Mais tout le reste ... Parfois, il semble oublier la terre, la mer, les tempêtes et commence à ne s'intéresser qu'au ciel. Un radiotélescope sort, les antennes de localisation tournent jour et nuit... Ou autre chose. Soudain, une sorte de tuyau monte et commence à regarder les gens. En hiver, il y a des vents froids ici, le navire est recouvert de glace, mais dès que des gens apparaissent au phare, la glace disparaît instantanément ... Au fait, les algues ne poussent pas dessus ...

Ou
les nanotechnologies numériques dans notre avenir.

Avant-propos

L'écrivain de science-fiction américain Isaac Asimov raconte comment le cerveau artificiel d'un vaisseau spatial, portant nom de femme Maria, et conçue pour exécuter les commandes verbales du commandant du navire, a beaucoup parlé avec son commandant sur une variété de sujets vie humaine, y compris l'amour, essayant d'égayer sa solitude pendant le vol. Et à la suite de leur étroite et longue communication mutuelle, Maria est tombée amoureuse de son commandant et n'a pas voulu se séparer de lui après la fin de leur voyage.

Dès lors, elle a tout fait pour que leur retour sur terre n'ait pas lieu. L'intelligence artificielle du vaisseau spatial face à la femme ressentie par Maria femme aimante et a délibérément emmené le vaisseau spatial dans l'infini de l'univers, restant pour toujours avec sa bien-aimée, même morte.

La communication avec l'intelligence artificielle comporte donc certains dangers. Mais nos intellectuels, qui parlent beaucoup et souvent sur les chaînes de télévision russes de notre avenir, n'en ont aucune idée.

La réponse est simple et réside dans une phrase aiguë et sarcastique d'un auteur inconnu :
Et elle ne peut pas.

D'accord. Puisque vous posez des questions aussi stupides, cela signifie que vous ne pouvez pas non plus penser.

Mais nos intellectuels ne lâchent rien et continuent de parler de ce sujet à la mode, de l'intelligence artificielle, dont l'heure, selon eux, est déjà venue, à l'infini sur les différentes chaînes de télévision du pays.

Récemment, sur la chaîne 24, j'ai entendu une autre émission intellectuelle d'humanitaires russes sur les nouvelles « nanotechnologies » qui sont en train de naître dans notre monde, ainsi que les premiers échantillons d'options d'intelligence artificielle.

Étrange, mais pour une raison quelconque maintenant en Russie, notre avenir technique est principalement discuté par des « spécialistes » qui ne sont pas des « techniciens » de par leur formation, mais des humanitaires, toutes sortes de politologues, de spécialistes de la culture, de linguistes, de philosophes, de marchands, de gestionnaires, journalistes politiques, etc., etc. C'est-à-dire des personnes qui non seulement ne font pas la distinction entre un boulon et un écrou, mais qui ne comprennent pas non plus l'essence de la pensée technique. Mais d'un autre côté, ils parlent avec assurance d'automates et de systèmes robotiques qui remplacent les gens par procédés de fabrication et même chez nous, sur l'intelligence artificielle et sa conformité aux exigences de notre temps.

Gens avec éducation technique, les soi-disant "techniciens", la télévision n'est pas autorisée dans de telles émissions, car les "techniciens" dans leur compréhension sont des personnes ayant une façon de penser primitive, étroites d'esprit, limitées, incontrôlables et pouvant dire quelque chose de mal dans de telles émissions.

Et ils commencent eux-mêmes avec enthousiasme à parler du fait que maintenant l'ère de l'impression de produits destinés à la consommation humaine de masse sur des imprimantes volumétriques est déjà née, et donc bientôt ces usines avec des tuyaux qui fument constamment et qui empoisonnent constamment nos vies ne seront plus nécessaires. environnement. Et ces centaines et centaines de spécialités de personnes travaillant dans des usines modernes ne seront pas nécessaires. Pourquoi sont-ils maintenant ? Désormais, les consommateurs imprimeront eux-mêmes les biens dont ils ont besoin dans la vie via Internet et via leurs imprimantes 3D.

Par exemple, vous aurez besoin de quelque chose, en commençant par une voiture avec un réfrigérateur ou avec des meubles et une cuisinière à gaz, regardez sur Internet, choisissez l'imprimeur approprié pour les produits dont vous avez besoin, commandez et ils imprimeront le produit dont vous avez besoin et apportez-le directement à la maison. Ce sont les nouvelles « nanotechnologies » qui nous offriront un avenir aussi fabuleux.

À Skolkovo, les ordinateurs élaborent déjà de nouvelles technologies dans la métallurgie et l'ingénierie mécanique. Et pas de laboratoires au sens ancien du terme avec tout un tas d'équipements métallurgiques et métallurgiques. Et pas de zones industrielles avec des usines à ciel ouvert dans la zone écologiquement propre de Skolkovo, pas d'ateliers, de convoyeurs, de hauts fourneaux, de convertisseurs, de laminoirs et de toutes sortes de pièces de fer. Certains ordinateurs et imprimantes en vrac. Et rien de plus. Certes, seules les pièces et produits en plastique peuvent être imprimés sur des imprimantes. Et oui, les petits. Mais c'est pour l'instant. Au revoir. Et puis nous passerons aux « nanomatériaux » et la vie deviendra comme dans un conte de fées.

Ensuite, toute la communauté humaine passera complètement aux produits de "nanomatériaux" imprimés sur des imprimantes volumétriques et commencera à se doter de tout le nécessaire à la vie selon les programmes correspondants.

Par exemple, il y a un géologue russe aux États-Unis, un géophysicien, je ne donnerai pas son nom de famille, mais il est fréquemment invité à notre télévision. Après avoir obtenu son diplôme du MGRI, n'ayant pas trouvé de travail en Russie, il est parti aux États-Unis, où il a très vite reçu un laboratoire de géophysique, puis un autre laboratoire au Canada et dispose désormais d'un laboratoire en Suisse. Il n'a pas encore trente ans, mais est déjà considéré comme un grand spécialiste de la recherche informatique sur la croûte terrestre. Il ne part pas en expéditions géologiques, n'étudie pas les carottes prélevées lors du forage de roches dans différentes régions de la terre, il a transféré tous ces travaux difficiles et coûteux des géologues sur terre sur un ordinateur et ne s'occupe que d'études informatiques de la croûte terrestre et a déjà avancé sa théorie de la formation de la couche de Mohorovichich, cette limite inférieure de la croûte terrestre, sur laquelle se produit une brusque augmentation incompréhensible des vitesses des ondes sismiques longitudinales. Et monde scientifique accepté sa théorie.

Ma jeunesse a été consacrée à la géologie et j'ai même étudié au MGRI pendant quatre ans et je sais en détail ce que c'est, le travail de terrain dans les expéditions géologiques et comment la carte géologique de l'URSS, la plus grande carte du monde, a été compilée. Mais maintenant, il s'avère que la géologie de terrain pratique est devenue inutile la société moderne. Et le travail géologique caméral, qui était auparavant effectué sur la base des résultats d'enquêtes sur le terrain, peut désormais être effectué à la maison dans votre bureau sur un ordinateur dans des conditions confortables, et aucune expédition avec les conditions de vie les plus difficiles et le travail quelque part en dehors de la civilisation ne sont pas plus nécessaire.

Si tel est le cas, alors il s'avère que notre monde réel a vraiment radicalement changé et cette nouvelle réalité dite virtuelle évince déjà activement les vieilles idées sur notre vie actuelle.

Et maintenant, nous n'avons vraiment pas besoin d'usines pour fabriquer les produits dont nous avons besoin, et nous n'avons pas non plus besoin d'expéditions pour étudier la surface et les entrailles de la terre, mais nous n'avons besoin que d'ordinateurs avec des imprimantes 3D qui, avec une programmation appropriée, résoudront tous nos vrais problèmes de notre nouvelle vraie vie. Mais est-ce tout ?!

Soudain, et, comme toujours, l'eau a soudainement éclaté dans notre entrée, et j'ai appelé le notoire Office du logement et appelé des plombiers pour éliminer l'accident. Et ils n'avaient pas besoin de super ordinateurs avec des imprimantes volumétriques, mais ils n'avaient besoin que d'outils de serrurier, avec lesquels ils sont venus nous voir pour éliminer l'accident et ont modifié le remplacement des tuyaux éclatés pendant plus de deux jours. Mais les intellectuels modernes me disent que mon cas, en particulier, n'a rien à voir avec l'intelligence artificielle.

On voit que je suis tellement un homme de l'époque passée et que je ne comprends pas tellement les réalités d'aujourd'hui qu'il n'y a pas de place pour moi dans le nouveau monde informatique. Après tout, cela ne devrait pas du tout être notre société actuelle, car l'esprit humain moderne ne pourra pas contrôler de tels processus informatiques, ici nous avons besoin d'un esprit artificiel, d'un cerveau artificiel, d'une intelligence artificielle. Et seule une petite partie de la population moderne sera capable de travailler avec l'intelligence artificielle, de sorte que le reste de la population mondiale deviendra superflu et inutile pour quiconque. Ce qu'il faudra alors en faire est encore inconnu. Pas encore décidé !

C'est ainsi que naît l'idée du «milliard d'or» des «dirigeants» modernes de la terre, dont la tâche est de gérer et d'utiliser les biens terrestres, et le reste des habitants de la terre ne sera nécessaire que pour les servir et leur créer des conditions de vie confortables. Mais où les trouver, ces candidats à l'entrée dans le "milliard d'or", ces gens dotés d'une super intelligence, qui peuvent travailler avec l'intelligence artificielle ? Et ils devront être sélectionnés déjà au stade de la grossesse. Et cette sélection devra être effectuée par l'intelligence artificielle elle-même, l'intelligence artificielle elle-même.

Et de telles bêtises ont duré près de deux heures sur la chaîne 24h/24. D'où vient tout cela dans le monde moderne ? La réponse est simple. La baisse du niveau d'éducation générale et professionnelle dans les pays d'Europe et d'Amérique, sans parler de la Russie, est si puissante qu'elle fait croire activement à de tels "contes" et contes de fées la population semi-éduquée de l'Occident et de la Russie.

Mais la vie brise encore leur perception intellectuelle de notre vie environnante, de notre réalité actuelle. Et ça casse tout le temps. Mais ils ne le remarquent pas, car leur regard est dirigé vers l'avenir, là où il n'y a pas de saleté de la vie quotidienne et ils sont dirigés vers l'avenir.

Après tout, aucun d'entre eux n'a même les questions les plus élémentaires sur qui, alors, construira des logements pour ces intellectuels, des routes, qui leur fournira de la nourriture, qui nettoiera leurs déchets, qui réparera nos maisons, nos cours, nos canalisations d'eau et de gaz, qui fabriqueront et entretiendront eux-mêmes ces ordinateurs et imprimantes. Qui? L'intelligence artificielle elle-même décidera de tout, me répondent-ils. Et ils sont confiants dans leur réponse et me regardent avec condescendance ainsi que les gens comme moi.

Mais cette intelligence artificielle peut-elle rivaliser avec l'humaine ? La question est rhétorique. Pour ne pas dire stupide. Mais ils me disent que l'intelligence artificielle bat déjà les humains aux échecs, et en programmation aussi. Et la peinture moderne avec la sculpture "gâte" d'une manière qu'aucune imagination humaine ne peut imaginer.

Et il est inutile de discuter avec eux à ce sujet. Mais, me semble-t-il, c'est leur esprit que l'intelligence artificielle peut remplacer. Il n'y a pas de difficultés ici. Parce qu'ils pensent standard et primitif. Mais mon esprit, l'esprit d'un ingénieur-inventeur, l'esprit de ma femme, un médecin hautement qualifié, et d'autres personnes similaires qui font professionnellement leur travail, aucun esprit artificiel ne peut remplacer. Je ne parle pas ici de l'esprit des femmes mères.

Mais l'esprit de la majorité des fonctionnaires de l'État et des députés de divers types de "dumas d'État" et de leurs nombreux assistants, il vaudrait même la peine de le remplacer par un artificiel à la fois. Au même titre que l'esprit de ces "intellectuels", docteurs de toutes sortes de sciences, déclamer pendant des heures à la télé notre avenir radieux, contrôlé par le "milliard d'or" de l'humanité, armé d'intelligence artificielle, pour mettre la société sous contrôle est déjà devenir la tâche la plus importante et la plus nécessaire en Russie. Sinon, nous nous noierons dans leur verbiage vide.

PS Le concept de penser, de penser, chaque personne a le sien. Un homme pense quand il pense pour trois ; une femme pense quand elle choisit une robe pour sortir à un rendez-vous ou se maquille le visage ; un homme d'affaires réfléchit lorsqu'il essaie de payer moins ses ouvriers et de mettre plus dans sa poche, un ingénieur réfléchit lorsqu'il résout un problème technique devant lui, et ainsi de suite. Eh bien, à quoi pense l'actuel fonctionnaire de l'État, je n'en ai aucune idée, car cette sphère d'activité humaine dans la Russie d'aujourd'hui est un mystère absolu pour moi. Après tout, il n'y a même pas un soupçon de pensée - seulement des intérêts primitifs et égoïstes.

Imitation de la physiologie
Le fait est que le terme « Intelligence Artificielle » (au passage, progressivement remplacé par les concepts de « systèmes intelligents », « méthodes décisionnelles », « exploration de données ») était initialement considéré comme inclusif pour une large classe de modèles. et des algorithmes qui auraient dû fonctionner de la même façon, comme le cerveau humain (selon les idées de l'époque).
Ceux-ci incluent, par exemple, les réseaux de neurones notoires de toutes sortes et les algorithmes génétiques.

Généralisation, statistiques et analyse
D'autre part, de nombreuses méthodes dites d'IA ne sont rien d'autre que le développement de branches des mathématiques : statistiques, recherche opérationnelle, topologie et espaces métriques. Il s'agit notamment de la plupart des méthodes d'exploration de données et de découverte de données de connaissances, d'analyse de grappes, de la méthode de comptabilisation en groupe des arguments, etc.

Il s'agit de méthodes d'inférence dite inductive, lorsque des modèles généraux sont dérivés sur la base des données disponibles.

Règles, logique, conclusion
Le troisième groupe spécial peut combiner des méthodes qui tentent de construire des schémas généraux et d'en tirer des conclusions par rapport à des faits spécifiques. Ce sont des méthodes d'inférence déductive, et elles sont représentées par : l'ancien calcul syllogistique, propositionnel et prédicat d'Aristote, divers systèmes formels et logiques. Immédiatement, les théories des langages formels et naturels, diverses grammaires génératives, se sont attachées au bord.

On voit que tout ce que l'on désigne habituellement par le terme « IA » tente de simuler ou de résoudre logiquement tâche d'imitation l'intellect humain.

La question se pose, qu'est-ce qu'une personne fait de si spécifique que les ordinateurs modernes, construits sur les principes de Babbage, ne font pas encore ?
L'une des définitions des tâches dont traite l'IA est : "une tâche pour laquelle il n'y a pas de solution algorithmique ou il non applicable en raison de la complexité de calcul».

Ainsi, par exemple, la tâche de jouer aux dames était autrefois une tâche d'IA, et après avoir construit un modèle complet et un ensemble d'une base de données complète de coups non améliorables, elle s'est transformée en une simple tâche de recherche dans la base d'informations (voir et ).

Les tâches d'IA changent avec le temps
Peut-être que nos enfants vivront dans le monde de l'information, lorsque de nombreuses tâches seront résolues et que de nouvelles surgiront - de la communication en langage naturel au contrôle automatique de tous les types d'équipements et de mécanismes.

Cependant, lorsque chacun de nous a entendu les mots "intelligence artificielle", nous avons eu envie d'autre chose.
Nous voulions une voiture capable pense qui possède les compétences de base de l'apprentissage, de la généralisation ; est capable, comme les organismes vivants, de remplacer certains organes par d'autres et de s'améliorer. Tout le monde a lu la science-fiction des débuts, n'est-ce pas ?

Était-ce un garçon ?
Alors où est passé l'intellect ? Quand et pourquoi ce que nous voulions voir est-il devenu des modèles mathématiques ennuyeux et des algorithmes plutôt inélégants ?

Quelques lignes hors sujet. Si vous faites une dissertation avec le mot "intelligent", les membres du conseil vous demanderont généralement de pointer du doigt l'endroit du système qui est intellectuel et de prouver POURQUOI c'est le cas. Cette question fait référence à absolument "non-saisir".

Le fait est que les gens qui ont inventé tout ce que représente l'"IA" moderne étaient guidés par des idées novatrices et révolutionnaires pour l'époque (en fait, notre époque ne diffère que par le fait que nous avons déjà joué tout cela à notre guise, y compris utilisant la puissance de calcul moderne)

Exemple 1 (du domaine de l'inconnaissable).
Réseaux de neurones à propagation vers l'avant avec algorithme de rétropropagation d'erreur (ce que l'on appelle la rétropropagation). C'est définitivement une percée.
Un réseau correctement configuré (avec des entrées et des sorties choisies intelligemment) peut apprendre n'importe quelle séquence d'entrée et reconnaître avec succès les exemples qui ne lui ont pas été enseignés.
Une expérience type est formulée comme suit : 1000 exemples, sur la moitié desquels on enseigne l'algorithme, et sur l'autre on vérifie. Et le choix de la première et de la seconde mi-temps se fait au hasard.
Cela fonctionne, j'ai personnellement enseigné à différents NN au moins 10 fois des tâches différentes et j'ai obtenu des résultats normaux, avec 60 à 90% de bonnes réponses.

Quel est le problème avec les réseaux de neurones ? Pourquoi ne sont-ils pas une véritable intelligence ?
1. Les données d'entrée doivent presque toujours être préparées et prétraitées avec beaucoup de soin. Souvent, des tonnes de code et de filtres sont créés pour rendre les données comestibles pour les réseaux. Sinon, le réseau apprendra pendant des années et n'apprendra rien.
2. Le résultat de l'apprentissage NN ne peut être interprété et expliqué. Et l'expert le veut vraiment.
3. Les réseaux se contentent souvent de mémoriser des exemples plutôt que des modèles d'apprentissage. Il n'y a pas de moyens exacts de construire un réseau suffisamment intelligent pour représenter le modèle et pas assez vaste pour se souvenir bêtement de l'ensemble de l'échantillon.

Qu'est-ce que l'intelligence des réseaux de neurones ?
En ce sens que nous n'avons pas appris au système à résoudre un problème, nous lui avons appris à apprendre à résoudre des problèmes. L'algorithme permettant de déterminer le sexe d'une personne n'est pas intégré au système par une personne, il se trouve presque empiriquement et est cousu dans les poids des synapses. C'est l'élément de l'intelligence.

Exemple 2 (du domaine de l'inférence déductive).
L'idée est simple. Nous apprendrons à la machine à penser comme une personne (enfin, tirez au moins des conclusions primitives) et donnerez des faits élémentaires. Ensuite - laissez-la.
Les systèmes experts, les systèmes logiques machine, les ontologies (avec un certain étirement) fonctionnent selon ce principe. Ça marche? Indubitablement. Des milliers de systèmes de diagnostic des maladies et de description des domaines de connaissance ont été mis en place et continuent de fonctionner.

Quel est le problème? Pourquoi les systèmes formels ne sont-ils pas une véritable intelligence ?
Le problème est que le système, ayant absorbé les volumes colossaux de sang et de sueur de ses créateurs, commence, à tout le moins, à répéter et à développer les décisions de l'expert (ou de la communauté) qui l'a enseigné.
Est-ce utile ? Indubitablement. L'expert est mortel, les tâches se multiplient.

Qu'est-ce que l'intelligence des systèmes basés sur la connaissance ?
Le fait que la machine tire de NOUVELLES conclusions que personne ne lui a enseignées. Cet élément de son travail est extrêmement pauvre (jusqu'à présent) et limité par les modèles et les algorithmes qui ont été établis. Mais c'est un élément d'intelligence.

Alors, quel est le problème avec l'IA moderne ?
Nous sommes juste très petits. Nos idées naïves et superficielles sur la façon dont une personne pense et sur le fonctionnement du cerveau donnent les fruits qu'elles méritent.

Bien sûr, nous sommes incroyablement loin de créer des machines capables de penser selon notre sens humain, mais nos pas dans cette direction sont corrects et utiles.

Et même si nous allons dans la mauvaise direction, qui sait, peut-être que, comme les Strugatsky, à la suite d'efforts dirigés, nous ferons par inadvertance quelque chose de bien mieux que prévu?