Turing: ¿Pueden pensar las máquinas? ¿Pueden las máquinas pensar? Una simple digresión sobre la complejidad del hardware.

Es poco probable que la inteligencia artificial clásica se materialice en máquinas pensantes; El límite del ingenio humano en este ámbito parece limitarse a la creación de sistemas que imiten el funcionamiento del cerebro.

La ciencia de la inteligencia artificial (IA) está atravesando una revolución. Para explicar sus causas y significado y ponerlo en perspectiva, primero debemos recurrir a la historia.

A principios de la década de 1950, la pregunta tradicional, algo vaga, de si una máquina puede pensar dio paso a la pregunta más accesible de si una máquina que manipula símbolos físicos de acuerdo con reglas que tienen en cuenta su estructura puede pensar. Esta pregunta se formula con mayor precisión porque la lógica formal y la teoría de la computación han avanzado significativamente durante el último medio siglo. Los teóricos comenzaron a apreciar las posibilidades de los sistemas de símbolos abstractos que sufren transformaciones de acuerdo con ciertas reglas. Parecía que si estos sistemas pudieran automatizarse, entonces su poder de computación abstracto se manifestaría en un sistema físico real. Estos puntos de vista contribuyeron al nacimiento de un programa de investigación bien definido sobre una base teórica bastante profunda.

¿Puede una máquina pensar?

Había muchas razones para responder que sí. Históricamente, una de las primeras y más profundas razones reside en dos resultados importantes de la teoría de la computación. El primer resultado fue la tesis de Church de que toda función efectivamente computable es recursivamente computable. El término "eficientemente computable" significa que existe algún procedimiento "mecánico" que se puede utilizar para calcular el resultado dados los datos de entrada en un tiempo finito. "Recursivamente computable" significa que hay un conjunto finito de operaciones que se pueden aplicar a una entrada determinada y luego aplicar secuencial y repetidamente a los resultados recién obtenidos para evaluar la función en un tiempo finito. El concepto de procedimiento mecánico no es formal, sino más bien intuitivo, por lo que la tesis de Church no tiene prueba formal. Sin embargo, llega al meollo de lo que es la computación y mucha evidencia diferente converge para respaldarla.

El segundo resultado importante lo obtuvo Alan M. Turing, quien demostró que cualquier función computable recursivamente podía calcularse en un tiempo finito utilizando una máquina de manipulación de símbolos máximamente simplificada, que más tarde se conoció como máquina de Turing universal. Esta máquina se rige por reglas aplicables de forma recursiva que son sensibles a la identidad, el orden y la disposición de los símbolos elementales que actúan como entrada.

De estos dos resultados se desprende un corolario muy importante, a saber, que una computadora digital estándar, con el programa correcto, una memoria suficientemente grande y el tiempo suficiente, puede calcular cualquier función gobernada por reglas con una entrada y una salida. En otras palabras, puede demostrar cualquier conjunto sistemático de respuestas a influencias voluntarias del entorno externo.

Especifiquemos esto de la siguiente manera: los resultados discutidos anteriormente significan que una máquina manipuladora de símbolos apropiadamente programada (de ahora en adelante la llamaremos máquina MS) debe satisfacer la prueba de Turing para la presencia de una mente consciente. La prueba de Turing es una prueba puramente conductista, pero sus requisitos son muy estrictos. (Consideraremos cuán válida es esta prueba a continuación, donde nos encontramos con una segunda “prueba” fundamentalmente diferente para la presencia de una mente consciente). Según la versión original de la prueba de Turing, la entrada a la máquina MS deberían ser preguntas. y frases en lenguaje hablado natural que escribimos en el teclado del dispositivo de entrada, y la salida son las respuestas de la máquina MS impresas por el dispositivo de salida. Se considera que una máquina ha pasado esta prueba de presencia de mente consciente si sus respuestas no pueden distinguirse de las escritas por una persona real e inteligente. Por supuesto, en la actualidad nadie conoce la función con la que sería posible obtener un resultado que no difiera del comportamiento de una persona razonable. Pero los resultados de Church y Turing nos aseguran que cualquiera que sea esta función (presumiblemente eficiente), una máquina MS con el diseño apropiado podrá calcularla.

Ésta es una conclusión muy importante, sobre todo porque la descripción que hace Turing de la interacción con una máquina mediante una máquina de escribir representa una limitación insignificante. La misma conclusión sigue siendo válida incluso si la máquina MS interactúa con el mundo de maneras más complejas: utilizando el aparato de visión directa, habla natural, etc. Al final, una función recursiva más compleja sigue siendo computable por Turing. Sólo queda un problema: encontrar esa función indudablemente compleja que controla las respuestas humanas a las influencias del entorno externo, y luego escribir un programa (muchas reglas aplicables recursivamente) con la ayuda del cual la máquina MS calculará esta función. Estos objetivos formaron la base programa científico Inteligencia artificial clásica.

Los primeros resultados fueron alentadores

Las máquinas MS con programas ingeniosamente diseñados han demostrado una serie de acciones que parecen estar relacionadas con manifestaciones de la mente. Respondieron a órdenes complejas, resolvieron problemas aritméticos, algebraicos y tácticos difíciles, jugaron a las damas y al ajedrez, demostraron teoremas y mantuvieron un diálogo sencillo. Los resultados continuaron mejorando con la llegada de dispositivos de almacenamiento más grandes, máquinas más rápidas y el desarrollo de programas más potentes y sofisticados. La IA clásica o “basada en programación” era un campo científico muy vibrante y exitoso desde casi todos los puntos de vista. La negación periódica de que las máquinas MS eventualmente serían capaces de pensar parecía parcial y desinformada. Las pruebas a favor de una respuesta positiva a la pregunta planteada en el título del artículo parecían más que convincentes.

Por supuesto, persistieron algunas incertidumbres. En primer lugar, las máquinas MS no se parecían mucho cerebro humano. Sin embargo, también en este caso la IA clásica tenía preparada una respuesta convincente. En primer lugar, el material físico del que está hecha una máquina MS esencialmente no tiene nada que ver con la función que calcula. Esto último queda registrado en el programa. En segundo lugar, los detalles técnicos de la arquitectura funcional de la máquina tampoco importan, ya que arquitecturas completamente diferentes diseñadas para funcionar con programas completamente diferentes pueden realizar la misma función de entrada y salida.

Por lo tanto, el objetivo de la IA era encontrar una función que tuviera entradas y salidas características de la mente, y también crear el más eficiente de muchos programas posibles para calcular esta función. Al mismo tiempo, dijeron que no importa la forma específica en que el cerebro humano calcula la función. Esto completa la descripción de la esencia de la IA clásica y la base para una respuesta positiva a la pregunta planteada en el título del artículo.

¿Puede una máquina pensar? También hubo algunos argumentos a favor de una respuesta negativa. A lo largo de la década de 1960, los argumentos negativos dignos de mención fueron relativamente raros. A veces se ha objetado que el pensamiento no es un proceso físico y tiene lugar en el alma inmaterial. Sin embargo, tal visión dualista no parecía lo suficientemente convincente ni desde un punto de vista evolutivo ni lógico. No ha tenido un efecto paralizador en la investigación de la IA.

Consideraciones de otra naturaleza han atraído mucha más atención por parte de los especialistas en IA. En 1972, Hubert L. Dreyfus publicó un libro que criticaba duramente el desfile de demostraciones de inteligencia en los sistemas de inteligencia artificial. Señaló que estos sistemas no modelaban adecuadamente el pensamiento genuino y reveló un patrón inherente a todos ellos. intentos fallidos. En su opinión, los modelos carecían de ese enorme acervo de conocimiento general informal sobre el mundo que tiene cualquier persona, así como de la capacidad inherente al sentido común de confiar en ciertos componentes de este conocimiento, dependiendo de los requisitos de una situación cambiante. Dreyfus no negó la posibilidad fundamental de crear un sistema físico artificial capaz de pensar, pero fue muy crítico con la idea de que esto sólo podría lograrse mediante la manipulación de símbolos utilizando reglas aplicadas recursivamente.

En los círculos de especialistas en inteligencia artificial, así como de filósofos, el razonamiento Dreyfus fueron percibidos principalmente como miopes y parciales, basados ​​en las inevitables simplificaciones inherentes a este campo de investigación todavía muy joven. Quizás estas deficiencias realmente ocurrieron, pero, por supuesto, fueron temporales. Llegará el momento en que máquinas más potentes y mejor software eliminarán estas deficiencias. Parecía que el tiempo corría para la inteligencia artificial. Por lo tanto, estas objeciones no tuvieron ningún impacto notable en futuras investigaciones en el campo de la IA.

Sin embargo, resultó que el tiempo también funcionó para Dreyfus: A finales de los 70 y principios de los 80, los aumentos en la velocidad y la capacidad de memoria de las computadoras no aumentaron mucho sus “habilidades mentales”. Resultó, por ejemplo, que el reconocimiento de patrones en los sistemas de visión por computadora requiere una cantidad inesperadamente grande de cálculo. Para obtener resultados prácticamente fiables, fue necesario dedicar cada vez más tiempo al ordenador, superando con creces el tiempo necesario para que el sistema de visión biológica realizara las mismas tareas. Un proceso de modelado tan lento era alarmante: después de todo, en una computadora, las señales viajan aproximadamente un millón de veces más rápido que en el cerebro, y la velocidad del reloj de la unidad central de procesamiento de la computadora es aproximadamente la misma cantidad de veces mayor que la frecuencia de cualquier vibraciones que se encuentran en el cerebro. Y, sin embargo, en problemas realistas, la tortuga supera fácilmente a la liebre.

Además, resolver problemas realistas requiere que el programa informático tenga acceso a una base de datos extremadamente grande. Construir una base de datos de este tipo es un desafío en sí mismo, pero se ve agravado por el desafío de cómo acceder a partes específicas de la base de datos en un contexto específico en tiempo real. A medida que las bases de datos adquirieron mayor capacidad, el problema de acceso se volvió más complejo. Una búsqueda exhaustiva llevó demasiado tiempo y los métodos heurísticos no siempre tuvieron éxito. Incluso algunos expertos que trabajan en el campo de la inteligencia artificial han comenzado a compartir preocupaciones similares a las expresadas por Dreyfus.

Por esta época (1980), John Searle propuso un concepto crítico fundamentalmente nuevo que desafió el supuesto fundamental del programa de investigación de IA clásico, a saber, la idea de que la manipulación correcta de símbolos estructurados mediante la aplicación recursiva de reglas que tengan en cuenta su estructura puede constituir la esencia de la mente consciente.

El principal argumento de Searle se basó en un experimento mental en el que demuestra dos cosas muy importantes. Primero, describe una máquina MS que (debemos entender) implementa una función cuya entrada y salida pueden pasar la prueba de Turing de una conversación que se desarrolla enteramente en chino. En segundo lugar, la estructura interna de la máquina es tal que, independientemente del comportamiento que exhiba, no hay duda en la mente del observador de que ni la máquina en su totalidad ni ninguna parte de ella entiende chino. Lo único que contiene es una persona que habla sólo inglés, siguiendo las reglas escritas en las instrucciones, con la ayuda de las cuales debes manipular los símbolos de entrada y salida por la ventana de correo de la puerta. En resumen, el sistema satisface positivamente la prueba de Turing, a pesar de que no comprende realmente el idioma chino ni el contenido semántico real de los mensajes (ver el artículo de J. Searle "¿Es la mente del cerebro un programa de computadora? ").

La conclusión general es que cualquier sistema que simplemente manipule símbolos físicos de acuerdo con reglas sensibles a la estructura será, en el mejor de los casos, una pobre parodia de una mente consciente real, ya que es imposible generar "semántica real" simplemente girando la perilla de " sintaxis vacía." Cabe señalar aquí que Searle propone una prueba no conductual para la presencia de conciencia: los elementos de la mente consciente deben tener un contenido semántico real.

Es tentador culpar a Searle por la insuficiencia de su experimento mental, ya que el sistema del Cubo de Rubik que propuso sería absurdamente lento. Sin embargo, Searle insiste en que la velocidad no juega ningún papel en este caso. El que piensa despacio piensa también correctamente. En su opinión, todo lo necesario para reproducir el pensamiento según el concepto de la IA clásica está presente en la “sala china”.

El artículo de Searle provocó animadas respuestas de especialistas, psicólogos y filósofos de la IA. Sin embargo, en general fue recibido con aún más hostilidad que el libro de Dreyfus. En su artículo, que se publica simultáneamente en este número de la revista, Searle ofrece una serie de argumentos críticos contra su concepto. En nuestra opinión, muchos de ellos son legítimos, especialmente aquellos cuyos autores "muerden el anzuelo" con entusiasmo, argumentando que aunque el sistema que consiste en la sala y su contenido es dolorosamente lento, todavía entiende chino.

Nos gustan estas respuestas, pero no porque pensemos que la sala china entiende chino. Estamos de acuerdo con Searle en que ella no lo comprende. El atractivo de estos argumentos es que reflejan una negativa a aceptar el importantísimo tercer axioma del argumento de Searle: "La sintaxis por sí sola no constituye semántica y no es suficiente para la existencia de la semántica". Este axioma puede ser cierto, pero Searle no puede afirmar con razón que lo sepa con seguridad. Además, asumir que es cierto plantea la cuestión de si el programa clásico de investigación de IA es sostenible, ya que este programa se basa en la muy interesante suposición de que si sólo pudiéramos poner en marcha un proceso adecuadamente estructurado, una especie de danza interna de elementos sintácticos correctamente asociados a entradas y salidas, entonces podremos obtener los mismos estados y manifestaciones de la mente que son inherentes al hombre.

Que el tercer axioma de Searle realmente plantea esta pregunta se vuelve obvio cuando lo comparamos directamente con su primera conclusión: "Los programas aparecen como la esencia de la mente y su presencia no es suficiente para la presencia de la mente". No es difícil ver que su tercer axioma ya lleva consigo el 90% de una conclusión casi idéntica. Ésta es la razón por la que el experimento mental de Searle está diseñado específicamente para respaldar el tercer axioma. Ésta es toda la esencia de la sala china.

Aunque el ejemplo de la sala china hace que el Axioma 3 sea atractivo para los no iniciados, no creemos que demuestre la validez de este axioma y, para demostrar la inconsistencia de este ejemplo, ofrecemos nuestro propio ejemplo paralelo como ilustración. A menudo, un ejemplo exitoso que refute una afirmación controvertida aclarará la situación mucho mejor que un libro entero lleno de malabarismos lógicos.

En la historia de la ciencia ha habido muchos ejemplos de escepticismo similar al que vemos en el razonamiento de Searle. En el siglo 18 El obispo irlandés George Berkeley consideraba inconcebible que las ondas de compresión en el aire pudieran ser en sí mismas la esencia de los fenómenos sonoros o un factor suficiente para su existencia. El poeta y artista inglés William Blake y el poeta naturalista alemán Johann Goethe consideraban inconcebible que pequeñas partículas de materia pudieran ser por sí mismas una esencia o factor suficiente para la existencia objetiva de la luz. Incluso en este siglo había gente que no podía imaginar que la materia inanimada en sí misma, por compleja que fuera su organización, pudiera ser una entidad orgánica o una condición suficiente para la vida. Está claro que lo que la gente puede o no imaginar muchas veces no tiene nada que ver con lo que realmente existe o no existe en la realidad. Esto es cierto incluso cuando se trata de personas con niveles muy altos de inteligencia.

Para ver cómo se pueden aplicar estas lecciones históricas al razonamiento de Searle, apliquemos un paralelo artificial a su lógica y apoyemos este paralelo con un experimento mental.

Axioma 1. La electricidad y el magnetismo son fuerzas físicas.

Axioma 2. Una propiedad esencial de la luz es el resplandor.

Axioma 3. Las fuerzas mismas aparecen como la esencia del efecto de resplandor y no son suficientes para su presencia.

Conclusión 1. La electricidad y el magnetismo no son la esencia de la luz y no son suficientes para su presencia.

Supongamos que este argumento fue publicado poco después James C. Maxwell en 1864 sugirió que la luz y las ondas electromagnéticas son idénticas, pero antes de que se realizaran plenamente en el mundo los paralelos sistemáticos entre las propiedades de la luz y las propiedades de las ondas electromagnéticas. El argumento lógico anterior parecería ser una objeción convincente a la audaz hipótesis de Maxwell, especialmente si fuera acompañado del siguiente comentario en apoyo del Axioma 3.

Considere una habitación oscura en la que hay una persona que sostiene un imán permanente o un objeto cargado en sus manos. Si una persona comienza a mover un imán hacia arriba y hacia abajo, entonces, según la teoría de la iluminación artificial (IA) de Maxwell, una esfera de propagación de ondas electromagnéticas emanará del imán y la habitación se volverá más luminosa. Pero como bien sabe cualquiera que haya intentado jugar con imanes o bolas cargadas, sus fuerzas (o cualquier otra fuerza), incluso cuando estos objetos se ponen en movimiento, no crean ningún brillo. Por lo tanto, parece inconcebible que podamos lograr un efecto de brillo real simplemente manipulando fuerzas.

Las vibraciones de las fuerzas electromagnéticas representan la luz, aunque un imán que mueve una persona no produce ningún brillo. Asimismo, la manipulación de símbolos según ciertas reglas puede constituir inteligencia, aunque el sistema basado en reglas que se encuentra en la Sala China de Searle parece carecer de una comprensión real.

¿Cómo podría responder Maxwell si se le presentara este desafío?

En primer lugar, probablemente insistiría en que el experimento de la "habitación luminosa" nos induce a error acerca de las propiedades de la luz visible porque la frecuencia de las oscilaciones del imán es extremadamente pequeña, menor de lo necesario en un factor de aproximadamente 1015. Puede seguirse una respuesta impaciente de que la frecuencia no juega ningún papel aquí, que la habitación con un imán oscilante ya contiene todo lo necesario para la manifestación del efecto luminoso, en total conformidad con la propia teoría de Maxwell.

A su momento Maxwell Podría "morder el anzuelo", afirmando con bastante razón que la habitación ya está llena de brillo, pero la naturaleza y la fuerza de este brillo es tal que una persona no puede verlo. (Debido a la baja frecuencia con la que una persona mueve un imán, la longitud de las ondas electromagnéticas generadas es demasiado larga y la intensidad demasiado baja para que el ojo humano reaccione ante ellas). Sin embargo, dado el nivel de comprensión de estos fenómenos durante En el período en cuestión (la década de 1960 del siglo pasado), tal explicación probablemente provocaría risas y comentarios burlones. "¡Habitación resplandeciente! ¡Pero discúlpeme, señor Maxwell, allí dentro está completamente oscuro!

Entonces vemos que los pobres Maxwell Está duro. Lo único que puede hacer es insistir en los tres puntos siguientes. En primer lugar, el axioma 3 del argumento anterior no es cierto. De hecho, a pesar de que intuitivamente parece bastante plausible, no podemos evitar preguntarnos al respecto. En segundo lugar, el experimento de la sala luminosa no nos muestra nada interesante sobre la naturaleza física de la luz. Y en tercer lugar, para resolver realmente el problema de la luz y la posibilidad de un brillo artificial, necesitamos un programa de investigación que establezca si, en las condiciones adecuadas, el comportamiento de las ondas electromagnéticas es en realidad completamente idéntico al comportamiento de la luz. La inteligencia artificial clásica debería dar la misma respuesta al razonamiento de Searle. Aunque la sala china de Searle pueda parecer "semánticamente oscura", no tiene ninguna buena razón para insistir en que la manipulación de símbolos, llevada a cabo según ciertas reglas, nunca puede dar lugar a fenómenos semánticos, sobre todo porque la gente todavía está mal informada y limitada sólo mediante la comprensión del nivel de sentido común de aquellos aspectos semánticos y fenómenos mentales que necesita explicación. En lugar de utilizar la comprensión de estas cosas, Searle se aprovecha libremente de la falta de comprensión de la gente en su razonamiento.

Habiendo expresado nuestras críticas al razonamiento de Searle, volvemos a la cuestión de si un programa de IA clásico tiene posibilidades reales de resolver el problema de la mente consciente y crear una máquina pensante. Creemos que las perspectivas no son brillantes, pero nuestra opinión se basa en razones fundamentalmente diferentes de los argumentos utilizados por Searle. Nos basamos en fallas específicas del programa de investigación de IA clásico y en una serie de lecciones que el cerebro biológico nos ha enseñado a través de una nueva clase de modelos computacionales que incorporan algunas de las propiedades de su estructura. Ya hemos mencionado los fallos de la IA clásica a la hora de resolver aquellos problemas que el cerebro resuelve rápida y eficazmente. Los científicos están llegando gradualmente a un consenso de que estos fallos se explican por las propiedades de la arquitectura funcional de las máquinas MS, que simplemente no son adecuadas para resolver los complejos problemas que plantean.

Lo que necesitamos saber es ¿cómo logra el cerebro el efecto del pensamiento? La ingeniería inversa es una técnica muy extendida en ingeniería. Cuando sale a la venta un nuevo dispositivo técnico, los competidores descubren cómo funciona desarmándolo e intentando adivinar el principio en el que se basa. En el caso del cerebro, este enfoque es extraordinariamente difícil de implementar porque el cerebro es la cosa más compleja del planeta. Sin embargo, los neurocientíficos han podido descubrir muchas propiedades del cerebro en varios niveles estructurales. Tres características anatómicas lo distinguen fundamentalmente de la arquitectura de los ordenadores electrónicos tradicionales.

En primer lugar, el sistema nervioso es una máquina paralela, en el sentido de que las señales se procesan simultáneamente a lo largo de millones de vías diferentes. Por ejemplo, la retina del ojo transmite una señal de entrada compleja al cerebro no en trozos de 8, 16 o 32 elementos, como una computadora de escritorio, sino en forma de una señal que consta de casi un millón de elementos individuales que llegan simultáneamente a el final del nervio óptico (el cuerpo geniculado lateral), después del cual también son procesados ​​simultáneamente, en un solo paso, por el cerebro. En segundo lugar, el “dispositivo de procesamiento” elemental del cerebro, la neurona, es relativamente simple. Además, su respuesta a una señal de entrada es analógica en lugar de digital, en el sentido de que la frecuencia de la señal de salida cambia de manera continua dependiendo de las señales de entrada.

Tercero, En el cerebro, además de los axones que van de un grupo de neuronas a otro, a menudo encontramos axones que van en la dirección opuesta. Estas proyecciones recurrentes permiten que el cerebro module la forma en que procesa la información sensorial. Aún más importante es el hecho de que su existencia convierte al cerebro en un sistema verdaderamente dinámico, en el que el comportamiento mantenido continuamente se distingue por una complejidad muy alta y una relativa independencia de los estímulos periféricos. Los modelos de redes simplificados han desempeñado un papel útil en el estudio de los mecanismos de funcionamiento de redes neuronales reales y las propiedades computacionales de arquitecturas paralelas. Consideremos, por ejemplo, un modelo de tres capas que consta de elementos similares a neuronas que tienen conexiones similares a axones con elementos del siguiente nivel. El estímulo de entrada alcanza el umbral de activación de un elemento de entrada determinado, que envía una señal de fuerza proporcional a lo largo de su "axón" a los numerosos terminales "sinápticos" de los elementos de la capa oculta. El efecto general es que una configuración particular de señales de activación en un conjunto de elementos de entrada genera una cierta configuración de señales en un conjunto de elementos ocultos.

Lo mismo puede decirse de los elementos de salida. De manera similar, la configuración de señales de activación en el segmento de la capa oculta conduce a un cierto patrón de activación en el segmento de los elementos de salida. En resumen, podemos decir que la red en cuestión es un dispositivo para transformar cualquier gran número de posibles vectores de entrada (configuraciones de señales de activación) en un vector de salida único correspondiente. Este dispositivo está diseñado para calcular una función específica. Exactamente qué función calcula depende de la configuración global de la estructura de peso sináptico.

Las redes neuronales modelan la propiedad principal de la microestructura del cerebro. En esta red de tres capas, las neuronas de entrada (abajo a la izquierda) procesan una configuración de señales de activación (abajo a la derecha) y las pasan a través de conexiones ponderadas a la capa oculta. Los elementos de la capa oculta suman sus múltiples entradas para formar una nueva configuración de señal. Pasa a la capa exterior, que realiza más transformaciones. En general, la red transforma cualquier conjunto de señales de entrada en una salida correspondiente, dependiendo de la ubicación y la fuerza relativa de las conexiones entre neuronas.

Existe una variedad de procedimientos para seleccionar pesos que pueden hacer que una red sea capaz de calcular casi cualquier función (es decir, cualquier transformación entre vectores). De hecho, es posible implementar una función en la red que ni siquiera se puede formular, solo necesitamos darle una serie de ejemplos que muestren qué tipo de actividades de entrada y salida nos gustaría tener. Este proceso, llamado "entrenamiento de red", se realiza ajustando secuencialmente los pesos asignados a los enlaces hasta que la red realiza las transformaciones deseadas en la entrada para producir la salida deseada.

Aunque este modelo de red simplifica enormemente la estructura del cerebro, todavía ilustra varios aspectos importantes. En primer lugar, la arquitectura paralela proporciona una tremenda ventaja de velocidad sobre una computadora tradicional porque múltiples sinapsis en cada capa realizan muchas operaciones computacionales pequeñas simultáneamente, en lugar de hacerlo en un modo secuencial que requiere mucha mano de obra. Esta ventaja se vuelve cada vez más significativa a medida que aumenta el número de neuronas en cada capa. Sorprendentemente, la velocidad de procesamiento de la información no depende en absoluto del número de elementos involucrados en el proceso en cada nivel, ni de la complejidad de la función que calculan. Cada nivel puede tener cuatro elementos o cien millones; la configuración de pesos sinápticos puede calcular sumas simples de un dígito o resolver ecuaciones diferenciales de segundo orden. No importa. El tiempo de cálculo será absolutamente el mismo.

En segundo lugar, la naturaleza paralela del sistema lo hace insensible a errores menores y le confiere estabilidad funcional; la pérdida de algunos enlaces, incluso de un número importante de ellos, tiene un efecto insignificante en el progreso global de la transformación llevada a cabo por el resto de la red.

Tercero, un sistema paralelo almacena una gran cantidad de información de forma distribuida, al tiempo que proporciona acceso a cualquier fragmento de esta información en un tiempo medido en varios milisegundos. La información se almacena en forma de ciertas configuraciones de pesos de conexiones sinápticas individuales formadas en el proceso de aprendizaje previo. La información deseada se "libera" a medida que el vector de entrada pasa a través de (y es transformado por) esta configuración de conexiones.

El procesamiento paralelo no es ideal para todos los tipos de informática. Al resolver problemas con un vector de entrada pequeño, pero que requieren muchos millones de cálculos recursivos rápidamente repetidos, el cerebro queda completamente indefenso, mientras que las máquinas MS clásicas demuestran sus mejores capacidades. Esta es una clase de informática muy grande e importante, por lo que las máquinas clásicas siempre serán necesarias e incluso necesarias. Sin embargo, existe una clase igualmente amplia de cálculos para los cuales la arquitectura cerebral representa la mejor solución técnica. Estos son principalmente los tipos de cálculos que suelen afrontar los organismos vivos: reconocer los contornos de un depredador en un entorno “ruidoso”; recuerdo instantáneo de la reacción correcta a su mirada, el método de huir cuando se acerca o defenderse cuando ataca; distinguir entre cosas comestibles y no comestibles, entre parejas sexuales y otros animales; elegir comportamiento en un entorno físico o social complejo y en constante cambio; etc.

Finalmente, es muy importante señalar que el sistema paralelo descrito no manipula símbolos según reglas estructurales. Más bien, la manipulación de símbolos es sólo una de muchas otras habilidades “inteligentes” que la red puede aprender o no. La manipulación de símbolos regida por reglas no es la forma principal en que opera la red. El argumento de Searle está dirigido contra las máquinas MS gobernadas por reglas; Por lo tanto, los sistemas de transformación vectorial del tipo que hemos descrito quedan fuera de la aplicabilidad de su argumento de la habitación china, incluso si fuera válido, lo cual tenemos otras razones independientes para dudar.

Searle conoce los procesadores paralelos, pero, en su opinión, también carecerán de contenido semántico real. Para ilustrar su inevitable inferioridad a este respecto, describe un segundo experimento mental, esta vez con un gimnasio chino lleno de gente organizada en una red paralela. El curso posterior de su razonamiento es similar al razonamiento en el caso de la sala china.

En nuestra opinión, este segundo ejemplo no es tan exitoso y convincente como el primero. En primer lugar, el hecho de que ni un solo elemento del sistema entienda chino no juega ningún papel, porque lo mismo ocurre con el sistema nervioso humano: ni una sola neurona en mi cerebro entiende en Inglés, aunque el cerebro lo entiende como un todo. Searle tampoco menciona que su modelo (una persona por cada neurona más un niño de pies ligeros por cada conexión sináptica) requeriría al menos 1014 personas, ya que el cerebro humano contiene 1011 neuronas, cada una con un promedio de 103 conexiones. Por tanto, su sistema requeriría una población de 10.000 mundos como nuestra Tierra. Es evidente que el gimnasio está lejos de poder acoger un modelo más o menos adecuado.

Por otra parte, si un sistema así todavía pudiera ensamblarse, en una escala cósmica apropiada, con todas las conexiones modeladas con precisión, tendríamos un cerebro enorme, lento, de diseño extraño, pero aún funcional. En este caso, por supuesto, es natural esperar que con la entrada correcta piense, y no al revés, que no es capaz de hacerlo. No se puede garantizar que el funcionamiento de un sistema de este tipo represente un pensamiento real, ya que la teoría del procesamiento vectorial puede no reflejar adecuadamente el funcionamiento del cerebro. Pero de la misma manera no tenemos ninguna garantía a priori de que ella no piense. Searle una vez más identifica erróneamente los límites actuales de su propia imaginación (o la del lector) con los límites de la realidad objetiva.

Cerebro

El cerebro es una especie de computadora, aunque la mayoría de sus propiedades siguen siendo desconocidas. Caracterizar el cerebro como una computadora no es nada sencillo, y tales intentos no deben considerarse libertades excesivas. El cerebro sí calcula funciones, pero no de la misma manera que en los problemas aplicados que resuelve la inteligencia artificial clásica. Cuando hablamos de máquina como computadora, no nos referimos a una computadora digital en serie que necesita ser programada y que tiene una clara división en software y hardware; Tampoco queremos decir que esta computadora manipule símbolos o siga ciertas reglas. El cerebro es una computadora de un tipo fundamentalmente diferente.

Aún no se sabe cómo capta el cerebro el contenido semántico de la información, pero está claro que este problema va mucho más allá de la lingüística y no se limita a los humanos como especie. Un pequeño montón de tierra fresca significa, tanto para el hombre como para el coyote, que hay una tuza en algún lugar cercano; eco con ciertas características espectrales significa para murciélago Presencia de una polilla. Para desarrollar una teoría de la formación de significado, debemos saber más sobre cómo las neuronas codifican y transforman las señales sensoriales, las bases neuronales de la memoria, el aprendizaje y las emociones, y las conexiones entre estos factores y el sistema motor. Una teoría del significado basada en la neurociencia puede incluso requerir nuestras intuiciones, que ahora nos parecen tan seguras y que Searle utiliza con tanta libertad en su razonamiento. Este tipo de revisiones no son infrecuentes en la historia de la ciencia.

¿Es la ciencia capaz de crear inteligencia artificial utilizando lo que se sabe sobre el sistema nervioso? No vemos ningún obstáculo fundamental en este camino. Searle parece estar de acuerdo, pero con la salvedad: “Cualquier otro sistema capaz de generar una mente debe tener propiedades causales (al menos) equivalentes a las propiedades correspondientes del cerebro”. Al final del artículo, consideraremos esta afirmación. Creemos que Searle no está argumentando que un sistema de inteligencia artificial exitoso deba poseer necesariamente todas las propiedades causales del cerebro, como la capacidad de oler algo en descomposición, la capacidad de ser portador de virus, la capacidad de volverse amarillo bajo la influencia. de peroxidasa de rábano picante, etc. Exigir su pleno cumplimiento sería lo mismo que exigir un avión artificial para poder poner huevos.

Probablemente se refería sólo al requisito de que la mente artificial tuviera todas las propiedades causales asociadas, como él decía, a una mente consciente. ¿Pero cuáles exactamente? Y así volvemos nuevamente al debate sobre qué pertenece a la mente consciente y qué no. Este es el lugar correcto para discutir, pero la verdad en este caso debe descubrirse empíricamente: intente y vea qué sucede. Dado que sabemos tan poco sobre en qué consisten exactamente los procesos de pensamiento y la semántica, cualquier certeza sobre qué propiedades son esenciales aquí sería prematura. Searle insinúa varias veces que todos los niveles, incluido el bioquímico, deben estar representados en cualquier máquina que pretenda ser artificialmente inteligente. Evidentemente se trata de una exigencia demasiado estricta. Un cerebro artificial puede lograr el mismo efecto sin utilizar mecanismos bioquímicos.

Esta posibilidad quedó demostrada en una investigación de K. Mead en el Instituto de Tecnología de California. Mead y sus colegas utilizaron dispositivos microelectrónicos analógicos para crear una retina y una cóclea artificiales. (En los animales, la retina y la cóclea no son simplemente transductores; ambos sistemas se someten a un complejo procesamiento paralelo). Estos dispositivos ya no son los simples modelos de minicomputadora de los que Searle se burla; son elementos reales de procesamiento de información que responden en tiempo real a señales reales: luz en el caso de la retina y sonido en el caso de la cóclea. Los diseños del dispositivo se basan en propiedades anatómicas y fisiológicas conocidas de la retina del gato y la cóclea de la lechuza, y su producción es extremadamente cercana a la producción conocida de los órganos que modelan.

Estos chips no utilizan ningún neurotransmisor, por lo que no parecen necesarios para lograr los resultados deseados. Por supuesto, no podemos decir que la retina artificial ve algo, ya que su salida no va al tálamo artificial ni a la corteza cerebral, etc. Aún no se sabe si es posible construir un cerebro artificial completo según el programa de Mead, pero en Actualmente no tenemos evidencia de que la falta de mecanismos bioquímicos en el sistema haga que este enfoque sea poco realista.

El sistema nervioso abarca muchas escalas de organización, desde las moléculas de neurotransmisores (abajo) hasta todo el cerebro y la médula espinal. En los niveles intermedios hay neuronas individuales y circuitos neuronales, como los que implementan la selectividad en la percepción de estímulos visuales (centro), y sistemas que constan de muchos circuitos, similares a los que cumplen funciones del habla (arriba a la derecha). Sólo a través de la investigación se puede determinar hasta qué punto un sistema artificial puede replicar sistemas biológicos que tienen inteligencia.

Al igual que Searle, rechazamos la prueba de Turing como criterio suficiente para la presencia de una mente consciente. En cierto nivel, nuestras razones para esto son similares: estamos de acuerdo en que es muy importante cómo se implementa la función definida por la entrada-salida; Es importante que se produzcan los procesos correctos en la máquina. En otro nivel, nos guiamos por consideraciones completamente diferentes. Searle basa su posición respecto de la presencia o ausencia de contenido semántico en intuiciones de sentido común. Nuestro punto de vista se basa en los fallos específicos de las máquinas clásicas de EM y en las ventajas específicas de las máquinas cuya arquitectura se acerca más a la estructura del cerebro. Una comparación de estos diferentes tipos de máquinas muestra que algunas estrategias computacionales tienen una ventaja enorme y decisiva sobre otras cuando se trata de tareas mentales típicas. Estos beneficios empíricamente establecidos están fuera de toda duda. Es evidente que el cerebro aprovecha sistemáticamente estas ventajas computacionales. Sin embargo, no es necesariamente el único sistema físico capaz de utilizarlos. La idea de crear inteligencia artificial en una máquina no biológica, pero esencialmente paralela, sigue siendo muy tentadora y bastante prometedora.

Voy a examinar la pregunta: ¿pueden pensar las máquinas? Pero para hacer esto, primero debemos definir el significado de los términos "máquina" y "pensar". Sería posible elaborar estas definiciones para reflejar lo más fielmente posible el uso común de estas palabras, pero este enfoque está plagado de algunos peligros. La cuestión es que si investigamos el significado de las palabras "máquina" y "pensar" examinando cómo se definen habitualmente estas palabras, nos resultará difícil evitar la conclusión de que el significado de estas palabras y la respuesta a la pregunta pregunta "¿pueden pensar las máquinas?" debe buscarse a través de una encuesta estadística como el cuestionario Gallup. Sin embargo, esto es ridículo. En lugar de intentar dar tal definición, sustituiré nuestra pregunta por otra que está estrechamente relacionada con ella y se expresa en palabras con un significado relativamente claro.

Esta nueva forma puede describirse mediante un juego que llamaremos “juego de imitación”. En este juego participan tres personas: un hombre (A), una mujer (B) y alguien que hace preguntas (C), que puede ser una persona de cualquier género. El interrogador está separado de los otros dos participantes del juego por las paredes de la habitación en la que se encuentra. El objetivo del juego es que el interrogador determine cuál de los otros dos jugadores en el juego es hombre (A) y cuál es mujer (B). Los conoce por las designaciones X e Y, y al final del juego dice: "X es A e Y es B" o: "X es B e Y es A". Se le permite hacer preguntas como:

S: “Le pediré a X que me diga el largo de su cabello”.

Supongamos ahora que en realidad X es A. En este caso, A debe dar la respuesta. Para A, el objetivo del juego es inducir a C a llegar a una conclusión equivocada. Por tanto, su respuesta podría ser, por ejemplo, así:

"Mi cabello está corto y los mechones más largos miden aproximadamente nueve pulgadas de largo".

Para que la persona que hace las preguntas no pueda determinar con la voz cuál de los otros dos participantes en el juego es un hombre y cuál es una mujer, las respuestas a las preguntas deben darse por escrito, o mejor aún, a máquina de escribir. Lo ideal sería un mensaje telegráfico entre las dos salas donde se encuentran los participantes del juego. Si esto no se puede hacer, entonces algún intermediario debe transmitir las respuestas y preguntas. El objetivo del juego para el tercer jugador, la mujer (B), es ayudar al interrogador. Probablemente su mejor estrategia sea dar respuestas veraces. También puede hacer comentarios como “¡Soy una mujer, no lo escuches!”, pero esto no logrará nada, ya que un hombre también puede hacer comentarios similares.

Planteemos ahora la pregunta: “¿Qué pasa si en este juego participa una máquina en lugar de A?” ¿El interrogador cometerá errores en este caso con tanta frecuencia como en un juego donde los participantes son sólo personas? Estas preguntas reemplazarán nuestra pregunta original "¿pueden pensar las máquinas?"

II. Críticas a la nueva formulación del problema.

Así como nos preguntamos: "¿Cuál es la respuesta a un problema en su nueva forma?", podemos preguntar: "¿Vale la pena considerar el problema en su nueva forma?". Consideraremos esta última cuestión sin posponerla indefinidamente para no volver sobre ella en el futuro.

La nueva formulación de nuestro problema tiene la ventaja de que nos permite trazar una distinción clara entre las capacidades físicas y mentales del hombre. Ningún ingeniero o químico afirma haber creado un material que fuera indistinguible de la piel humana. Es posible que algún día se haga un invento así. Pero incluso admitiendo la posibilidad de crear un material indistinguible de la piel humana, todavía sentimos que no tiene sentido intentar darle a una "máquina pensante" un mayor parecido con una persona vistiéndola con carne artificial. La forma que le hemos dado al problema refleja esta circunstancia en la condición que no permite al interrogador entrar en contacto con otros participantes en el juego, verlos o escuchar sus voces. Algunas otras ventajas del criterio introducido se pueden mostrar proporcionando ejemplos de posibles preguntas y respuestas. Por ejemplo:

S: Por favor, escribe un soneto sobre el tema del puente sobre el río Forth.

R: Sácame de esto. Nunca he tenido que escribir poesía.

C: Suma 34,957 a 70,764.

A (silencio durante unos 30 segundos, luego da una respuesta): 105 621.

S: ¿Juegas al ajedrez?

S: Sólo tengo el rey en e8 y ninguna otra pieza. Sólo tienes el rey en e6 y la torre en h1. ¿Cómo jugarás?

A (después de 15 segundos de silencio): Th8. Estera.

Nos parece que el método de preguntas y respuestas es adecuado para abarcar casi cualquier ámbito de la actividad humana que queramos poner en consideración. No queremos culpar a una máquina por su incapacidad para brillar en los concursos de belleza, ni a una persona por perder en una competencia con un avión; las condiciones del juego hacen que estas deficiencias sean insignificantes. Quienes responden, si lo consideran conveniente, pueden jactarse de su encanto, fuerza o coraje todo lo que quieran, y el interrogador no puede exigir pruebas prácticas de ello.

Quizás nuestro juego pueda ser criticado porque sus ventajas están en gran medida del lado de la máquina. Si una persona intentara hacerse pasar por una máquina, entonces, obviamente, parecería muy patético. Inmediatamente se traicionaría a sí mismo por ser lento e inexacto en sus cálculos. Además, ¿no puede una máquina hacer algo que debería caracterizarse como pensamiento, pero que estaría muy lejos de lo que hace una persona? Esta objeción es muy válida. Pero en respuesta a esto podemos, en cualquier caso, decir que si todavía es posible implementar una máquina que juegue satisfactoriamente el juego de la imitación, entonces no deberíamos preocuparnos especialmente por esta objeción.

Se podría señalar que en el “juego de la imitación” es posible que simplemente imitar el comportamiento humano no sea la mejor estrategia para una máquina. Un caso así es posible, pero no creo que nos lleve a nada esencialmente nuevo. En cualquier caso, nadie ha intentado explorar la teoría de nuestro juego en esta dirección, y asumiremos que la mejor estrategia para una máquina es dar respuestas que daría una persona en la situación adecuada.

III. Máquinas involucradas en el juego.

La pregunta planteada en la Sección I no será completamente precisa hasta que especifiquemos qué debe entenderse exactamente por la palabra "máquina". Por supuesto, nos gustaría que fuera posible utilizar cualquier tipo de equipo de ingeniería en el juego. También nos inclinamos a aceptar la posibilidad de que un ingeniero o un grupo de ingenieros construyan una máquina que funcione, pero de la que no podrán dar una descripción satisfactoria de su funcionamiento porque el método que utilizaron fue en gran medida experimental. [por prueba y error]. Por último, nos gustaría excluir a las personas corrientes de la categoría de máquinas. Es difícil construir una definición que satisfaga estas tres condiciones. Se puede, por ejemplo, exigir que todos los diseñadores de una máquina sean del mismo sexo, pero en realidad esto no es suficiente, ya que, aparentemente, es posible hacer crecer un individuo completo a partir de una sola célula tomada (por ejemplo ) de la piel humana. Hacer esto sería una hazaña de ingeniería biológica que merecería los mayores elogios, pero no nos inclinamos a considerar este caso como "construir una máquina pensante".

Lo anterior sugiere que deberíamos abandonar el requisito de que se permita cualquier tipo de tecnología en el juego. Nos inclinamos aún más por esta idea debido a que nuestro interés por las “máquinas pensantes” surgió gracias a un tipo especial de máquina, habitualmente llamada “computadora electrónica” o “computadora digital”. Por lo tanto, sólo permitimos que ordenadores digitales participen en nuestro juego.

Altov Genrikh

¿Puede una máquina pensar?

Genrikh Altov

¿Puede una máquina pensar?

Voy a examinar la pregunta: "¿Puede pensar una máquina?" Pero para ello, primero hay que definir el significado del término “pensar”…

A. Turing. Cadena de gatillo.

Dos veces por semana, por las tardes, el gran maestro iba al Instituto de Cibernética y jugaba con una máquina electrónica.

En la espaciosa y desierta habitación había una mesa baja con un tablero de ajedrez, un reloj y un panel de control con pulsadores. El gran maestro se sentó en una silla, colocó las piezas y presionó el botón "Inicio". Un mosaico en movimiento de luces indicadoras se encendió en el panel frontal de la máquina electrónica. La lente del sistema de seguimiento estaba dirigida a tablero de ajedrez. Luego apareció una breve inscripción en la pantalla mate. El coche estaba dando el primer paso.

Este coche era bastante pequeño. A veces, al gran maestro le parecía que el refrigerador más común estaba frente a él. Pero este “refrigerador” siempre ganó. En año y medio, el gran maestro apenas logró empatar sólo cuatro partidas.

La máquina nunca cometió un error. La amenaza de la presión del tiempo nunca se cernió sobre ella. El gran maestro intentó más de una vez derribar el coche haciendo un movimiento deliberadamente ridículo o sacrificando una pieza. Como resultado, tuvo que presionar apresuradamente el botón "Ríndete".

El Gran Maestro era ingeniero y experimentó con la máquina para refinar la teoría de los autómatas autoorganizados. Pero a veces le enfurecía la absoluta ecuanimidad del “frigorífico”. Incluso en los momentos críticos del juego, la máquina no pensaba durante más de cinco o seis segundos. Parpadeando tranquilamente las luces multicolores de los intermitentes, anotó el movimiento más fuerte posible. La máquina pudo hacer ajustes al estilo de juego de su oponente. A veces levantaba la lente y miraba a la persona durante mucho tiempo. El gran maestro estaba preocupado y cometió errores...

Durante el día, un asistente de laboratorio silencioso entró en la habitación. Con tristeza, sin mirar la máquina, reprodujo en el tablero las partidas jugadas en diferente tiempo destacados jugadores de ajedrez. La lente del “refrigerador” se extendía por completo y colgaba sobre el tablero. La máquina no miró al ayudante de laboratorio. Ella registró la información desapasionadamente.

El experimento para el cual se creó la máquina de ajedrez estaba llegando a su fin. Se decidió organizar un partido público entre hombre y máquina. Antes del partido, el gran maestro comenzó a aparecer en el instituto aún más a menudo. El gran maestro comprendió que la pérdida era casi inevitable. Y sin embargo buscó persistentemente puntos débiles en el juego "nevera". La máquina, como si adivinara la próxima pelea, jugaba cada día más y más fuerte. Ella desentrañó los planes más astutos del gran maestro a la velocidad del rayo. Ella destrozó sus figuras con ataques repentinos y excepcionales...

Poco antes del inicio del partido, la máquina fue transportada al club de ajedrez y instalada en el escenario. El gran maestro llegó en el último momento. Ya se arrepintió de haber aceptado el partido. Fue desagradable perder contra el "refrigerador" delante de todos.

El gran maestro puso en el juego todo su talento y toda su voluntad de ganar. Eligió un comienzo que nunca antes había jugado con una máquina y el juego inmediatamente se intensificó.

En el duodécimo movimiento, el gran maestro ofreció a la máquina un alfil por peón. Una combinación sutil y preparada previamente se asoció con el sacrificio del elefante. La máquina pensó durante nueve segundos y rechazó a la víctima. A partir de ese momento, el gran maestro supo que inevitablemente perdería. Sin embargo, continuó el juego, con confianza, audacia y riesgo.

Ninguno de los presentes en la sala había visto jamás un juego así. Fue súper arte. Todos sabían que la máquina siempre ganaba. Pero esta vez la posición en el tablero cambió tan rápida y dramáticamente que era imposible decir quién ganaría.

Después del vigésimo noveno movimiento, la inscripción "Draw" parpadeó en la pantalla de la máquina. El gran maestro miró asombrado el “refrigerador” y se obligó a presionar el botón “No”. Las luces indicadoras se encendieron, reorganizando el patrón de luces y se congelaron con cautela.

En el minuto undécimo, hizo el movimiento que más temía el gran maestro. Siguió un rápido intercambio de piezas. La situación del gran maestro empeoró. Sin embargo, la palabra “Draw” reapareció en el tablero de señales del auto. El gran maestro presionó obstinadamente el botón “No” y llevó a la dama a un contraataque casi desesperado.

El sistema de seguimiento de la máquina inmediatamente comenzó a moverse. El ojo de cristal de la lente miró fijamente al hombre. El gran maestro intentó no mirar el coche.

Poco a poco, los tonos amarillos empezaron a predominar en el mosaico luminoso de los intermitentes. Se volvieron más ricas, más brillantes... y finalmente se apagaron todas las lámparas excepto las amarillas. Un haz de rayos dorados cayó sobre el tablero de ajedrez, sorprendentemente similar a la cálida luz del sol.

En un tenso silencio, la manecilla del gran reloj de control hizo clic, saltando de división en división. La máquina estaba pensando. Pensó durante cuarenta y tres minutos, aunque la mayoría de los ajedrecistas sentados en la sala creían que no había nada especial en qué pensar y que podía atacar con seguridad con su caballo.

De repente las luces amarillas se apagaron. La lente, temblando insegura, tomó su posición habitual. En el marcador apareció un registro del movimiento realizado: la máquina movió con cuidado el peón. Se oyó un ruido en el pasillo; Muchos sintieron que ésta no era la mejor decisión.

Después de cuatro movimientos, la máquina admitió la derrota.

El gran maestro, apartando la silla, corrió hacia el coche y levantó el escudo lateral. Debajo del escudo, la luz roja del mecanismo de control se encendía y apagaba.

Un joven, corresponsal de un periódico deportivo, apenas subió al escenario, que inmediatamente se llenó de ajedrecistas.

Parece que simplemente se rindió”, dijo alguien con incertidumbre. - Tocaba tan sorprendentemente - y de repente...

Bueno, ya sabes”, objetó uno de los famosos ajedrecistas, “sucede que ni siquiera una persona nota una combinación ganadora. La máquina funcionaba con toda su potencia, pero sus capacidades eran limitadas. Eso es todo.

El gran maestro bajó lentamente el tablero del auto y se volvió hacia el corresponsal.

Entonces”, repitió con impaciencia, abriendo su cuaderno, “¿cuál es tu opinión?”

¿Mi opinión? - preguntó el gran maestro. - Aquí está: la cadena de activación del bloque ciento noveno ha fallado. Por supuesto, el movimiento del peón no es el más fuerte. Pero ahora es difícil decir dónde está la causa y dónde está el efecto. Quizás debido a esta cadena de gatillo el auto no notó un mejor movimiento. O tal vez realmente decidió no ganar y eso le costó los factores desencadenantes. Después de todo, no es tan fácil para una persona superarse a sí misma...

Pero ¿por qué este movimiento tan débil, por qué perder? - se sorprendió el corresponsal. Si una máquina pudiera pensar, se esforzaría por ganar.

El gran maestro se encogió de hombros y sonrió:

Cómo decirlo... A veces es mucho más humano hacer un movimiento débil. ¡Listos para despegar!

El yak estaba sobre una roca alta, muy adentro del mar. La gente aparecía en el faro sólo de vez en cuando para comprobar el equipamiento automático. A unos doscientos metros del faro surgía del agua una isla. Durante muchos años, en la isla se instaló una nave espacial como sobre un pedestal, que regresó a la Tierra después de un largo viaje. No tenía sentido volver a enviar naves así al espacio.

Vine aquí con un ingeniero que estaba a cargo de los faros de toda la costa del Mar Negro. Cuando subimos a la plataforma superior del faro, el ingeniero me entregó unos binoculares y dijo:

Habrá una tormenta. Mucha suerte: antes del mal tiempo siempre vuelve a la vida.

El sol rojizo brillaba débilmente sobre las crestas grises de las olas. La roca cortó las olas, éstas la rodearon y treparon ruidosamente sobre las piedras resbaladizas y oxidadas. Luego, con un fuerte suspiro, se extendieron en arroyos espumosos, abriendo camino a nuevas olas. Así avanzaron los legionarios romanos: la primera fila, después de atacar, retrocedió a través del sistema abierto, que luego se cerró y lanzó un ataque con renovado vigor.

A través de binoculares pude ver claramente el barco. Era una nave estelar biplaza muy antigua de tipo reconocimiento de largo alcance. En la proa destacaban dos agujeros cuidadosamente reparados. Había una profunda abolladura a lo largo del cuerpo. El anillo del acelerador de gravedad se partió en dos y se aplanó. Los buscadores en forma de cono de un sistema obsoleto hace mucho tiempo y de observación meteorológica infrasónica giraban lentamente sobre la timonera.

Verás”, dijo el ingeniero, “siente que habrá tormenta”.

En algún lugar una gaviota chilló alarmada y el mar respondió con un sordo estrépito de olas. Una bruma gris que se elevaba sobre el mar oscureció poco a poco el horizonte. El viento arrastraba las crestas de las olas aligeradas hacia las nubes, y las nubes, sobrecargadas por el mal tiempo, se hundían hacia el agua. Se suponía que del contacto entre el cielo y el mar se desataría una tormenta.

Bueno, todavía lo entiendo”, continuó el ingeniero: “las baterías solares alimentan las baterías y el cerebro electrónico controla los dispositivos”. Pero todo lo demás... A veces parece olvidarse de la tierra, del mar, de las tormentas y empieza a interesarse sólo por el cielo. El radiotelescopio se extiende, las antenas localizadoras giran día y noche... O algo más. De repente se eleva una tubería y empieza a mirar a la gente. En invierno hay vientos fríos aquí, el barco se cubre de hielo, pero tan pronto como aparece gente en el faro, el hielo desaparece instantáneamente... Por cierto, las algas no crecen en él...

O
La nanotecnología digital en nuestro futuro.

Prefacio

El escritor estadounidense de ciencia ficción Isaac Asimov cuenta una historia sobre cómo el cerebro artificial de una nave espacial, que llevaba nombre femenino María y diseñada para ejecutar órdenes verbales del comandante del barco, habló mucho con su comandante sobre una variedad de temas. vida humana, incluido el amor, intenta alegrar su soledad durante el vuelo. Y como resultado de su estrecha y larga comunicación mutua, María se enamoró de su comandante y no quiso separarse de él después del final de su viaje.

Por eso, hizo todo lo posible para evitar que se produjera su regreso a la tierra. La inteligencia artificial de la nave espacial en la persona de la mujer que María sintió mujer amorosa y deliberadamente llevó la nave espacial al infinito del universo, permaneciendo para siempre con su amada, incluso la fallecida.

Por tanto, la comunicación con la inteligencia artificial conlleva ciertos peligros. Pero nuestros intelectuales, que hablan mucho y a menudo sobre nuestro futuro en los canales de televisión rusos, no tienen idea de esto.

La respuesta es sencilla y reside en la mordaz y sarcástica frase de un autor desconocido:
- Y ella no puede.

Así es. Como haces preguntas tan estúpidas, significa que tampoco puedes pensar.

Pero nuestros intelectuales no se dan por vencidos y siguen hablando sin cesar sobre este tema de moda, sobre el tema de la inteligencia artificial, cuyo momento, en su opinión, ya ha llegado, en diversos canales de televisión del país.

Recientemente escuché en el Canal 24 otro programa intelectual de humanistas rusos sobre las nuevas “nanotecnologías” que ahora están surgiendo en nuestro mundo junto con los primeros ejemplos de opciones de inteligencia artificial.

Es extraño, pero por alguna razón ahora en Rusia son principalmente "especialistas" los que hablan de nuestro futuro técnico, que no son "gente técnica" por educación, sino humanistas, diversos tipos de politólogos, científicos culturales, lingüistas, filósofos, comerciantes. , directivos, periodistas políticos, etcétera, etcétera. Es decir, personas que no sólo no distinguen un perno de una tuerca, sino que tampoco comprenden la esencia del pensamiento técnico. Pero aquellos que hablan con seguridad de máquinas y sistemas robóticos que reemplazan a las personas con procesos de producción e incluso en nuestra propia casa, sobre la inteligencia artificial y su adecuación a las exigencias de nuestro tiempo.

Personas con educación técnica, los llamados "técnicos", la televisión no está permitida en tales programas, porque los "técnicos" en su opinión son personas con una forma de pensar primitiva, de mente estrecha, limitada, incontrolable y pueden decir algo malo en tales programas.

Y ellos mismos comienzan a decir con alegría que ahora está naciendo la era de la impresión de productos para el consumo humano masivo en impresoras a gran escala y, por lo tanto, pronto ya no serán necesarias estas fábricas con pipas que fuman constantemente y que envenenan constantemente nuestras vidas. ambiente. Y estos cientos y cientos de especialidades de personas que trabajan en fábricas modernas no serán necesarias. ¿Por qué tenerlos ahora? Ahora los propios consumidores imprimirán los productos que necesitan en la vida a través de Internet y de sus impresoras de gran volumen.

Por ejemplo, necesitará algo, desde un automóvil con refrigerador o muebles y una estufa de gas, buscó en Internet, eligió la empresa adecuada para imprimir los productos que necesita, realizó el pedido y ellos imprimirán el producto que necesita y se lo traerán. llega directo a tu casa. Son las nuevas “nanotecnologías” las que nos brindarán un futuro tan fabuloso.

Allí, en Skolkovo, ya se están desarrollando nuevas tecnologías en la metalurgia y la ingeniería mecánica mediante ordenadores. Y nada de laboratorios en el sentido anterior de la palabra con una gran cantidad de equipos metalúrgicos y metalúrgicos. Y nada de zonas industriales con fábricas humeantes en la zona ecológicamente limpia de Skolkovo, ni talleres, transportadores, altos hornos, convertidores, laminadores ni todo tipo de hardware para usted. Solo computadoras e impresoras a granel. Y nada más. Es cierto que las imprentas solo pueden imprimir piezas y productos de plástico. Y aun así, los pequeños. Pero eso es todo por ahora. Adiós. Y luego pasaremos a los “nanomateriales” y la vida será como en un cuento de hadas.

Entonces, toda la comunidad humana cambiará por completo a productos fabricados con "nanomateriales" impresos en impresoras a granel y comenzará a dotarse de todo lo necesario para la vida, de acuerdo con los programas adecuados.

Por ejemplo, hay un geólogo y geofísico ruso en Estados Unidos, no mencionaré su apellido, pero es un invitado frecuente en nuestra televisión. Después de graduarse de MGRI, al no encontrar trabajo en Rusia, se fue a los EE. UU., donde muy pronto recibió un laboratorio geofísico, luego otro laboratorio en Canadá y ahora tiene un laboratorio en Suiza. Aún no ha cumplido los treinta años, pero ya se le considera un gran experto en la investigación informática de la corteza terrestre. No realiza expediciones geológicas, no estudia los núcleos extraídos durante la perforación de rocas en diferentes zonas de la Tierra, todo este trabajo duro y costoso de los geólogos sobre el terreno lo transfirió a una computadora y sólo se dedica a estudios informáticos de los corteza terrestre y ya ha propuesto su teoría sobre la formación de la capa de Mohorovicic, ese límite inferior de la corteza terrestre, en el que se produce un incomprensible aumento abrupto de las velocidades de las ondas sísmicas longitudinales. Y mundo científico aceptó su teoría.

Mi juventud la pasé en geología e incluso estudié en MGRI durante cuatro años y sé en detalle qué es, el trabajo de campo en expediciones geológicas y cómo se compiló el mapa geológico de la URSS, el mapa más grande del mundo. Pero ahora resulta que la geología práctica de campo ya no es necesaria. sociedad moderna. Y el trabajo geológico de oficina, que antes se realizaba basándose en los resultados de estudios de campo, ahora se puede realizar en casa, en la oficina, con una computadora, en condiciones cómodas, y ya no se realizan expediciones con las condiciones de vida y de trabajo más difíciles en algún lugar fuera de la civilización. necesario.

Si esto es así, entonces resulta que nuestro mundo real ha cambiado radicalmente y esta nueva realidad circundante, la llamada realidad virtual, ya está desplazando activamente las ideas anteriores sobre nuestra vida actual.

Y ahora realmente no necesitamos fábricas para fabricar los productos que necesitamos, y tampoco necesitamos expediciones para estudiar la superficie y las profundidades de la tierra, sino que solo necesitamos computadoras con impresoras volumétricas que, con la programación adecuada, resolver todos nuestros problemas reales de nuestra nueva vida real. ¡¿Pero eso es todo?!

De repente y, como siempre, se rompió fuente en nuestra entrada y llamé a la famosa oficina de vivienda y llamé a los fontaneros para solucionar el accidente. Pero no necesitaban supercomputadoras con impresoras grandes, solo necesitaban herramientas de plomería, con las que acudieron a nosotros para solucionar el accidente y estuvieron más de dos días reparando tuberías rotas. Pero los intelectuales modernos me dicen que este caso particular mío no tiene nada que ver con la inteligencia artificial.

Aparentemente soy una persona de una época anterior y por eso no entiendo las realidades de hoy, que no hay lugar para mí en el nuevo mundo de la informática. Después de todo, esto debe ser completamente diferente de nuestra sociedad actual, porque la mente humana moderna no podrá controlar tales procesos informáticos; aquí se necesita inteligencia artificial, cerebro artificial, inteligencia artificial. Y sólo una pequeña parte de la gente moderna podrá trabajar con inteligencia artificial, por lo que el resto de la población mundial se volverá redundante e inútil para cualquiera. Aún se desconoce qué habrá que hacer con ellos entonces. ¡Aún no lo hemos decidido!

Así nace la idea de unos “mil millones de oro” de “administradores” modernos de la tierra, cuya tarea es gestionar y utilizar los bienes terrenales, y el resto de la gente de la tierra será necesaria sólo para servirles. y crear condiciones de vida cómodas para ellos. Pero, ¿dónde podemos conseguirlos, estos candidatos a ser incluidos en los “mil millones de oro”, estas personas con una inteligencia súper alta que pueden trabajar con inteligencia artificial? Y deberán seleccionarse ya en la etapa del embarazo. Y esa selección la tendrá que hacer la propia inteligencia artificial, la propia inteligencia artificial.

Y este tipo de tonterías se prolongaron durante casi dos horas en el canal “24”. ¿De dónde viene todo esto? mundo moderno? La respuesta es simple. La disminución del nivel educativo general y profesional en los países de Europa y América, por no hablar de Rusia, es tan poderosa que obliga a la población semieducada de Occidente y Rusia a creer activamente en tales "historias" y cuentos de hadas. .

Pero la vida todavía rompe su percepción intelectual de la vida que nos rodea, de nuestra realidad actual. Y se rompe todo el tiempo. Pero no se dan cuenta de esto, porque su mirada se dirige al futuro, donde no hay suciedad de la vida cotidiana y se dirigen al futuro.

Después de todo, ninguno de ellos plantea siquiera las preguntas más básicas sobre quién construirá viviendas y carreteras para estos intelectuales, quién les proporcionará alimentos, quién retirará sus desechos, quién reparará nuestras casas, nuestros jardines, nuestro agua y gas. oleoductos, quienes fabricarán y mantendrán estas computadoras e impresoras ellos mismos. ¿OMS? La inteligencia artificial decidirá todo por sí sola, me responden. Y tienen confianza en su respuesta y me miran a mí y a la gente como yo con condescendencia.

Pero, ¿puede esta inteligencia artificial competir con la inteligencia humana? La pregunta es retórica. Por no decir estúpido. Pero me dicen que la inteligencia artificial ya está derrotando a los humanos en el ajedrez y también en la programación. Y la pintura y la escultura modernas “chispan” de maneras que ninguna imaginación humana puede imaginar.

Y no tiene sentido discutir con ellos sobre este tema. Pero me parece que es su inteligencia la que la inteligencia artificial puede reemplazar. Aquí no hay dificultades. Porque piensan de forma estándar y primitiva. Pero mi mente, la mente de un ingeniero e inventor, la mente de mi esposa, un médico altamente calificado y otras personas similares que hacen su trabajo profesionalmente, ninguna mente artificial puede reemplazarla. No me refiero aquí a las mentes de las mujeres y las madres.

Pero la mente de la mayoría de los funcionarios gubernamentales y diputados de diversos tipos de la "Duma estatal" y sus numerosos asistentes, incluso valdría la pena reemplazarla inmediatamente por una artificial. Y también las mentes de estos "intelectuales", doctores de todo tipo de ciencias, que pasan horas despotricando en la televisión sobre nuestro brillante futuro, controlado por los "mil millones de oro" de la humanidad, armados con inteligencia artificial, para controlar a la sociedad. convirtiéndose en la tarea más importante y necesaria en Rusia. De lo contrario, nos ahogaremos con su palabrería vacía.

PD El concepto de pensar, pensar, es diferente para cada persona. Un hombre piensa cuando piensa en tres; una mujer piensa cuando elige un vestido para salir a una cita o se maquilla la cara; un hombre de negocios piensa cuando intenta pagar menos a sus empleados y poner más en su bolsillo; un ingeniero piensa cuando resuelve un problema técnico al que se enfrenta, y así sucesivamente. Bueno, no tengo idea de lo que está pensando el actual funcionario del gobierno, porque esta esfera de la actividad humana en la Rusia actual es un absoluto misterio para mí. Después de todo, allí no hay ni una pizca de pensamientos: sólo intereses primitivos y egoístas.

Simulación de fisiología
El hecho es que el término "Inteligencia Artificial" (por cierto, está siendo reemplazado gradualmente por los conceptos de "sistemas inteligentes", "métodos de toma de decisiones", "minería de datos") se consideró inicialmente que abarcaba una gran clase de modelos. y algoritmos que se suponía que debían funcionar de la misma manera que el cerebro humano (según las ideas de esa época).
Entre ellos se incluyen, por ejemplo, las famosas redes neuronales de todo tipo y los algoritmos genéticos.

Resumen, estadísticas y análisis.
Por otro lado, muchos métodos de la llamada IA ​​no son más que un desarrollo de ramas de las matemáticas: estadística, investigación operativa, topología y espacios métricos. Estos incluyen la mayoría de los métodos de extracción de datos y descubrimiento de datos de conocimiento, análisis de conglomerados, el método de contabilidad grupal de argumentos y otros.

Se trata de métodos de la llamada inferencia inductiva, cuando, a partir de los datos disponibles, deducen patrones generales.

Reglas, lógica, conclusión.
El tercer grupo especial incluye métodos que intentan construir patrones generales y utilizarlos para sacar conclusiones sobre hechos específicos. Estos son métodos de inferencia deductiva y están representados por: la silogística de Aristóteles, que es tan antigua como el mundo, el cálculo de proposiciones y predicados, varios sistemas formales y lógicas. Las teorías de los lenguajes formales y naturales, así como diversas gramáticas generativas, estaban justo al límite.

Vemos que todo lo que habitualmente se denomina "IA" intenta resolverse mediante simulación o lógicamente. tarea de imitación Inteligencia humana.

Surge la pregunta: ¿qué hace una persona que sea tan específico que las computadoras modernas, construidas según los principios de Babbage, aún no hagan?
Una definición de las tareas de las que se ocupa la IA es: “una tarea para la cual no hay solución algorítmica o eso No aplicable debido a razones de complejidad computacional.».

Así, por ejemplo, la tarea de jugar a las damas alguna vez fue una tarea de IA, y después de construir un modelo completo y recopilar una base de datos completa de movimientos no mejorables, simplemente se convirtió en un problema de búsqueda en la base de información (ver y).

Los desafíos de la IA cambian con el tiempo
Quizás nuestros hijos vivan en un mundo de la información, cuando se resolverán muchos problemas y surgirán otros nuevos, desde la comunicación en lenguajes naturales hasta el control automático de todo tipo de equipos y mecanismos.

Sin embargo, cuando cada uno de nosotros escuchó las palabras “inteligencia artificial”, quisimos algo diferente.
Queríamos conseguir un coche que pudiera pensar quién tiene habilidades básicas de aprendizaje y generalización; capaces, como los organismos vivos, de sustituir unos órganos por otros y mejorar. Todo el mundo ha leído ciencia ficción temprana, ¿verdad?

¿Había un niño?
Entonces, ¿dónde se ha perdido la inteligencia? ¿Cuándo y por qué lo que queríamos ver se convirtió en modelos matemáticos aburridos y algoritmos bastante poco elegantes?

Un par de líneas fuera de tema. Si estás defendiendo una tesis con la palabra "intelectual", los miembros de la junta normalmente te pedirán que identifiques el lugar en el sistema que es intelectual y demuestres POR QUÉ es así. Esta pregunta se refiere a lo absolutamente “irresponsable”.

El hecho es que las personas a las que se les ocurrió todo en lo que se basa la "IA" moderna fueron impulsadas por ideas innovadoras y revolucionarias para esa época (de hecho, nuestro tiempo solo se diferencia en que ya hemos jugado mucho con todo esto, incluido utilizando la potencia informática moderna)

Ejemplo 1 (del reino de lo incognoscible).
Redes neuronales de propagación directa de señales con un algoritmo de retropropagación (la llamada retropropagación). Este es definitivamente un gran avance.
Una red configurada correctamente (con entradas y salidas elegidas inteligentemente) puede aprender cualquier secuencia de entrada y reconocer con éxito ejemplos que no se han enseñado.
Un experimento típico se formula de la siguiente manera: 1000 ejemplos, en la mitad de los cuales enseñamos el algoritmo y en la otra lo probamos. Y la elección de la primera y segunda mitad se realiza de forma aleatoria.
Funciona, personalmente enseñé diferentes NS al menos 10 veces. diferentes tareas y obtuve resultados normales, con un 60-90% de respuestas correctas.

¿Cuál es el problema con las redes neuronales? ¿Por qué no son inteligencia genuina?
1. Los datos de entrada casi siempre deben prepararse y preprocesarse con mucho cuidado. A menudo se crean toneladas de código y filtros para que los datos sean comestibles para las redes. De lo contrario, la red estudiará durante años y no aprenderá nada.
2. El resultado del entrenamiento NN no se puede interpretar ni explicar. Y el experto realmente quiere esto.
3. Las redes a menudo simplemente memorizan ejemplos en lugar de aprender patrones. No existen formas exactas de construir una red que sea lo suficientemente inteligente como para representar un patrón y no lo suficientemente espaciosa como para recordar estúpidamente toda la muestra.

¿Cuál es la inteligencia de las redes neuronales?
El hecho es que no le enseñamos al sistema a resolver un problema, le enseñamos a aprender a resolver problemas. El algoritmo para determinar el género de una persona no lo integran los humanos en el sistema; se encuentra casi empíricamente y está integrado en las escalas de sinapsis. Este es un elemento de inteligencia.

Ejemplo 2 (del campo de la inferencia deductiva).
La idea es sencilla. Enseñemos a la máquina a pensar como un humano (bueno, al menos saquemos conclusiones primitivas) y proporcionemos hechos básicos. A continuación, déjela que lo haga ella misma.
Los sistemas expertos, los sistemas lógicos de máquina y las ontologías (con cierta exageración) funcionan de acuerdo con este principio. ¿Funciona? Indudablemente. Se han implementado y continúan funcionando miles de sistemas para diagnosticar enfermedades y describir áreas de conocimiento.

¿Cuál es el problema? ¿Por qué los sistemas formales no son verdadera inteligencia?
El problema es que el sistema, después de haber absorbido cantidades colosales de sangre y sudor de sus creadores, comienza, como mínimo, a repetir y desarrollar las decisiones del experto (o comunidad) que lo enseñó.
¿Es esto útil? Indudablemente. El experto es mortal, las tareas se multiplican.

¿Qué es la inteligencia de los sistemas basados ​​en el conocimiento?
El hecho es que la máquina saca NUEVAS conclusiones que nadie le enseñó. Este elemento de su trabajo es extremadamente pobre (por ahora) y está limitado por los modelos y algoritmos que se establecieron. Pero este es un elemento de inteligencia.

Entonces, ¿cuál es el problema de la IA moderna?
Todavía somos muy pequeños. Nuestras ideas ingenuas y superficiales sobre cómo piensa una persona y cómo funciona el cerebro están produciendo los resultados que merecen.

Por supuesto, estamos increíblemente lejos de crear máquinas que puedan pensar en nuestro sentido humano, pero nuestros pasos en esta dirección son correctos y útiles.

E incluso si vamos en la dirección equivocada, quién sabe, tal vez, como los Strugatsky, nosotros, como resultado de esfuerzos dirigidos, accidentalmente hagamos algo mucho mejor de lo que pretendíamos.