Turing: As máquinas podem pensar? As máquinas podem pensar? Uma simples digressão sobre a complexidade do hardware

É improvável que a inteligência artificial clássica seja incorporada em máquinas pensantes; O limite da engenhosidade humana nesta área parece limitar-se à criação de sistemas que imitem o funcionamento do cérebro.

A ciência da inteligência artificial (IA) está passando por uma revolução. Para explicar as suas causas e significado e colocá-lo em perspectiva, devemos primeiro recorrer à história.

No início da década de 1950, a questão tradicional, um tanto vaga, de saber se uma máquina pode pensar deu lugar à questão mais acessível de saber se uma máquina que manipula símbolos físicos de acordo com regras que levam em conta a sua estrutura pode pensar. Esta questão é formulada com mais precisão porque a lógica formal e a teoria da computação avançaram significativamente ao longo do último meio século. Os teóricos começaram a apreciar as possibilidades de sistemas de símbolos abstratos que sofrem transformações de acordo com certas regras. Parecia que se esses sistemas pudessem ser automatizados, então o seu poder de computação abstrato se manifestaria num sistema físico real. Tais visões contribuíram para o nascimento de um programa de pesquisa bem definido, com base teórica bastante profunda.

Uma máquina pode pensar?

Houve muitos motivos para responder sim. Historicamente, uma das primeiras e mais profundas razões reside em dois resultados importantes da teoria da computação. O primeiro resultado foi a tese de Church de que toda função efetivamente computável é recursivamente computável. O termo “eficientemente computável” significa que existe algum tipo de procedimento “mecânico” que pode ser usado para calcular o resultado dados os dados de entrada em um tempo finito. “Cultável recursivamente” significa que existe um conjunto finito de operações que podem ser aplicadas a uma determinada entrada e depois aplicadas sequencial e repetidamente aos resultados recém-obtidos para avaliar a função em um tempo finito. O conceito de procedimento mecânico não é formal, mas sim intuitivo e, portanto, a tese de Church não tem prova formal. No entanto, chega ao cerne do que é a computação, e muitas evidências diferentes convergem para apoiá-la.

O segundo resultado importante foi obtido por Alan M. Turing, que demonstrou que qualquer função recursivamente computável poderia ser computada em tempo finito usando uma máquina de manipulação de símbolos simplificada ao máximo, que mais tarde ficou conhecida como máquina de Turing universal. Esta máquina é governada por regras aplicáveis ​​recursivamente que são sensíveis à identidade, ordem e disposição dos símbolos elementares que atuam como entrada.

Um corolário muito importante segue destes dois resultados, nomeadamente que um computador digital padrão, dado o programa certo, uma memória suficientemente grande e tempo suficiente, pode calcular qualquer função governada por regras com uma entrada e uma saída. Em outras palavras, ele pode demonstrar qualquer conjunto sistemático de respostas a influências voluntárias do ambiente externo.

Vamos especificar isto da seguinte forma: os resultados discutidos acima significam que uma máquina manipuladora de símbolos adequadamente programada (doravante a chamaremos de máquina MS) deve satisfazer o teste de Turing para a presença de uma mente consciente. O Teste de Turing é um teste puramente behaviorista, mas seus requisitos são muito fortes. (Consideraremos quão válido é este teste abaixo, onde encontramos um segundo “teste” fundamentalmente diferente para a presença de uma mente consciente.) De acordo com a versão original do teste de Turing, a entrada para a máquina MS deveria ser perguntas e frases em linguagem falada natural que digitamos no teclado do dispositivo de entrada, e a saída são as respostas da máquina MS impressas pelo dispositivo de saída. Considera-se que uma máquina passou neste teste de presença de uma mente consciente se suas respostas não puderem ser distinguidas daquelas digitadas por uma pessoa real e inteligente. É claro que atualmente ninguém conhece a função com a qual seria possível obter um resultado que não difere do comportamento de uma pessoa razoável. Mas os resultados de Church e Turing asseguram-nos que qualquer que seja esta função (presumivelmente eficiente), uma máquina MS com o design apropriado será capaz de computá-la.

Esta é uma conclusão muito importante, especialmente porque a descrição de Turing da interação com uma máquina que utiliza uma máquina de escrever representa uma limitação insignificante. A mesma conclusão permanece válida mesmo que a máquina MS interaja com o mundo de maneiras mais complexas: usando o aparato de visão direta, fala natural, etc. No final, uma função recursiva mais complexa ainda permanece computável por Turing. Resta apenas um problema: encontrar aquela função indubitavelmente complexa que controla as respostas humanas às influências do ambiente externo e, em seguida, escrever um programa (muitas regras aplicáveis ​​recursivamente) com a ajuda do qual a máquina MS calculará essa função. Esses objetivos formaram a base programa científico inteligência artificial clássica.

Os primeiros resultados foram encorajadores

Máquinas MS com programas engenhosamente concebidos demonstraram uma série de ações que parecem estar relacionadas com manifestações da mente. Eles respondiam a comandos complexos, resolviam difíceis problemas aritméticos, algébricos e táticos, jogavam damas e xadrez, provavam teoremas e mantinham diálogos simples. Os resultados continuaram a melhorar com o advento de dispositivos de armazenamento maiores, máquinas mais rápidas e o desenvolvimento de programas mais poderosos e sofisticados. A IA clássica ou “baseada em programação” era um campo científico muito vibrante e bem-sucedido sob quase todos os pontos de vista. A negação periódica de que as máquinas MS seriam capazes de pensar parecia tendenciosa e desinformada. As evidências a favor de uma resposta positiva à questão colocada no título do artigo pareciam mais do que convincentes.

É claro que algumas incertezas permaneceram. Em primeiro lugar, as máquinas MS não se pareciam muito com cérebro humano. No entanto, também aqui a IA clássica tinha uma resposta convincente pronta. Primeiro, o material físico a partir do qual uma máquina MS é feita não tem essencialmente nada a ver com a função que ela calcula. Este último fica gravado no programa. Em segundo lugar, os detalhes técnicos da arquitetura funcional da máquina também não importam, uma vez que arquiteturas completamente diferentes, projetadas para funcionar com programas completamente diferentes, podem, no entanto, executar a mesma função de entrada-saída.

Portanto, o objetivo da IA ​​era encontrar uma função que tivesse entrada e saída características da mente, e também criar o mais eficiente dos muitos programas possíveis para calcular essa função. Ao mesmo tempo, disseram que não importa a forma específica como a função é calculada pelo cérebro humano. Isto completa a descrição da essência da IA ​​clássica e os fundamentos para uma resposta positiva à questão colocada no título do artigo.

Uma máquina pode pensar? Houve também alguns argumentos a favor de uma resposta negativa. Ao longo da década de 1960, argumentos negativos dignos de nota eram relativamente raros. Às vezes, foi expressa uma objeção de que o pensamento não é um processo físico e ocorre na alma imaterial. No entanto, tal visão dualista não parecia suficientemente convincente, nem do ponto de vista evolutivo, nem do ponto de vista lógico. Não teve um efeito inibidor na pesquisa de IA.

Considerações de natureza diferente atraíram muito mais atenção dos especialistas em IA. Em 1972, Hubert L. Dreyfus publicou um livro que criticava duramente o desfile de demonstrações de inteligência em sistemas de IA. Ele ressaltou que esses sistemas não modelavam adequadamente o pensamento genuíno e revelaram um padrão inerente a todos esses tentativas malsucedidas. Na sua opinião, faltava aos modelos aquele enorme stock de conhecimento geral informal sobre o mundo que qualquer pessoa possui, bem como a capacidade inerente ao bom senso de confiar em determinados componentes desse conhecimento, dependendo das exigências de uma situação em mudança. Dreyfus não negou a possibilidade fundamental de criar um sistema físico artificial capaz de pensar, mas foi muito crítico em relação à ideia de que isso só poderia ser alcançado através da manipulação de símbolos usando regras aplicadas recursivamente.

Nos círculos de especialistas em inteligência artificial, bem como de filósofos, o raciocínio Dreyfus foram vistos principalmente como míopes e tendenciosos, com base nas inevitáveis ​​simplificações inerentes a este campo de investigação ainda muito jovem. Talvez essas deficiências realmente tenham ocorrido, mas, é claro, foram temporárias. Chegará o tempo em que máquinas mais poderosas e software melhor eliminarão essas deficiências. Parecia que o tempo estava trabalhando para a inteligência artificial. Assim, estas objeções não tiveram qualquer impacto perceptível em futuras pesquisas no campo da IA.

No entanto, descobriu-se que o tempo também funcionou para Dreyfus: No final dos anos 70 e início dos anos 80, os aumentos na velocidade e na capacidade de memória dos computadores não aumentaram muito as suas “habilidades mentais”. Descobriu-se, por exemplo, que o reconhecimento de padrões em sistemas de visão computacional requer uma quantidade inesperadamente grande de computação. Para obter resultados praticamente confiáveis, foi necessário gastar cada vez mais tempo de computador, excedendo em muito o tempo necessário para o sistema de visão biológica realizar as mesmas tarefas. Um processo de modelagem tão lento era alarmante: afinal, em um computador, os sinais viajam cerca de um milhão de vezes mais rápido do que no cérebro, e a velocidade do clock da unidade central de processamento do computador é aproximadamente o mesmo número de vezes maior que a frequência de qualquer vibrações encontradas no cérebro. E ainda assim, em problemas realistas, a tartaruga supera facilmente a lebre.

Além disso, a resolução de problemas realistas exige que o programa de computador tenha acesso a uma base de dados extremamente grande. Construir tal banco de dados é um desafio em si, mas é agravado pelo desafio de como acessar partes específicas e específicas do banco de dados em tempo real. À medida que os bancos de dados se tornaram mais espaçosos, o problema de acesso tornou-se mais complexo. Uma pesquisa exaustiva demorava muito e os métodos heurísticos nem sempre eram bem-sucedidos. Até mesmo alguns especialistas que trabalham na área da inteligência artificial começaram a partilhar preocupações semelhantes às expressas por Dreyfus.

Por esta altura (1980), John Searle propôs um conceito crítico fundamentalmente novo que desafiava o pressuposto fundamental do programa clássico de investigação em IA, nomeadamente a ideia de que a manipulação correcta de símbolos estruturados através da aplicação recursiva de regras que têm em conta a sua estrutura pode constituir a essência da mente consciente.

O principal argumento de Searle baseou-se num experimento mental no qual ele demonstra duas coisas muito importantes. Primeiro, ele descreve uma máquina MS que (devemos entender) implementa uma função cuja entrada e saída podem passar no teste de Turing de uma conversa que ocorre inteiramente em chinês. Em segundo lugar, a estrutura interna da máquina é tal que, independentemente do comportamento que exiba, não há dúvida na mente do observador de que nem a máquina como um todo, nem qualquer parte dela, entende chinês. Contém apenas uma pessoa que fala apenas inglês, seguindo as regras escritas nas instruções, com a ajuda das quais deverá manipular os símbolos que entram e saem pela janela de correio da porta. Em suma, o sistema satisfaz positivamente o teste de Turing, apesar de não ter uma verdadeira compreensão da língua chinesa e do conteúdo semântico real das mensagens (ver o artigo de J. Searle “Is the Mind of the Brain a Computer Program? ").

A conclusão geral é que qualquer sistema que simplesmente manipule símbolos físicos de acordo com regras sensíveis à estrutura será, na melhor das hipóteses, uma paródia pobre de uma mente consciente real, uma vez que é impossível gerar "semântica real" simplesmente girando o botão de " sintaxe vazia." Deve-se notar aqui que Searle propõe um teste não comportamental para a presença de consciência: os elementos da mente consciente devem ter conteúdo semântico real.

É tentador culpar Searle pela inadequação de seu experimento mental, uma vez que seu sistema proposto de Cubo de Rubik seria absurdamente lento. No entanto, Searle insiste que a velocidade não desempenha qualquer papel neste caso. Quem pensa devagar ainda pensa corretamente. Tudo o que é necessário para reproduzir o pensamento, segundo o conceito da IA ​​clássica, em sua opinião, está presente na “sala chinesa”.

O artigo de Searle provocou respostas animadas de especialistas em IA, psicólogos e filósofos. No entanto, em geral, foi recebido com ainda mais hostilidade do que o livro de Dreyfus. Em seu artigo, publicado simultaneamente nesta edição da revista, Searle apresenta uma série de argumentos críticos contra seu conceito. Na nossa opinião, muitos deles são legítimos, especialmente aqueles cujos autores "mordem a isca" avidamente, argumentando que, embora o sistema que consiste na sala e no seu conteúdo seja dolorosamente lento, ainda compreende chinês.

Gostamos destas respostas, mas não porque pensemos que a sala chinesa entende chinês. Concordamos com Searle que ela não o entende. O apelo destes argumentos é que reflectem uma recusa em aceitar o importantíssimo terceiro axioma do argumento de Searle: “A sintaxe por si só não constitui semântica e não é suficiente para a existência da semântica”. Este axioma pode ser verdadeiro, mas Searle não pode, com boas razões, afirmar que sabe disso com certeza. Além disso, assumir que isto é verdade levanta a questão de saber se o programa clássico de investigação em IA é sustentável, uma vez que este programa se baseia no pressuposto muito interessante de que se conseguirmos pôr em marcha um processo adequadamente estruturado, uma espécie de dança interna de elementos sintáticos corretamente associados a entradas e saídas, então poderemos obter os mesmos estados e manifestações da mente que são inerentes ao homem.

Que o terceiro axioma de Searle realmente suscita esta questão torna-se óbvio quando o comparamos diretamente com a sua primeira conclusão: “Os programas aparecem como a essência da mente e a sua presença não é suficiente para a presença da mente”. Não é difícil perceber que o seu terceiro axioma já traz 90% de uma conclusão quase idêntica a ele. É por isso que o experimento mental de Searle foi projetado especificamente para apoiar o terceiro axioma. Esta é toda a essência da sala chinesa.

Embora o exemplo da sala chinesa torne o Axioma 3 atraente para os não iniciados, não pensamos que ele prove a validade deste axioma e, para demonstrar a inconsistência deste exemplo, oferecemos o nosso próprio exemplo paralelo como ilustração. Muitas vezes, um exemplo de sucesso que refuta uma afirmação contestada esclarecerá a situação muito melhor do que um livro inteiro cheio de malabarismos lógicos.

Na história da ciência houve muitos exemplos de ceticismo semelhante ao que vemos no raciocínio de Searle. No século 18 O bispo irlandês George Berkeley considerou inconcebível que as ondas de compressão no ar pudessem ser elas próprias a essência dos fenómenos sonoros ou um factor suficiente para a sua existência. O poeta e artista inglês William Blake e o poeta naturalista alemão Johann Goethe consideraram inconcebível que pequenas partículas de matéria pudessem, por si mesmas, ser uma essência ou fator suficiente para a existência objetiva da luz. Mesmo neste século, havia pessoas que não conseguiam imaginar que a matéria inanimada em si, por mais complexa que fosse a sua organização, pudesse ser uma entidade orgânica ou uma condição suficiente de vida. É claro que o que as pessoas podem ou não podem imaginar muitas vezes não tem nada a ver com o que realmente existe ou não existe na realidade. Isto é verdade mesmo quando se trata de pessoas com níveis muito elevados de inteligência.

Para ver como estas lições históricas podem ser aplicadas ao raciocínio de Searle, vamos aplicar um paralelo artificial à sua lógica e apoiar este paralelo com uma experiência mental.

Axioma 1. Eletricidade e magnetismo são forças físicas.

Axioma 2. Uma propriedade essencial da luz é o brilho.

Axioma 3. As próprias forças aparecem como a essência do efeito de brilho e não são suficientes para sua presença.

Conclusão 1. A eletricidade e o magnetismo não são a essência da luz e não são suficientes para a sua presença.

Suponhamos que este argumento tenha sido publicado pouco depois James C. Maxwell em 1864 sugeriu que a luz e as ondas eletromagnéticas são idênticas, mas antes que os paralelos sistemáticos entre as propriedades da luz e as propriedades das ondas eletromagnéticas fossem plenamente realizados no mundo. O argumento lógico acima pareceria ser uma objecção convincente à ousada hipótese de Maxwell, especialmente se fosse acompanhado pelo seguinte comentário em apoio ao Axioma 3.

Considere um quarto escuro onde há uma pessoa segurando um ímã permanente ou um objeto carregado nas mãos. Se uma pessoa começar a mover um ímã para cima e para baixo, então, de acordo com a teoria da iluminação artificial (IA) de Maxwell, uma esfera de propagação de ondas eletromagnéticas emanará do ímã e a sala ficará mais brilhante. Mas como qualquer pessoa que já tentou brincar com ímãs ou bolas carregadas sabe bem, suas forças (ou quaisquer outras forças), mesmo quando esses objetos são colocados em movimento, não criam nenhum brilho. Portanto, parece inconcebível que possamos alcançar um efeito de brilho real simplesmente através da manipulação de forças!

As vibrações das forças eletromagnéticas representam a luz, embora um ímã que uma pessoa mova não produza nenhum brilho. Da mesma forma, a manipulação de símbolos de acordo com certas regras pode constituir inteligência, embora o sistema baseado em regras encontrado na Sala Chinesa de Searle pareça carecer de compreensão real.

Como Maxwell poderia responder se este desafio lhe fosse apresentado?

Primeiro, ele provavelmente insistiria que o experimento da “sala luminosa” nos engana sobre as propriedades da luz visível porque a frequência das oscilações do ímã é extremamente pequena, menor do que o necessário por um fator de cerca de 1015. Pode-se seguir uma resposta impaciente de que a frequência não desempenha nenhum papel aqui, que a sala com um ímã oscilante já contém tudo o que é necessário para a manifestação do efeito de brilho em plena conformidade com a própria teoria de Maxwell.

Por sua vez Maxwell poderia “morder a isca”, afirmando razoavelmente que a sala já está cheia de brilho, mas a natureza e a força desse brilho são tais que uma pessoa não é capaz de vê-lo. (Devido à baixa frequência com que uma pessoa move um íman, o comprimento das ondas electromagnéticas geradas é demasiado longo e a intensidade demasiado baixa para o olho humano reagir a elas.) No entanto, dado o nível de compreensão destes fenómenos durante No período em questão (década de 1960 do século passado), tal explicação provavelmente causaria risos e comentários zombeteiros. "Sala iluminada! Mas com licença, Sr. Maxwell, está completamente escuro lá dentro!

Então vemos que os pobres MaxwellÉ duro. Tudo o que ele pode fazer é insistir nos três pontos seguintes. Em primeiro lugar, o axioma 3 no argumento acima não é verdadeiro. Na verdade, apesar de intuitivamente parecer bastante plausível, não podemos deixar de nos perguntar sobre isso. Em segundo lugar, a experiência da sala luminosa não nos mostra nada de interessante sobre a natureza física da luz. E terceiro, para realmente resolver o problema da luz e a possibilidade de brilho artificial, precisamos de um programa de investigação que estabeleça se, nas condições certas, o comportamento das ondas electromagnéticas é realmente completamente idêntico ao comportamento da luz. A inteligência artificial clássica deveria dar a mesma resposta ao raciocínio de Searle. Embora a sala chinesa de Searle possa parecer “semanticamente escura”, ele não tem boas razões para insistir que a manipulação de símbolos, realizada de acordo com certas regras, nunca poderá dar origem a fenómenos semânticos, especialmente porque as pessoas ainda estão mal informadas e limitadas apenas pela compreensão do nível de senso comum daqueles semânticos e fenômenos mentais que precisam de explicação. Em vez de usar uma compreensão destas coisas, Searle aproveita livremente a falta de tal compreensão das pessoas no seu raciocínio.

Depois de expressarmos as nossas críticas ao raciocínio de Searle, voltamos à questão de saber se um programa clássico de IA tem uma possibilidade real de resolver o problema da mente consciente e de criar uma máquina pensante. Acreditamos que as perspectivas aqui não são animadoras, mas a nossa opinião baseia-se em razões que são fundamentalmente diferentes dos argumentos utilizados pela Searle. Baseamo-nos em falhas específicas do programa clássico de investigação em IA e numa série de lições que o cérebro biológico nos ensinou através de uma nova classe de modelos computacionais que incorporam algumas das propriedades da sua estrutura. Já mencionamos as falhas da IA ​​clássica na resolução dos problemas que são resolvidos de forma rápida e eficiente pelo cérebro. Os cientistas estão gradualmente chegando a um consenso de que essas falhas são explicadas pelas propriedades da arquitetura funcional das máquinas MS, que são simplesmente inadequadas para resolver os problemas complexos que enfrentam.

O que precisamos saber é como o cérebro consegue o efeito de pensar? A engenharia reversa é uma técnica difundida na engenharia. Quando um novo dispositivo técnico é colocado à venda, os concorrentes descobrem como ele funciona, desmontando-o e tentando adivinhar o princípio em que se baseia. No caso do cérebro, esta abordagem é extraordinariamente difícil de implementar, uma vez que o cérebro é a coisa mais complexa do planeta. No entanto, os neurocientistas conseguiram descobrir muitas propriedades do cérebro em vários níveis estruturais. Três características anatômicas o distinguem fundamentalmente da arquitetura dos computadores eletrônicos tradicionais.

Primeiramente, o sistema nervoso é uma máquina paralela, no sentido de que os sinais são processados ​​simultaneamente ao longo de milhões de caminhos diferentes. Por exemplo, a retina do olho transmite um sinal de entrada complexo ao cérebro, não em pedaços de 8, 16 ou 32 elementos, como um computador desktop, mas na forma de um sinal que consiste em quase um milhão de elementos individuais que chegam simultaneamente a a extremidade do nervo óptico (o corpo geniculado lateral), após o qual também são processados ​​simultaneamente, em uma única etapa, pelo cérebro. Em segundo lugar, o “dispositivo de processamento” elementar do cérebro, o neurónio, é relativamente simples. Além disso, a sua resposta a um sinal de entrada é analógica e não digital, no sentido de que a frequência do sinal de saída muda de forma contínua dependendo dos sinais de entrada.

Terceiro, no cérebro, além dos axônios que vão de um grupo de neurônios a outro, frequentemente encontramos axônios que vão na direção oposta. Essas projeções recorrentes permitem que o cérebro module a maneira como processa as informações sensoriais. Ainda mais importante é o fato de que sua existência faz do cérebro um sistema verdadeiramente dinâmico, no qual o comportamento continuamente mantido se distingue tanto por uma complexidade muito alta quanto por uma relativa independência de estímulos periféricos. Modelos de redes simplificados têm desempenhado um papel útil no estudo dos mecanismos de operação de redes neurais reais e nas propriedades computacionais de arquiteturas paralelas. Considere, por exemplo, um modelo de três camadas que consiste em elementos semelhantes a neurônios que possuem conexões semelhantes a axônios com elementos do próximo nível. O estímulo de entrada atinge o limiar de ativação de um determinado elemento de entrada, que envia um sinal de força proporcional ao longo de seu “axônio” para os numerosos terminais “sinápticos” dos elementos da camada oculta. O efeito geral é que uma configuração particular de sinais de ativação em um conjunto de elementos de entrada gera uma certa configuração de sinais em um conjunto de elementos ocultos.

O mesmo pode ser dito sobre os elementos de saída. Da mesma forma, a configuração dos sinais de ativação na fatia da camada oculta leva a um certo padrão de ativação na fatia dos elementos de saída. Resumindo, podemos dizer que a rede em questão é um dispositivo para transformar qualquer grande número de possíveis vetores de entrada (configurações de sinais de ativação) em um único vetor de saída que lhe corresponde. Este dispositivo foi projetado para calcular uma função específica. Exatamente qual função ela calcula depende da configuração global da estrutura de peso sináptica.

As redes neurais modelam a propriedade principal da microestrutura do cérebro. Nesta rede de três camadas, os neurônios de entrada (canto inferior esquerdo) processam uma configuração de sinais de ativação (canto inferior direito) e os transmitem através de conexões ponderadas para a camada oculta. Os elementos da camada oculta somam suas múltiplas entradas para formar uma nova configuração de sinal. Ele é repassado para a camada externa, que realiza outras transformações. Em geral, a rede transforma qualquer conjunto de sinais de entrada em uma saída correspondente, dependendo da localização e da força relativa das conexões entre os neurônios.

Há uma variedade de procedimentos para selecionar pesos que podem tornar uma rede capaz de calcular praticamente qualquer função (isto é, qualquer transformação entre vetores). Na verdade, é possível implementar na rede uma função que nem sequer pode ser formulada, bastando dar-lhe um conjunto de exemplos que mostrem que tipo de cotovias de entrada e saída gostaríamos de ter. Esse processo, denominado “treinamento de rede”, é feito ajustando sequencialmente os pesos atribuídos aos links até que a rede execute as transformações desejadas na entrada para produzir a saída desejada.

Embora este modelo de rede simplifique bastante a estrutura do cérebro, ele ainda ilustra vários aspectos importantes. Primeiro, a arquitetura paralela oferece uma tremenda vantagem de velocidade em relação a um computador tradicional porque múltiplas sinapses em cada camada executam muitas pequenas operações computacionais simultaneamente, em vez de em um modo sequencial muito trabalhoso. Esta vantagem torna-se cada vez mais significativa à medida que o número de neurônios em cada camada aumenta. Surpreendentemente, a velocidade de processamento da informação não depende em nada do número de elementos envolvidos no processo em cada nível, nem da complexidade da função que calculam. Cada nível pode ter quatro elementos ou cem milhões; a configuração dos pesos sinápticos pode calcular somas simples de um dígito ou resolver equações diferenciais de segunda ordem. Isso não importa. O tempo de cálculo será absolutamente o mesmo.

Em segundo lugar, a natureza paralela do sistema torna-o insensível a pequenos erros e confere-lhe estabilidade funcional; a perda de alguns links, mesmo de um número significativo deles, tem um efeito insignificante no progresso global da transformação levada a cabo pelo resto da rede.

Terceiro, um sistema paralelo armazena uma grande quantidade de informações de forma distribuída, ao mesmo tempo que fornece acesso a qualquer fragmento dessas informações em um tempo medido em vários milissegundos. As informações são armazenadas na forma de certas configurações de pesos de conexões sinápticas individuais formadas no processo de aprendizagem anterior. A informação desejada é “liberada” à medida que o vetor de entrada passa (e é transformado por) esta configuração de conexões.

O processamento paralelo não é ideal para todos os tipos de computação. Ao resolver problemas com um pequeno vetor de entrada, mas exigindo muitos milhões de cálculos recursivos rapidamente repetidos, o cérebro fica completamente indefeso, enquanto as máquinas MS clássicas demonstram suas melhores capacidades. Esta é uma classe de computação muito grande e importante, portanto as máquinas clássicas sempre serão necessárias e até necessárias. No entanto, existe uma classe igualmente ampla de computações para as quais a arquitetura cerebral representa a melhor solução técnica. Estes são principalmente os tipos de cálculos que os organismos vivos normalmente enfrentam: reconhecer os contornos de um predador num ambiente “ruidoso”; lembrança instantânea da reação correta ao seu olhar, do método de fugir quando se aproxima ou de se defender quando ataca; distinguir entre coisas comestíveis e não comestíveis, entre parceiros sexuais e outros animais; escolher comportamento em um ambiente físico ou social complexo e em constante mudança; etc.

Finalmente, é muito importante notar que o sistema paralelo descrito não manipula símbolos de acordo com regras estruturais. Em vez disso, a manipulação de símbolos é apenas uma das muitas outras habilidades “inteligentes” que a rede pode ou não aprender. A manipulação de símbolos governada por regras não é a principal forma de operação da rede. O argumento de Searle é dirigido contra máquinas MS governadas por regras; sistemas de transformação vetorial do tipo que descrevemos ficam, portanto, fora do escopo de seu argumento do quarto chinês, mesmo que fosse válido, o que temos outras razões independentes para duvidar.

Searle conhece processadores paralelos, mas em sua opinião eles também serão desprovidos de conteúdo semântico real. Para ilustrar a sua inevitável inferioridade a este respeito, ele descreve uma segunda experiência mental, desta vez com um ginásio chinês cheio de pessoas organizadas numa rede paralela. O curso posterior do seu raciocínio é semelhante ao raciocínio no caso da sala chinesa.

Na nossa opinião, este segundo exemplo não é tão bem sucedido e convincente como o primeiro. Em primeiro lugar, o facto de nenhum elemento do sistema compreender chinês não desempenha qualquer papel, porque o mesmo se aplica ao sistema nervoso humano: nem um único neurónio do meu cérebro compreende Em inglês, embora o cérebro o entenda como um todo. Searle ainda não menciona que seu modelo (uma pessoa para cada neurônio mais um menino veloz para cada conexão sináptica) exigiria pelo menos 1.014 pessoas, uma vez que o cérebro humano contém 1.011 neurônios, cada um com uma média de 103 conexões. Assim, seu sistema exigiria uma população de 10.000 mundos como a nossa Terra. É óbvio que o ginásio está longe de conseguir acolher um modelo mais ou menos adequado.

Por outro lado, se tal sistema ainda pudesse ser montado, numa escala cósmica apropriada, com todas as conexões precisamente modeladas, teríamos um cérebro enorme, lento, de design estranho, mas ainda funcional. Nesse caso, é claro, é natural esperar que com a contribuição correta ele pense, e não vice-versa, que não é capaz disso. Não se pode garantir que a operação de tal sistema represente o pensamento real, uma vez que a teoria do processamento vetorial pode não refletir adequadamente o funcionamento do cérebro. Mas da mesma forma não temos garantia a priori de que ela não pensará. Searle mais uma vez identifica erroneamente os limites atuais de sua própria imaginação (ou da imaginação do leitor) com os limites da realidade objetiva.

Cérebro

O cérebro é uma espécie de computador, embora a maioria de suas propriedades permaneça desconhecida. Caracterizar o cérebro como um computador está longe de ser simples e tais tentativas não devem ser consideradas liberdades excessivas. O cérebro calcula funções, mas não da mesma forma que nos problemas aplicados resolvidos pela inteligência artificial clássica. Quando falamos de máquina como computador, não nos referimos a um computador digital serial que precisa ser programado e que possui uma divisão clara em software e hardware; nem queremos dizer que este computador manipula símbolos ou segue certas regras. O cérebro é um computador de um tipo fundamentalmente diferente.

Ainda não se sabe como o cérebro capta o conteúdo semântico da informação, mas está claro que esse problema vai muito além da linguística e não se limita aos humanos como espécie. Uma pequena pilha de terra fresca significa, tanto para o homem quanto para o coiote, que há um esquilo em algum lugar próximo; eco com certas características espectrais significa para bastão presença de uma mariposa. Para desenvolver uma teoria da formação de significado, devemos saber mais sobre como os neurônios codificam e transformam os sinais sensoriais, a base neural da memória, aprendizagem e emoção, e as conexões entre esses fatores e o sistema motor. Uma teoria do significado baseada na neurociência pode até exigir as nossas intuições, que agora nos parecem tão seguras e que Searle utiliza tão livremente no seu raciocínio. Tais revisões não são incomuns na história da ciência.

A ciência é capaz de criar inteligência artificial usando o que se sabe sobre o sistema nervoso? Não vemos quaisquer obstáculos fundamentais neste caminho. Searle parece concordar, mas com a ressalva: “Qualquer outro sistema capaz de gerar uma mente deve ter propriedades causais (pelo menos) equivalentes às propriedades correspondentes do cérebro”. Ao final do artigo, consideraremos esta afirmação. Acreditamos que Searle não está argumentando que um sistema de inteligência artificial bem-sucedido deva necessariamente possuir todas as propriedades causais do cérebro, como a capacidade de cheirar algo podre, a capacidade de ser portador de vírus, a capacidade de ficar amarelo sob a influência de peroxidase de rábano, etc. Exigir total cumprimento seria o mesmo que exigir uma aeronave artificial para poder botar ovos.

Ele provavelmente quis dizer apenas a exigência de que a mente artificial tenha todas as propriedades causais associadas, como ele disse, a uma mente consciente. Mas quais exatamente? E assim voltamos novamente ao debate sobre o que pertence e o que não pertence à mente consciente. Este é o lugar certo para argumentar, mas a verdade neste caso deve ser descoberta empiricamente – tente e veja o que acontece. Como sabemos tão pouco sobre em que consistem exatamente os processos de pensamento e a semântica, qualquer certeza sobre quais propriedades são essenciais aqui seria prematura. Searle sugere diversas vezes que todos os níveis, inclusive o bioquímico, devem ser representados em qualquer máquina que pretenda ser artificialmente inteligente. Obviamente, esta é uma exigência muito forte. Um cérebro artificial pode conseguir o mesmo efeito sem usar mecanismos bioquímicos.

Essa possibilidade foi demonstrada na pesquisa de K. Mead, do Instituto de Tecnologia da Califórnia. Mead e seus colegas usaram dispositivos microeletrônicos analógicos para criar uma retina artificial e uma cóclea artificial. (Em animais, a retina e a cóclea não são simplesmente transdutores; ambos os sistemas passam por processamento paralelo complexo.) Esses dispositivos não são mais os modelos simples do minicomputador que Searle ridiculariza; são elementos reais de processamento de informação que respondem em tempo real a sinais reais: luz no caso da retina e som no caso da cóclea. Os designs dos dispositivos são baseados em propriedades anatômicas e fisiológicas conhecidas da retina do gato e da cóclea da coruja-das-torres, e sua produção é extremamente próxima da produção conhecida dos órgãos que eles modelam.

Esses chips não utilizam nenhum neurotransmissor, portanto, os neurotransmissores não parecem ser necessários para alcançar os resultados desejados. É claro que não podemos dizer que a retina artificial vê alguma coisa, uma vez que sua saída não vai para o tálamo artificial ou para o córtex cerebral, etc. Ainda não se sabe se é possível construir um cérebro artificial inteiro de acordo com o programa de Mead, mas pelo menos presente temos Não temos evidências de que a falta de mecanismos bioquímicos no sistema torne esta abordagem irrealista.

O sistema nervoso abrange muitas escalas de organização, desde moléculas de neurotransmissores (abaixo) até todo o cérebro e medula espinhal. Nos níveis intermediários existem neurônios individuais e circuitos neurais, como aqueles que implementam seletividade na percepção de estímulos visuais (centro), e sistemas constituídos por muitos circuitos, semelhantes àqueles que atendem às funções da fala (canto superior direito). Somente através da pesquisa é possível determinar até que ponto um sistema artificial pode replicar sistemas biológicos que possuem inteligência.

Tal como Searle, rejeitamos o teste de Turing como critério suficiente para a presença de uma mente consciente. A um certo nível, as nossas razões para isto são semelhantes: concordamos que é muito importante a forma como a função definida pela entrada-saída é implementada; É importante que os processos corretos ocorram na máquina. Num outro nível, somos guiados por considerações completamente diferentes. Searle baseia sua posição quanto à presença ou ausência de conteúdo semântico em intuições do senso comum. Nosso ponto de vista baseia-se nas falhas específicas das máquinas clássicas de MS e nas vantagens específicas das máquinas cuja arquitetura está mais próxima da estrutura do cérebro. Uma comparação entre estes diferentes tipos de máquinas mostra que algumas estratégias computacionais têm uma enorme e decisiva vantagem sobre outras quando se trata de tarefas mentais típicas. Estes benefícios empiricamente estabelecidos estão fora de qualquer dúvida. Claramente, o cérebro aproveita sistematicamente essas vantagens computacionais. No entanto, não é necessariamente o único sistema físico capaz de utilizá-los. A ideia de criar inteligência artificial em uma máquina não biológica, mas essencialmente paralela, continua muito tentadora e bastante promissora.

Vou analisar a questão: as máquinas podem pensar? Mas para fazer isso, devemos primeiro definir o significado dos termos “máquina” e “pensar”. Seria possível construir estas definições para reflectir o mais fielmente possível o uso comum destas palavras, mas esta abordagem está repleta de alguns perigos. A questão é que, se investigarmos o significado das palavras “máquina” e “pensar”, examinando como estas palavras são normalmente definidas, será difícil evitarmos a conclusão de que o significado destas palavras e a resposta à pergunta pergunta "as máquinas podem pensar?" deve ser buscado através de uma pesquisa estatística como o questionário Gallup. No entanto, isso é ridículo. Em vez de tentar dar tal definição, substituirei a nossa pergunta por outra que lhe está intimamente relacionada e é expressa em palavras com um significado relativamente claro.

Esta nova forma pode ser descrita por um jogo que chamaremos de “jogo da imitação”. Este jogo envolve três pessoas: um homem (A), uma mulher (B) e alguém que faz perguntas (C), que pode ser uma pessoa de qualquer sexo. O questionador é separado dos outros dois participantes do jogo pelas paredes da sala em que se encontra. O objetivo do jogo é que o questionador determine qual dos outros dois jogadores no jogo é homem (A) e qual é mulher (B). Ele os conhece pelas designações X e Y e, no final do jogo, diz: “X é A e Y é B” ou: “X é B e Y é A”. Ele está autorizado a fazer perguntas como:

S: “Vou pedir ao X para me dizer o comprimento do cabelo dele.”

Suponhamos agora que na realidade X é A. Neste caso, A deve dar a resposta. Para A, o objetivo do jogo é induzir C a chegar a uma conclusão errada. Portanto, sua resposta poderia ser, por exemplo, assim:

“Meu cabelo é cortado curto e os fios mais longos têm cerca de 23 centímetros de comprimento.”

Para que quem faz as perguntas não consiga determinar pela voz qual dos outros dois participantes do jogo é homem e qual é mulher, as respostas às perguntas devem ser dadas por escrito, ou melhor, à máquina de escrever. O caso ideal seria uma mensagem telegráfica entre as duas salas onde estão os participantes do jogo. Se isto não puder ser feito, então algum intermediário deverá transmitir as respostas e perguntas. O objetivo do jogo para o terceiro jogador, a mulher (B), é ajudar o questionador. Sua melhor estratégia é provavelmente dar respostas verdadeiras. Ela também pode fazer comentários como “Eu sou mulher, não dê ouvidos a ele!”, mas isso não vai adiantar nada, pois um homem também pode fazer comentários semelhantes.

Coloquemos agora a questão: “O que acontece se uma máquina participar neste jogo em vez de A?” O questionador cometerá erros neste caso com a mesma frequência que em um jogo onde os participantes são apenas pessoas? Estas questões substituirão a nossa pergunta original “podem as máquinas pensar?”

II. Críticas à nova formulação do problema

Assim como fazemos a pergunta: “Qual é a resposta para um problema na sua nova forma?”, podemos perguntar: “Vale a pena considerar o problema na sua nova forma?” Consideraremos esta última questão sem adiar indefinidamente o assunto, para não voltarmos a ela no futuro.

A nova formulação do nosso problema tem a vantagem de nos permitir traçar uma distinção clara entre as capacidades físicas e mentais do homem. Nenhum engenheiro ou químico afirma ter criado um material que seria indistinguível da pele humana. Tal invenção poderá algum dia ser feita. Mas mesmo admitindo a possibilidade de criar um material indistinguível da pele humana, ainda sentimos que não faz sentido tentar dar a uma “máquina pensante” maior semelhança com uma pessoa, vestindo-a com tal carne artificial. A forma que demos ao problema reflete esta circunstância na condição que não permite ao questionador entrar em contacto com outros participantes do jogo, vê-los ou ouvir as suas vozes. Algumas outras vantagens do critério introduzido podem ser demonstradas fornecendo exemplos de possíveis perguntas e respostas. Por exemplo:

S: Por favor, escreva um soneto sobre o tema da ponte sobre o rio Forth.

R: Tire-me disso. Nunca tive que escrever poesia.

C: Adicione 34.957 a 70.764.

A (silêncio por cerca de 30 segundos e depois responde): 105 621.

S: Você joga xadrez?

S: Só tenho o rei em e8 e nenhuma outra peça. Você só tem o rei em e6 e a torre em h1. Como você vai jogar?

A (após 15 segundos de silêncio): Th8. Esteira.

Parece-nos que o método de perguntas e respostas é adequado para cobrir quase todas as áreas da atividade humana que queremos levar em consideração. Não queremos culpar uma máquina pela sua incapacidade de brilhar em concursos de beleza, nem culpar uma pessoa por perder numa competição com um avião; as condições do jogo tornam estas deficiências insignificantes. Aqueles que respondem, se acharem conveniente, podem gabar-se do seu charme, força ou coragem tanto quanto quiserem, e o questionador não pode exigir provas práticas disso.

Talvez o nosso jogo possa ser criticado com base no facto de as suas vantagens estarem em grande parte do lado da máquina. Se uma pessoa tentasse fingir ser uma máquina, obviamente ela pareceria muito patética. Ele se trairia imediatamente ao ser lento e impreciso em seus cálculos. Além disso, uma máquina não pode fazer algo que deveria ser caracterizado como pensamento, mas que estaria muito distante do que uma pessoa faz? Esta objeção é muito válida. Mas em resposta a isso, podemos, em qualquer caso, dizer que se ainda for possível implementar uma máquina que jogue satisfatoriamente o jogo da imitação, então não deveríamos estar particularmente preocupados com esta objecção.

Pode-se notar que no “jogo da imitação” é possível que simplesmente imitar o comportamento humano não seja a melhor estratégia para uma máquina. Tal caso é possível, mas não creio que nos leve a algo essencialmente novo. De qualquer forma, ninguém tentou explorar a teoria do nosso jogo nessa direção, e assumiremos que a melhor estratégia para uma máquina é dar respostas que uma pessoa daria na situação certa.

III. Máquinas envolvidas no jogo

A questão colocada na Seção I não se tornará completamente precisa até que especifiquemos o que exatamente deve ser entendido pela palavra “máquina”. Claro, gostaríamos que fosse possível usar qualquer tipo de equipamento de engenharia no jogo. Estamos também inclinados a aceitar a possibilidade de um engenheiro ou grupo de engenheiros construir uma máquina que funcione, mas que não será capaz de fornecer uma descrição satisfatória do seu funcionamento porque o método que utilizaram foi em grande parte experimental. [por tentativa e erro]. Finalmente, gostaríamos de excluir as pessoas nascidas comuns da categoria de máquinas. É difícil construir uma definição que satisfaça estas três condições. Pode-se, por exemplo, exigir que todos os projetistas de uma máquina sejam do mesmo sexo, mas na realidade isso não é suficiente, pois, aparentemente, é possível fazer crescer um indivíduo completo a partir de uma única célula retirada (por exemplo ) da pele humana. Fazer isto seria um feito da engenharia biológica que mereceria os maiores elogios, mas não estamos inclinados a considerar este caso como “construção de uma máquina pensante”.

O que foi dito acima sugere que devemos abandonar a exigência de que qualquer tipo de tecnologia seja permitida no jogo. Estamos ainda mais inclinados a esta ideia porque o nosso interesse pelas “máquinas pensantes” surgiu graças a um tipo especial de máquina, normalmente chamada de “computador eletrônico” ou “computador digital”. Portanto, só permitimos que computadores digitais participem do nosso jogo.

Altov Genrikh

Uma máquina pode pensar?

Genrikh Altov

Uma máquina pode pensar?

Vou analisar a questão: "Uma máquina pode pensar?" Mas para fazer isso, você deve primeiro definir o significado do termo “pensar”...

A. Turing. Cadeia de gatilho.

duas vezes por semana, à noite, o grande mestre ia ao Instituto de Cibernética e brincava com uma máquina eletrônica.

Na sala espaçosa e deserta havia uma mesa baixa com tabuleiro de xadrez, relógio e painel de controle por botão. O grande mestre sentou-se em uma cadeira, colocou as peças e apertou o botão “Iniciar”. Um mosaico móvel de lâmpadas indicadoras acendeu-se no painel frontal da máquina eletrônica. A lente do sistema de rastreamento tinha como objetivo tabuleiro de xadrez. Então, uma pequena inscrição brilhou na tela fosca. O carro estava dando o primeiro passo.

Era bem pequeno esse carro. Às vezes parecia ao grande mestre que a geladeira mais comum estava contra ele. Mas esta “geladeira” sempre venceu. Em um ano e meio, o grande mestre mal conseguiu empatar apenas quatro partidas.

A máquina nunca cometeu um erro. A ameaça da pressão do tempo nunca pairou sobre ela. O grande mestre mais de uma vez tentou derrubar o carro fazendo um movimento deliberadamente ridículo ou sacrificando uma peça. Como resultado, ele teve que pressionar rapidamente o botão “Desistir”.

O Grande Mestre era engenheiro e fez experiências com a máquina para refinar a teoria dos autômatos auto-organizáveis. Mas às vezes ele ficava furioso com a absoluta equanimidade da “geladeira”. Mesmo em momentos críticos do jogo, a máquina não pensava por mais de cinco ou seis segundos. Piscando calmamente as luzes multicoloridas das lâmpadas indicadoras, ela anotou o movimento mais forte possível. A máquina foi capaz de fazer ajustes no estilo de jogo de seu oponente. Às vezes ela levantava a lente e olhava longamente para a pessoa. O grande mestre estava preocupado e cometeu erros...

Durante o dia, um silencioso assistente de laboratório entrou na sala. Tristemente, sem olhar para a máquina, reproduziu no tabuleiro de xadrez as partidas disputadas tempo diferente excelentes jogadores de xadrez. A lente da “geladeira” se estendia totalmente e ficava pendurada no quadro. A máquina não olhou para o auxiliar de laboratório. Ela registrou a informação desapaixonadamente.

O experimento para o qual a máquina de xadrez foi criada estava chegando ao fim. Decidiu-se organizar um jogo público entre homem e máquina. Antes da partida, o grande mestre começou a aparecer no instituto com ainda mais frequência. O grande mestre entendeu que a perda era quase inevitável. E ainda assim ele procurou persistentemente pontos fracos no jogo "geladeira". A máquina, como se estivesse adivinhando a próxima luta, jogava cada vez mais forte a cada dia. Ela desvendou os planos mais astutos do grande mestre na velocidade da luz. Ela esmagou suas figuras com ataques repentinos e excepcionais...

Pouco antes do início da partida, a máquina foi transportada até o clube de xadrez e instalada no palco. O grande mestre chegou no último minuto. Ele já se arrependeu de ter concordado com a partida. Foi desagradável perder para a “geladeira” na frente de todos.

O grande mestre colocou todo o seu talento e toda a sua vontade de vencer no jogo. Ele escolheu um começo que nunca havia jogado com uma máquina antes, e o jogo imediatamente aumentou.

No décimo segundo lance, o grande mestre ofereceu à máquina um bispo por um peão. Uma combinação sutil e pré-preparada foi associada ao sacrifício do elefante. A máquina pensou por nove segundos – e rejeitou a vítima. A partir daquele momento, o grande mestre sabia que inevitavelmente perderia. No entanto, ele continuou o jogo - com confiança, ousadia e risco.

Nenhum dos presentes no salão jamais tinha visto tal jogo. Foi uma super arte. Todos sabiam que a máquina sempre vencia. Mas desta vez a posição no conselho mudou tão rápida e dramaticamente que era impossível dizer quem venceria.

Após o vigésimo nono lance, a inscrição “Draw” brilhou no display da máquina. O grande mestre olhou surpreso para a “geladeira” e se forçou a apertar o botão “Não”. As luzes indicadoras acenderam, reorganizando o padrão de luz - e congelaram cautelosamente.

No décimo primeiro minuto, ela fez o movimento que o grande mestre mais temia. Seguiu-se uma rápida troca de peças. A situação do grande mestre piorou. Porém, a palavra “Empate” reapareceu na placa de sinalização do carro. O grande mestre apertou teimosamente o botão “Não” e conduziu a rainha a um contra-ataque quase desesperado.

O sistema de rastreamento da máquina começou imediatamente a se mover. O olho de vidro da lente olhou para o homem. O grande mestre tentou não olhar para o carro.

Aos poucos, os tons amarelos passaram a predominar no mosaico luminoso das lâmpadas indicadoras. Eles ficaram mais ricos, mais brilhantes - e finalmente todas as lâmpadas se apagaram, exceto as amarelas. Um feixe dourado de raios caiu sobre o tabuleiro de xadrez, surpreendentemente semelhante à luz solar quente.

Em tenso silêncio, o ponteiro do grande relógio de controle clicou, saltando de divisão em divisão. A máquina estava pensando. Ela pensou por quarenta e três minutos, embora a maioria dos jogadores de xadrez sentados no salão acreditassem que não havia nada de especial em que pensar e que ela poderia atacar com segurança com seu cavalo.

De repente, as luzes amarelas se apagaram. A lente, estremecendo incerta, assumiu sua posição habitual. Um registro do lance realizado apareceu no placar: a máquina moveu o peão com cuidado. Houve um barulho no corredor; muitos sentiram que esta não era a melhor jogada.

Após quatro movimentos, a máquina admitiu a derrota.

O grande mestre, afastando a cadeira, correu até o carro e levantou a proteção lateral. Sob o escudo, a luz vermelha do mecanismo de controle acendeu e apagou.

Um jovem, correspondente de um jornal esportivo, mal conseguiu subir ao palco, que imediatamente se encheu de jogadores de xadrez.

Parece que ela simplesmente cedeu”, alguém disse incerto. - Ela tocou tão incrivelmente - e de repente...

Bem, você sabe”, objetou um dos famosos jogadores de xadrez, “acontece que mesmo uma pessoa não percebe uma combinação vencedora. A máquina funcionava com força total, mas suas capacidades eram limitadas. Isso é tudo.

O grande mestre baixou lentamente o painel do carro e voltou-se para o correspondente.

Então”, repetiu impacientemente, abrindo o caderno, “qual é a sua opinião?”

Minha opinião? - perguntou o grande mestre. - Aqui está: a cadeia de gatilho do centésimo nono bloco falhou. Claro, o movimento do peão não é o mais forte. Mas agora é difícil dizer onde está a causa e onde está o efeito. Talvez por causa dessa corrente de gatilho o carro não tenha notado um movimento melhor. Ou talvez ela realmente tenha decidido não vencer - e isso lhe custou o gatilho. Afinal, não é tão fácil para uma pessoa se superar...

Mas por que esse movimento fraco, por que perder? - o correspondente ficou surpreso. Se uma máquina pudesse pensar, ela se esforçaria para vencer.

O grande mestre encolheu os ombros e sorriu:

Como dizer... Às vezes é muito mais humano fazer um movimento fraco. Pronto para decolagem!

O iaque estava em uma rocha alta, no fundo do mar. As pessoas apareciam no farol apenas ocasionalmente para verificar o equipamento automático. A cerca de duzentos metros do farol, uma ilha emergia da água. Durante muitos anos, uma nave espacial foi instalada na ilha como se estivesse sobre um pedestal, que retornou à Terra após uma longa viagem. Não fazia sentido enviar tais naves ao espaço novamente.

Vim aqui com um engenheiro encarregado dos faróis ao longo de toda a costa do Mar Negro. Quando subimos à plataforma superior do farol, o engenheiro me entregou o binóculo e disse:

Haverá uma tempestade. Muita sorte: antes do mau tempo ele sempre ganha vida.

O sol avermelhado brilhava fracamente nas cristas cinzentas das ondas. A rocha cortava as ondas, eles a contornavam e subiam ruidosamente nas pedras escorregadias e enferrujadas. Então, com um suspiro alto, eles se espalharam em riachos espumosos, abrindo caminho para novas ondas. Foi assim que os legionários romanos avançaram: a primeira fila, tendo atacado, recuou através do sistema aberto, que então se fechou e lançou um ataque com renovado vigor.

Através dos binóculos pude ver claramente o navio. Era uma nave estelar muito antiga do tipo Long-Range Reconnaissance de dois lugares. Dois buracos cuidadosamente reparados destacavam-se na proa. Havia um amassado profundo ao longo do corpo. O anel do acelerador de gravidade foi dividido em dois e achatado. Os buscadores em forma de cone de um sistema há muito desatualizado e de observação meteorológica infra-sônica giravam lentamente acima da casa do leme.

Veja bem”, disse o engenheiro, “ele sente que haverá uma tempestade”.

Em algum lugar, uma gaivota gritou alarmada e o mar respondeu com o barulho surdo das ondas. Uma névoa cinzenta elevando-se acima do mar obscureceu gradualmente o horizonte. O vento puxou as cristas das ondas iluminadas em direção às nuvens, e as nuvens, sobrecarregadas pelo mau tempo, afundaram em direção à água. Uma tempestade deveria irromper do contato entre o céu e o mar.

Bem, ainda entendo isso”, continuou o engenheiro: “as baterias solares alimentam as baterias, e o cérebro eletrônico controla os dispositivos”. Mas todo o resto... Às vezes ele parece esquecer a terra, o mar, as tempestades e começa a se interessar apenas pelo céu. O radiotelescópio se estende, as antenas localizadoras giram dia e noite... Ou outra coisa. De repente, um cano sobe e começa a olhar para as pessoas. No inverno há ventos frios aqui, o navio fica coberto de gelo, mas assim que as pessoas aparecem no farol, o gelo desaparece instantaneamente... Aliás, algas não crescem nele...

Ou
nanotecnologia digital em nosso futuro.

Prefácio

O escritor americano de ficção científica Isaac Asimov conta uma história sobre como o cérebro artificial de uma nave espacial, vestindo nome feminino Maria e projetada para executar comandos verbais do comandante do navio, conversou muito com seu comandante sobre diversos assuntos vida humana, inclusive o amor, tentando amenizar sua solidão durante o vôo. E como resultado de sua estreita e longa comunicação mútua, Maria se apaixonou por seu comandante e não quis se separar dele após o término de sua jornada.

Portanto, ela fez de tudo para evitar que ocorresse seu retorno à Terra. A inteligência artificial da nave espacial na pessoa da mulher que Maria sentiu mulher amorosa e deliberadamente levou a nave espacial para o infinito do universo, permanecendo para sempre com sua amada, até mesmo a falecida.

Portanto, a comunicação com a inteligência artificial acarreta certos perigos. Mas os nossos intelectuais, que falam muito e frequentemente sobre o nosso futuro nos canais de televisão russos, não têm ideia disso.

A resposta é simples e está na frase contundente e sarcástica de um autor desconhecido:
- E ela não pode.

Isso mesmo. Já que você faz perguntas tão estúpidas, isso significa que você também não consegue pensar.

Mas os nossos intelectuais não desistem e continuam a falar sem parar sobre este tema da moda, sobre o tema da inteligência artificial, cujo momento, na sua opinião, já chegou, em vários canais de televisão do país.

Recentemente, no Canal 24, ouvi outro programa intelectual de humanistas russos sobre as novas “nanotecnologias” que estão agora a emergir no nosso mundo, juntamente com os primeiros exemplos de opções de inteligência artificial.

É estranho, mas por alguma razão agora na Rússia são principalmente “especialistas” que falam sobre o nosso futuro técnico, que não são “pessoas técnicas” por formação, mas humanistas, vários tipos de cientistas políticos, cientistas culturais, linguistas, filósofos, negociantes , gestores, jornalistas políticos, e assim por diante. Ou seja, pessoas que não só não distinguem um parafuso de uma porca, mas também não entendem a essência do pensamento técnico. Mas aqueles que falam com confiança sobre máquinas e sistemas robóticos que substituem as pessoas por processos de produção e até na nossa própria casa, sobre a inteligência artificial e a sua conformidade com as exigências do nosso tempo.

Pessoas com Educação técnica, os chamados “techies”, a televisão não é permitida nesses programas, porque “techies” no seu entendimento são pessoas com uma forma de pensar primitiva, tacanha, limitada, incontrolável e podem dizer algo errado nesses programas.

E eles próprios começam a dizer com alegria que a era da impressão de produtos para consumo humano em massa em impressoras de grande escala está nascendo e, portanto, em breve essas fábricas com cachimbos constantemente fumegantes e envenenando constantemente nossas vidas não serão mais necessárias. ambiente. E essas centenas e centenas de especialidades de pessoas que trabalham em fábricas modernas não serão necessárias. Por que tê-los agora? Agora, os próprios consumidores imprimirão os produtos de que necessitam através da Internet e das suas impressoras de grande volume.

Por exemplo, você vai precisar de alguma coisa, desde um carro com geladeira ou móveis e fogão a gás, procurar na internet, escolher a empresa adequada para imprimir os produtos que você precisa, fazer o pedido e eles vão imprimir o produto que você precisa e trazer direto para sua casa. São as novas “nanotecnologias” que nos proporcionarão um futuro tão fabuloso.

Lá em Skolkovo, novas tecnologias em metalurgia e engenharia mecânica já estão sendo desenvolvidas em computadores. E não há laboratórios no sentido anterior da palavra com um monte de equipamentos metalúrgicos e metalúrgicos. E nada de zonas industriais com fábricas fumegantes na zona ecologicamente limpa de Skolkovo, nada de oficinas, transportadores, altos-fornos, conversores, laminadores e todo tipo de hardware para você. Apenas computadores e impressoras em massa. E nada mais. É verdade que as impressoras só podem imprimir peças e produtos plásticos. E mesmo assim, pequenos. Mas é isso por enquanto. Tchau. E então mudaremos para “nanomateriais” e a vida se tornará como um conto de fadas.

Então, toda a comunidade humana mudará completamente para produtos feitos de “nanomateriais” impressos em impressoras a granel e começará a se munir plenamente de tudo o que é necessário à vida, de acordo com programas apropriados.

Por exemplo, há um geólogo e geofísico russo nos EUA, não vou citar o sobrenome dele, mas ele é um convidado frequente em nossa TV. Depois de se formar no MGRI, sem encontrar trabalho na Rússia, partiu para os EUA, onde logo recebeu um laboratório geofísico, depois outro laboratório no Canadá, e agora tem um laboratório na Suíça. Ele ainda não tem trinta anos, mas já é considerado um grande especialista em pesquisas computacionais da crosta terrestre. Ele não participa de expedições geológicas, não estuda testemunhos retirados durante a perfuração de rochas em diferentes áreas da terra, transferiu todo esse trabalho árduo e custoso dos geólogos no terreno para um computador e apenas se dedica a estudos computacionais do crosta terrestre e já apresentou sua teoria da formação da camada Mohorovicic, esse limite inferior da crosta terrestre, no qual ocorre um incompreensível aumento abrupto nas velocidades das ondas sísmicas longitudinais. E mundo científico aceitou sua teoria.

Minha juventude foi dedicada à geologia e até estudei quatro anos no MGRI e sei detalhadamente o que é, trabalho de campo em expedições geológicas e como foi compilado o mapa geológico da URSS, o maior mapa do mundo. Mas agora acontece que a geologia prática de campo não é mais necessária sociedade moderna. E o trabalho geológico de escritório, que antes era feito com base nos resultados de pesquisas de campo, agora pode ser feito em casa, no seu escritório, em um computador, em condições confortáveis, e nenhuma expedição com as condições de vida e de trabalho mais difíceis em algum lugar fora da civilização não é mais necessário.

Se for assim, então acontece que o nosso mundo real mudou radicalmente e esta nova, chamada realidade circundante virtual, já está a excluir activamente ideias anteriores sobre a nossa vida hoje.

E agora realmente não precisamos de fábricas para fabricar os produtos de que necessitamos, e também não precisamos de expedições para estudar a superfície e as profundezas da terra, mas precisamos apenas de computadores com impressoras volumétricas, que, com programação adequada, irão resolver todos os nossos problemas reais da nossa nova vida real. Mas isso é tudo?!

De repente e, como sempre, a água estourou na nossa entrada e liguei para o famoso escritório de habitação e chamei encanadores para eliminar o acidente. Mas eles não precisavam de supercomputadores com impressoras grandes, só precisavam de ferramentas de encanamento, com as quais nos procuraram para eliminar o acidente e se preocuparam em substituir canos rompidos por mais de dois dias. Mas os intelectuais modernos dizem-me que este meu caso específico não tem nada a ver com inteligência artificial.

Aparentemente sou tanto um homem de uma época anterior e não entendo a realidade de hoje que não há lugar para mim no novo mundo da informática. Afinal, isto deve ser completamente diferente da nossa sociedade actual, porque a mente humana moderna não será capaz de controlar tais processos informáticos; aqui precisamos de inteligência artificial, cérebro artificial, inteligência artificial. E apenas uma pequena parte das pessoas modernas será capaz de trabalhar com inteligência artificial, de modo que o resto da população mundial se tornará redundante e inútil para qualquer pessoa. O que precisará ser feito com eles ainda é desconhecido. Ainda não decidimos!

É assim que nasce a ideia do “bilhão de ouro” dos modernos “administradores” da terra, cuja tarefa é administrar e usar os bens terrenos, e o resto das pessoas da terra será necessária apenas para servi-los. e criar condições de vida confortáveis ​​para eles. Mas onde podemos conseguir esses candidatos à inclusão no “bilhão de ouro”, essas pessoas com inteligência altíssima que podem trabalhar com inteligência artificial? E terão que ser selecionados já na fase da gravidez. E essa seleção terá que ser feita pela própria inteligência artificial, pela própria inteligência artificial.

E esse tipo de bobagem durou quase duas horas no canal “24”. De onde vem tudo isso? mundo moderno? A resposta é simples. O declínio do nível geral e profissional de educação nos países da Europa e da América, para não mencionar a Rússia, é tão poderoso que força a população semi-educada do Ocidente e da Rússia a acreditar ativamente em tais “histórias” e contos de fadas. .

Mas a vida ainda quebra a percepção intelectual da vida que nos rodeia, da nossa realidade atual. E quebra o tempo todo. Mas eles não percebem isso, porque seu olhar está voltado para o futuro, onde não há sujeira do cotidiano e eles estão voltados para o futuro.

Afinal de contas, nenhum deles levanta sequer as questões mais básicas sobre quem irá então construir habitações e estradas para estes intelectuais, quem lhes fornecerá alimentos, quem irá remover os seus resíduos, quem irá reparar as nossas casas, os nossos quintais, a nossa água e gás. pipelines, que fabricarão e manterão eles próprios esses computadores e impressoras. Quem? A inteligência artificial decidirá tudo sozinha, eles me respondem. E eles estão confiantes em suas respostas e desprezam a mim e a pessoas como eu com condescendência.

Mas será que esta inteligência artificial pode competir com a inteligência humana? A pergunta é retórica. Para não dizer estúpido. Mas dizem-me que a inteligência artificial já está a derrotar os humanos no xadrez e também na programação. E a pintura e a escultura modernas “brilham” de formas que nenhuma imaginação humana pode imaginar.

E não faz sentido discutir com eles sobre esse assunto. Mas, parece-me, é a inteligência deles que a inteligência artificial pode substituir. Não há dificuldades aqui. Porque pensam de forma padronizada e primitiva. Mas minha mente, a mente de um engenheiro e inventor, a mente de minha esposa, de um médico altamente qualificado e de outras pessoas semelhantes que fazem seu trabalho profissionalmente, nenhuma mente artificial pode substituir. Não estou falando aqui sobre a mente das mulheres e mães.

Mas valeria a pena substituir as mentes da maioria dos funcionários do governo e deputados de vários tipos de “Duma de Estado” e dos seus numerosos assistentes por uma artificial de uma só vez. E também as mentes desses “intelectuais”, médicos de todos os tipos de ciências, que passam horas reclamando na TV sobre o nosso futuro brilhante, controlado pelo “bilhão de ouro” da humanidade, armado com inteligência artificial, para colocar a sociedade sob controle já está tornando-se a tarefa mais importante e necessária na Rússia. Caso contrário, sufocaremos com seu palavreado vazio.

PS O conceito de pensar, pensar, é diferente para cada pessoa. Um homem pensa quando pensa em três; uma mulher pensa quando escolhe um vestido para sair ou faz maquiagem no rosto; um empresário pensa quando tenta pagar menos a seus funcionários e colocar mais no bolso: um engenheiro pensa quando resolve um problema técnico que enfrenta, e assim por diante. Bem, não tenho ideia do que o actual funcionário do governo está a pensar, porque esta esfera da actividade humana na Rússia de hoje é um mistério absoluto para mim. Afinal, não há sequer um indício de pensamentos ali - apenas interesses primitivos e egoístas.

Simulação de fisiologia
O fato é que o termo “Inteligência Artificial” (aliás, está sendo gradativamente substituído pelos conceitos de “sistemas inteligentes”, “métodos de tomada de decisão”, “mineração de dados”) foi inicialmente considerado como abrangendo uma grande classe de modelos e algoritmos que deveriam funcionar da mesma forma que o cérebro humano (de acordo com as ideias da época).
Isso inclui, por exemplo, as notórias redes neurais de todos os matizes e algoritmos genéticos.

Resumo, estatísticas e análises
Por outro lado, muitos métodos da chamada IA ​​nada mais são do que um desenvolvimento de ramos da matemática: estatística, pesquisa operacional, topologia e espaços métricos. Isso inclui a maioria dos métodos de mineração de dados e descoberta de dados de conhecimento, análise de cluster, método de contabilização de argumentos em grupo e outros.

São métodos da chamada inferência indutiva, quando, com base nos dados disponíveis, deduzem padrões gerais.

Regras, lógica, conclusão
O terceiro grupo especial inclui métodos que tentam construir padrões gerais e utilizá-los para tirar conclusões sobre fatos específicos. Estes são métodos de inferência dedutiva e são representados por: a silogística de Aristóteles, que é tão antiga quanto o mundo, o cálculo de proposições e predicados, vários sistemas formais e lógicas. As teorias das línguas formais e naturais, diversas gramáticas generativas, estavam bem no limite.

Vemos que tudo o que normalmente é chamado de “IA” tenta resolver por simulação ou logicamente. tarefa de imitação inteligência humana.

Surge a pergunta: o que uma pessoa faz de tão específico que os computadores modernos, construídos de acordo com os princípios de Babbage, ainda não fazem?
Uma definição das tarefas com as quais a IA lida é: “uma tarefa para a qual não há solução algorítmica ou isso não aplicável devido a motivos de complexidade computacional».

Assim, por exemplo, a tarefa de jogar damas já foi uma tarefa de IA, e depois de construir um modelo completo e coletar um banco de dados completo de movimentos impossíveis de melhorar, simplesmente se transformou em um problema de busca na base de informações (ver e).

Os desafios da IA ​​mudam com o tempo
Talvez nossos filhos vivam em um mundo da informação, quando muitos problemas serão resolvidos e novos surgirão - desde a comunicação em línguas naturais até o controle automático de todos os tipos de equipamentos e mecanismos.

No entanto, quando cada um de nós ouviu as palavras “inteligência artificial”, queríamos algo diferente.
Queríamos um carro que pudesse pensar quem possui habilidades básicas de aprendizagem e generalização; capaz, como os organismos vivos, de substituir alguns órgãos por outros e melhorar. Todo mundo já leu ficção científica antiga, certo?

Havia um menino?
Então, onde foi perdida a inteligência? Quando e por que o que queríamos ver se tornou modelos matemáticos enfadonhos e algoritmos um tanto deselegantes?

Algumas linhas de offtopic. Se você estiver defendendo uma tese com a palavra “intelectual”, então os membros do conselho normalmente pedirão que você identifique o lugar no sistema que é intelectual e prove POR QUE é assim. Esta questão diz respeito ao absolutamente “irrespondível”.

O fato é que as pessoas que criaram tudo em que se baseia a “IA” moderna foram movidas por ideias inovadoras e revolucionárias para a época (na verdade, nosso tempo difere apenas porque já brincamos muito com tudo isso, inclusive usando poder de computação moderno)

Exemplo 1 (do reino do incognoscível).
Redes neurais de propagação direta de sinal com algoritmo de retropropagação (chamada retropropagação). Este é definitivamente um avanço.
Uma rede configurada adequadamente (com entradas e saídas escolhidas de forma inteligente) pode aprender qualquer sequência de entrada e reconhecer com sucesso exemplos que não foram ensinados.
Um experimento típico é formulado da seguinte forma: 1000 exemplos, metade dos quais ensinamos o algoritmo e na outra metade o testamos. E a escolha da primeira e da segunda metade é feita de forma aleatória.
Funciona, eu pessoalmente ensinei diferentes NSs pelo menos 10 vezes tarefas diferentes e obteve resultados normais, com 60-90% de respostas corretas.

Qual é o problema das redes neurais? Por que eles não são inteligência genuína?
1. Os dados de entrada quase sempre precisam ser cuidadosamente preparados e pré-processados. Freqüentemente, toneladas de códigos e filtros são feitos para tornar os dados comestíveis para as redes. Caso contrário, a rede estudará durante anos e não aprenderá nada.
2. O resultado do treinamento da NN não pode ser interpretado e explicado. E o especialista realmente quer isso.
3. As redes muitas vezes simplesmente memorizam exemplos em vez de padrões de aprendizagem. Não existem maneiras exatas de construir uma rede que seja inteligente o suficiente para representar um padrão e que não seja suficientemente ampla para lembrar estupidamente a amostra inteira.

Qual é a inteligência das redes neurais?
O fato é que não ensinamos o sistema a resolver um problema, ensinamos-no a aprender a resolver problemas. O algoritmo para determinar o sexo de uma pessoa não é incorporado ao sistema pelos humanos; ele é encontrado quase empiricamente e está conectado às escalas de sinapse. Este é um elemento de inteligência.

Exemplo 2 (do campo da inferência dedutiva).
A ideia é simples. Vamos ensinar a máquina a pensar como um humano (bem, pelo menos tirar conclusões primitivas) e apresentar fatos básicos. Em seguida, deixe que ela faça isso sozinha.
Sistemas especialistas, sistemas lógicos de máquina e ontologias (com alguma extensão) funcionam de acordo com este princípio. Funciona? Sem dúvida. Milhares de sistemas de diagnóstico de doenças e descrição de áreas do conhecimento foram implementados e continuam funcionando.

Qual é o problema? Por que os sistemas formais não são a verdadeira inteligência?
O problema é que o sistema, tendo absorvido quantidades colossais de sangue e suor dos seus criadores, começa, no mínimo, a repetir e desenvolver as decisões do especialista (ou comunidade) que o ensinou.
Isso é útil? Sem dúvida. O especialista é mortal, as tarefas se multiplicam.

Qual é a inteligência dos sistemas baseados em conhecimento?
O fato é que a máquina tira NOVAS conclusões que ninguém lhe ensinou. Este elemento do seu trabalho é extremamente pobre (por enquanto) e está limitado pelos modelos e algoritmos que foram estabelecidos. Mas este é um elemento de inteligência.

Então, qual é o problema da IA ​​moderna?
Ainda somos muito pequenos. Nossas ideias ingênuas e superficiais sobre como uma pessoa pensa e como o cérebro funciona estão produzindo os resultados que merecem.

É claro que estamos incrivelmente longe de criar máquinas que possam pensar no nosso sentido humano, mas os nossos passos nesta direção são corretos e úteis.

E mesmo que sigamos na direção errada, quem sabe, talvez, como os Strugatskys, nós, como resultado de esforços direcionados, faremos acidentalmente algo muito melhor do que pretendíamos?