Os primeiros 60 anos de feitos da Inteligência Artificial – Revisitando as previsões de Herbert Simon

O Nobel de economia previu, acertadamente, que as máquinas venceriam um campeão de xadrez, comporiam música original e provariam teoremas matemáticos significativos.

por Bernardo Gonçalves

Não é minha intenção surpreender ou chocar vocês, mas o jeito mais simples que eu posso resumir isto é dizer que, agora, existem no mundo máquinas que pensam, que aprendem e que criam. Ademais, a habilidade delas de fazer essas coisas vai aumentar rápido, até que — num futuro visível — a variedade de problemas de que podem dar conta será coextensiva com a variedade para a qual a mente humana tem sido aplicada. (Herbert Simon, 1957)

Herbert Simon recebeu o prêmio Nobel em economia de 1978 por contribuições à teoria da decisão. Foi também agraciado com o prêmio Turing de 1975 (considerado o prêmio Nobel da ciência da computação) e de fato foi um dos pioneiros da disciplina tecnocientífica chamada “inteligência artificial” (I.A.). Junto com Allan Newell, Marvin Minsky, e John McCarthy (quem cunhou o nome I.A.), Simon integrou “o seminário Dartmouth de 1956”, evento que ficaria conhecido entre os pesquisadores de I.A. como marco de fundação da área, discernindo-a da cibernética (grosso modo, a ciência do controle e da automação).

Perto de completar, em 2018, seus 62 anos de existência, a I.A. prosperou enquanto matriz disciplinar, com fortes aspectos tanto de ciência quanto de engenharia. Conforme definida por Stuart Russell e Peter Norvig, no manual Inteligência Artificial, a disciplina da inteligência artificial é “o estudo de agentes [artificiais] que recebem sinais perceptivos de seu ambiente e realizam ações”. Já em 1957, ainda sem que tivesse completado um ano de existência enquanto disciplina dotada de uma comunidade própria, o clima e a expectativa dos pioneiros dessa nova área de estudo se expressavam pela afirmação de Herbert Simon com a qual este texto se inicia. Mas além daquela previsão geral, Simon fez também um trio de previsões igualmente fortes, porém mais específicas, as quais revisitaremos a seguir, a saber, de que em dez anos (isto é, estaria previsto para até 1966) programas de computador:

1. venceriam um campeão mundial de xadrez;

2. comporiam música original, “esteticamente agradável”;

3. provariam novos teoremas matemáticos significativos.

Para uma pronta antecipação do que será descrito adiante, as três previsões acabaram efetivamente se tornando, do ponto de vista histórico, alguns dos feitos mais significativos da I.A. — vale ressaltar que, quando previstas então em 1956, elas eram naturalmente passíveis de serem vistas com ceticismo. Em que pese terem levado, não dez, mas quarenta anos, as três previsões se realizaram — circunstancialmente, todas as três entre o fim de 1996 e meados de 1997. Isso pode sugerir que a questão da previsibilidade de uma tecnologia por parte de especialistas e pioneiros da área, no caso da I.A., estaria colocada não em termos de o que seria possível, mas sim de quando seria possível. Além de revisitar os feitos relacionados a estas previsões, exploraremos um quarto feito que iria ao encontro da previsão generalista de Simon (a epígrafe já citada), para encerrar então com uma breve reflexão acerca da previsibilidade do estado da arte futuro da I.A.

Seguindo a sequência das previsões específicas enunciadas por Simon, eis a notícia da realização da primeira previsão, veiculada pelo jornal americano The New York Times,[1] da vitória do computador Deep Blue da IBM® sobre o então campeão mundial de xadrez, o russo Garry Kasparov, num confronto disputado em seis partidas ao longo de múltiplos dias, sendo encerrado em 11 de maio de 1997.[2] O maior recurso do computador derivava-se principalmente do seu poder de força bruta computacional, que era capaz de avaliar 200 milhões de posições por segundo, duas vezes mais rápido que a sua primeira versão, de 1996. Sua função de avaliação tinha como parâmetros aspectos como, por exemplo, a importância que se atribui a manter uma posição segura para o rei, comparado, digamos, com manter um espaço vantajoso no centro do tabuleiro. Os valores desejados para tais parâmetros foram determinados com base na análise de registros de milhares de jogos, indicados por grandes mestres do jogo como Miguel Illescas, John Fedorowicz, e Nick de Firmian. Após a derrota, Kasparov disse que notou, algumas vezes, inteligência profunda e criatividade nos movimentos da máquina, sugerindo que jogadores humanos de xadrez poderiam ter intervido em benefício da máquina, o que seria uma violação das regras. A IBM explicou que intervenções humanas ocorriam apenas entre os jogos (e nunca durante um jogo), em acordo com as regras, para permitir o computador aprender a cada jogo, tal como ocorre com jogadores humanos. Posteriormente a IBM disponibilizou registros (arquivos de log) do raciocínio e movimentos da máquina.[3] Mais detalhes da conquista da máquina são contados por F.-H. Hsu, um dos técnicos que movia as peças de xadrez conforme determinado pelo computador, em seu livro Behind Deep Blue: Building the Computer that Defeated the World Chess Champion, publicado em 2002 pela Princeton University Press.

No mesmo ano e jornal,[4] temos a notícia da segunda façanha eletrônica. Trata-se das músicas produzidas por computador “no estilo de Johann Sebastian Bach”. Era uma competição em outubro de 1997, em que havia três composições sendo tocadas ao piano por Winifred Kerner — esposa do professor de teoria musical da Universidade de Oregon, Steve Larson, que por sua vez competia com o computador. Uma das composições era do próprio Larson, uma outra do computador, e finalmente outra, original de Bach. Para cada composição interpretada pela pianista, a plateia deveria adivinhar o compositor. Resultado: a plateia tomou a de Larson pela do computador, e a do computador pela de Bach. Não se pôde distinguir a música artificial da música de Bach, genuína. Proeza da máquina, que realizava, assim, a segunda previsão de Simon.

Por fim, já no fim de 1996 o jornal nova-iorquino havia noticiado o cumprimento da terceira previsão.[5] No dia 10 de outubro de 1996, um programa de computador chamado EQP, escrito por pesquisadores do Laboratório Nacional de Argonne em Illinois, produziu prova de um teorema matemático significativo, “a conjectura de Robbins”. O enunciado era relevante, a saber, a proposição de um conjunto de axiomas que seria equivalente à álgebra booleana; e há consenso de que a prova seria considerada criativa se tivesse sido produzida por um humano. Era um típico problema de pesquisa da matemática “pura”. Ele tem apenas aplicações teóricas conhecidas até então, e vinha desafiando matemáticos de prestígio há mais de 60 anos — por exemplo, o próprio Dr. Herbert Robbins (Universidade de Rutgers), que propôs o problema em 1930, trabalhou nele por algum tempo, e o repassou para o proeminente logicista Dr. Alfred Tarski (Universidade da California), que por sua vez trabalhou no problema, o incluiu num livro, e o repassou a alunos de doutorado e visitantes; Dr. Stanley Burris (Universidade de Waterloo), que esteve em visita a Tarski em 1970 e foi apresentado ao problema, diz que o caso mostra “haver uma linha muito tênue entre o raciocínio mecânico e o criativo”. Dr. Robert Boyer (Universidade do Texas) afirma por sua vez que o caso mostra “claramente uma forma de pensamento da máquina”, mas adiciona que não quer atribuí-lo mais significado do que o devido: “é melhor pensarmos no computador apenas como um outro colega, que às vezes ajuda, mas frequentemente não ajuda”. Os matemáticos mostraram-se relutantes em renomear o teorema — que até o advento da prova artificial chamava-se “a conjectura de Robbins” — para “o teorema de EQP”.

Embora não prevista explicitamente por Simon, eis ainda uma quarta proeza das máquinas, realizada em 2011, pela plataforma de I.A., IBM Watson®. Ela venceu seres humanos especialistas (campeões de edições anteriores) na competição Jeopardy!, de perguntas e respostas sobre variedades, de um programa americano de televisão.[6] A plataforma foi projetada por um time de pesquisadores da IBM para ser uma máquina de responder perguntas feitas em linguagem natural e na forma textual. Para obter informação, ela coleta informação estruturada (em bases de dados e conhecimento) e não estruturada (em documentos de texto) de fontes vastas e diversas, sobretudo a Web (a Internet). Para então responder as perguntas sobre variedades, ela localiza, conecta e sintetiza itens de informação. Desde 2011, sua tecnologia está sob permanente evolução nos laboratórios de pesquisa da IBM. A vitória da plataforma de I.A. pode ser vista como uma nova façanha das máquinas, acumulada na série humano-máquina de confrontos de inteligência.

Ora, mas para que possamos melhor aproximar uma visão provisória do estado da arte da I.A., cumpre perguntar: qual seria o real significado desses feitos das máquinas? Sejam nas três previsões específicas de Simon, seja em sua formulação generalista do “futuro visível” da “habilidade” das máquinas (ver epígrafe), sugere-se que a medição de progresso de pesquisa em I.A. deve se dar por comparação com habilidades da inteligência humana. Isso não é acidental, tendo em vista o influente artigo escrito por Alan Turing (1950), em que ele propunha o jogo da imitação, que viria a ser chamado depois o teste de Turing. Esse teste ainda é uma forte referência para definirmos o estatuto ontológico da inteligência das máquinas (o que essa inteligência é, ou pode vir a ser), com relação à inteligência humana; isto é, o significado geral dos feitos de I.A., grosso modo, será maior conforme o feito se aproxime estruturalmente do jogo vislumbrado por Turing.

No cenário proposto por Turing, um ser humano interroga, via interação datilografada, duas entidades (as quais não pode ver, ouvir etc.), uma delas sendo uma máquina ou um homem, a outra sendo uma mulher. Se o interrogador se equivocar em perceber a presença da máquina em instâncias diversas do teste, “tão frequentemente quanto” equivoca-se em perceber a presença do homem (isto é, se em larga escala a máquina for indiscernível do homem), teríamos então sua caracterização como uma máquina pensante ou “inteligente”. Ou seja, para Turing, a inteligência da máquina deve ser medida justamente através da avaliação do comportamento verbal efetivo da entidade “do outro lado” da interface lógica do interrogador. A ideia de se avaliar a habilidade de uma inteligência por via de seu comportamento verbal é ainda muito anterior a Turing, tendo sido originalmente proposta por René Descartes, em seu Discurso do Método de 1637, da seguinte forma:

Quantos autômatos e máquinas de movimento podem ser feitos pela indústria do homem … Mas [uma máquina] nunca organiza seu discurso de diversas maneiras, a fim de responder apropriadamente a tudo que possa ser dito em sua presença, como até o homem mais simples pode fazer.

Em 1746, Denis Diderot, em seus Pensamentos Filosóficos, apresentou sua própria formulação do problema:

Se encontrarem um pagagaio que possa responder a tudo, eu iria, sem hesitação, afirmar que este é um ser inteligente.

Existem objeções de natureza filosófica ao teste de Turing enquanto medida de inteligência artificial, sendo nove delas (entre as principais ou mais relevantes, até hoje) já antecipadas e rejeitadas pelo próprio Turing em seu artigo seminal de 1950 na revista Mind, “Computing machinery and intelligence”. De um ponto de vista da aplicação tecnológica de I.A., vê-se limitações do teste de Turing enquanto medidor de progresso de pesquisa na área, almejando-se então medidas de inteligência que tenham apelo a cenários de uso específicos — por exemplo, Clark e Etzioni propõem um teste para uma I.A., que ela possa “passar numa prova de ciência elementar [ensino de nível fundamental] de perguntas com múltipla escolha”.[7] Mas para fins da caracterização do estatuto ontológico da I.A., inclusive por sua relevância histórica, o teste de Turing continua sendo uma forte referência.

Além disso, como Simon, e de fato antes dele, Turing também fez previsões específicas sobre a I.A., suas realizações, seu futuro enquanto ciência e tecnologia. Merece destaque a previsão de Turing de que, até o ano 2000, um computador dotado de uma capacidade específica de armazenamento de informação (razoavelmente maior do que a disponível no seu tempo) poderia então ser programado bem o suficiente para passar no seu teste. Existem competições que têm sido disputadas, com prêmios em dinheiro, com o objetivo de simular o teste de Turing; mas há críticas contundentes de que grande parte dos sistemas pretendentes são projetados para recorrer a truques ou artifícios.[8] Em um próximo texto, pretendo abordar algumas das principais previsões de Alan Turing, incluindo questões relacionadas ao seu teste. Há razão para se crer que as previsões desses pioneiros da I.A., como no caso das propostas por Herbert Simon, podem mesmo vir a se realizar.

Bernardo Gonçalves é doutor em modelagem computacional pelo Laboratório Nacional de Computação Científica, com estágio pós-doutoral na Universidade de Michigan. Atualmente é pesquisador da IBM Research e doutorando em epistemologia e filosofia da ciência na Universidade de São Paulo. bng@br.ibm.com

[1] O jornal acompanhou e cobriu de perto o episódio em diversas matérias, com destaque para o texto por Bruce Weber (5 Mai., 1997): “Computer defeats Kasparov, stunning the chess experts”. The New York Times. (Último acesso em: 29 Mar., 2018).

[2] Uma primeira rodada do confronto em seis partidas havia sido disputada em fevereiro de 1996, com vitória do campeão russo. O computador da IBM foi então reprogramado até a nova disputa em maio de 1997.

[3] Deep Blue Replay the games: Game 6, may 11. Ver também retrospectiva “Deep Blue, IBM’s supercomputer, defeats chess champion Garry Kasparov in 1997”. NY Daily News, (10 Mai. – Último acesso em: 29 Mar., 2018).

[4] Ver matéria de George Johnson: “Undiscovered Bach? No, a computer wrote it”. The New York Times, (11 Nov., 1997 – Último acesso em: 29 Mar., 2018).

[5] Ver reportagem de Gina Kolata: “Computer math proof shows reasoning power”. The New York Times, (10 Dez., 1996 – Último acesso em: 29 Mar., 2018). Há um episódio anterior, de 1976, do uso de um programa de computador na obtenção da prova do antigo “problema das quatro cores”. Esse caso, porém, é controverso como realização da terceira previsão de Simon, porque o papel desempenhado pelo programa foi apenas de checar via cálculo os 1476 diferentes casos específicos (prova por análise de caso) para os quais matemáticos humanos haviam, eles mesmos, reduzido o problema. Ou seja, a contribuição da máquina não qualifica como uma operação que poderia ser considerado, em algum grau, criativo.

[6] Ver texto de John Markoff: “Computer wins on ‘Jeopardy!’: Trivial, it’s not”. The New York Times, (16 Fev., 2011 – Último acesso em: 23 Jul., 2017.

[7] Ver edição de 2016 da AI Magazine, “Beyond the Turing Test”, editada por Gary Marcus e outros, que traz a contribuição de Clark e Etzioni, “My computer is an honor student: But how intelligent is it? Standardized tests as a measure of AI”, entre outras.

[8] Ver artigo de Luciano Floridi e coautores: “Turing’s Imitation Game: Still an impossible challenge for all machines and some judges—An evaluation of the 2008 Loebner Contest”. Minds and Machines, 19(1), 145–50.

COMPARTILHE: