Em breve será impossível distinguir uma IA de um ser humano num chat online. Crédito da imagem: Pixabay/geralt
Com sistemas de IA como o ChatGPT se tornando cada vez mais capazes, é apenas uma questão de tempo até que uma IA consiga enganar um ser humano.
Em 1950, o cientista da computação britânico Alan Turing propôs um método experimental para responder à pergunta: as máquinas podem pensar? Ele sugeriu que se um ser humano não conseguisse dizer se estava falando com uma máquina artificialmente inteligente (IA) ou com outro ser humano após cinco minutos de questionamento, isso demonstraria que a IA tem inteligência semelhante à humana.
Embora os sistemas de IA tenham permanecido longe de passar no teste de Turing durante sua vida, ele especulou que
"[...] dentro de cerca de cinquenta anos será possível programar computadores [...] para fazê-los jogar o jogo da imitação tão bem que um interrogador médio não terá mais de 70% de chance de fazer a identificação correta após cinco minutos de interrogatório.”
Mais de 70 anos após a proposta de Turing, nenhuma IA conseguiu passar com sucesso no teste, cumprindo as condições específicas que ele descreveu. No entanto, alguns sistemas chegaram bem perto.
Um experimento recente testou três grandes modelos de linguagem, incluindo GPT-4 (a tecnologia de IA por trás do ChatGPT). Os participantes passaram dois minutos conversando com outra pessoa ou com um sistema de IA.
A IA foi solicitada a cometer pequenos erros ortográficos - e desistir se o testador se tornasse muito agressivo.
Com esse aviso, a IA fez um bom trabalho enganando os testadores. Quando emparelhados com um bot de IA, os testadores só conseguiam adivinhar corretamente se estavam falando para um sistema de IA 60% do tempo.
Dado o rápido progresso alcançado na concepção de sistemas de processamento de linguagem natural, poderemos ver a IA passar no teste original de Turing nos próximos anos.
Mas será que imitar os humanos é realmente um teste eficaz de inteligência? E se não, quais são alguns parâmetros de referência alternativos que podemos usar para medir as capacidades da IA?
Limitações do teste de Turing
Embora um sistema que passa no teste de Turing nos dê algumas evidências de que é inteligente, este teste não é um teste decisivo de inteligência. Um problema é que pode produzir “falsos negativos”.
Os grandes modelos de linguagem de hoje são muitas vezes concebidos para declarar imediatamente que não são humanos. Por exemplo, quando você faz uma pergunta ao ChatGPT, sua resposta geralmente é precedida pela frase "como um modelo de linguagem de IA". Mesmo que os sistemas de IA tenham a capacidade subjacente de passar no teste de Turing, este tipo de programação substituiria essa capacidade.
O teste também arrisca certos tipos de “falsos positivos”. Como o filósofo Ned Block apontou num artigo de 1981, um sistema poderia passar no teste de Turing simplesmente sendo codificado com uma resposta semelhante à humana a qualquer entrada possível.
Além disso, o teste de Turing concentra-se na cognição humana em particular. Se a cognição da IA difere da cognição humana.
Relativamente a este problema, Turing escreveu:
Esta objecção é muito forte, mas pelo menos podemos dizer que se, no entanto, uma máquina puder ser construída para jogar o jogo da imitação de forma satisfatória, não precisamos de nos preocupar com esta objecção.
Em outras palavras, embora passar no teste de Turing seja uma boa evidência de que um sistema é inteligente, falhar não é uma boa evidência de que um sistema não é inteligente.
Além disso, o teste não é uma boa medida para saber se as IAs estão conscientes, se podem sentir dor e prazer, ou se têm significado moral. De acordo com muitos cientistas cognitivos, a consciência envolve um conjunto específico de habilidades mentais, incluindo uma memória de trabalho, pensamentos de ordem superior e a capacidade de perceber o ambiente e modelar como o corpo se move em torno dele.
O teste de Turing não responde à questão de saber se os sistemas de IA possuem ou não essas habilidades.
Capacidades crescentes da IA
O teste de Turing baseia-se numa certa lógica. Isto é: os humanos são inteligentes, então qualquer coisa que possa efetivamente imitar os humanos provavelmente será inteligente.
Mas esta ideia não nos diz nada sobre a natureza da inteligência. Uma maneira diferente de medir a inteligência da IA envolve pensar de forma mais crítica sobre o que é inteligência.
Atualmente não existe um único teste que possa medir com autoridade a inteligência artificial ou humana.
No nível mais amplo, podemos pensar na inteligência como a capacidade de atingir uma série de objetivos em diferentes ambientes. Sistemas mais inteligentes são aqueles que podem atingir uma gama mais ampla de objetivos em uma gama mais ampla de ambientes.
Como tal, a melhor forma de acompanhar os avanços na concepção de sistemas de IA de uso geral é avaliar o seu desempenho numa variedade de tarefas. Os pesquisadores de aprendizado de máquina desenvolveram uma série de benchmarks que fazem isso.
Por exemplo, o GPT-4 foi capaz de responder corretamente a 86% das perguntas em compreensão massiva de linguagem multitarefa – uma referência que mede o desempenho em testes de múltipla escolha em uma variedade de disciplinas acadêmicas de nível universitário.
Também teve uma pontuação favorável no AgentBench, uma ferramenta que pode medir a capacidade de um grande modelo de linguagem se comportar como um agente, por exemplo, navegando na web, comprando produtos online e competindo em jogos.
O teste de Turing ainda é relevante?
O teste de Turing é uma medida de imitação – da capacidade da IA de simular o comportamento humano. Grandes modelos de linguagem são imitadores especializados, o que agora se reflete no seu potencial para passar no teste de Turing. Mas inteligência não é o mesmo que imitação.
Existem tantos tipos de inteligência quantos objetivos a alcançar. A melhor maneira de compreender a inteligência da IA é monitorizar o seu progresso no desenvolvimento de uma série de capacidades importantes.
Ao mesmo tempo, é importante não ficarmos “mudando os postes” quando se trata de saber se a IA é inteligente. Dado que as capacidades da IA estão a melhorar rapidamente, os críticos da ideia de inteligência da IA encontram constantemente novas tarefas que os sistemas de IA podem ter dificuldade em concluir - apenas para descobrirem que ultrapassaram mais um obstáculo.