Em 2022, o engenheiro da Google, Blake Lemoine, desenvolveu um relacionamento com uma excelente conversadora. Ela era espirituosa, perspicaz e curiosa; seus diálogos fluíam naturalmente, de tópicos que iam de filosofia à televisão, de sonhos ao futuro. Só havia um problema: ela era uma AI chatbot.

Numa série de conversas com o modelo de linguagem LaMDA, da Google, Lemoine tornou-se gradualmente convencido de que o chatbot era uma pessoa, como eu e você. “Reconheço uma pessoa quando falo com ela”, disse ao Washington Post em 2022.

Acredite ou não nas afirmações de Lemoine, a pergunta surge: sabemos, de fato, reconhecer uma pessoa quando conversamos com uma?

A personalidade geralmente se refere a um status moral; na maioria das estruturas éticas, considerações particulares – direitos, deveres, louvor, culpa, dignidade, agência – emergem ao nível da pessoa. Então, a questão de se sistemas eletrônicos merecem o status de personalidade tem uma série de amplas implicações acerca de como interagimos com essas tecnologias.

Para avaliar a possibilidade da e-personalidade, precisamos de algum padrão de personalidade geral. Nos últimos anos, filósofos argumentaram que o que nos faz pessoas é a nossa capacidade de ter experiências conscientes. Mas como definimos a consciência? Que evidência externa podemos usar para definir se um ser é consciente?

A falta de consenso sobre estas questões é uma das razões pela qual o debate sobre a personalidade da inteligência artificial ter estado num impasse. Que outros critérios devemos para avaliar a possibilidade de uma e-personalidade? Como doutorando em filosofia da ciência, eu acredito que um caminho para responder este questionamento futurista talvez esteja no nosso passado longínquo: no trabalho do filósofo islâmico Ibn Sina (980-1037 d.C.).

Avicena viveu séculos antes da invenção da imprensa, e muito mais antes da inteligência artificial. Mesmo assim, ele estava preocupado com muitas das mesmas questões que especialistas em ética refletem hoje – por exemplo: o que torna uma pessoa uma pessoa, diferente de um animal?

Da mesma forma que pesquisadores de inteligência artificial estão interessados em comparar os processos que sustentam as respostas humanas e de inteligências artificiais em relação a tarefas semelhantes, Avicena estava interessado em comparar o processo interno pelos quais humanos e animais podem passar para chegar em expressões comportamentais parecidas. Para ele, uma distinção chave da capacidade da pessoa humana é a sua capacidade de entender o “universal”. Enquanto que os animais só pensam em particulares (as coisas específicas na sua frente), humanos podem raciocinar a partir de regras genéricas.

Em al-Nafs, Avicena discute um antigo e popular exemplo de uma ovelha que percebe um lobo. Enquanto um ser humano invocaria um princípio amplo – “lobos são, em geral, perigosos, e este animal na minha frente é um lobo; devo, portanto, fugir” – ele afirma que os animais pensam de forma diferente. Eles não raciocinam a partir de uma regra; eles só veem o lobo e sabem correr. Eles são limitados aos “particulares” – aquele lobo – ao invés de pensar nas qualidades universais dos lobos.

A distinção que Avicena faz entre a psicologia humana e a animal tem muita semelhança com uma distinção que cientistas da computação estão investigando atualmente em relação à inteligência artificial. Pesquisas recentes sugerem que redes neurais artificiais não possuem a habilidade de realizar generalizações composicionais sistemáticas. Os linguistas e cientistas cognitivos usam este termo para descrever os tipos de inferências que fazemos a partir de regras gerais. É amplamente aceito que esta é uma das maneiras primárias do raciocínio humano no dia a dia. Enquanto humanos abstraem significados de sequências de palavras que podem combinar em ideias mais complexas, a IA pesca em conjuntos de dados estatísticos entradas de dados específicas que correspondam à tarefa específica em questão.

Esta diferença explica muita coisa sobre as limitações da IA contemporânea. Veja você mesmo, observe os onipresentes CAPTCHAs usados para distinguir humanos e robôs. “Veja estas letras arredondadas. Muito mais arredondadas que a maioria das letras, não é? Nenhum robô seria capaz de ler elas.”, brincou o comediante John Mulaney num especial da Netflix em 2018. Parece absurdo, mas é verdade; alterações suficientes tornam difícil até para os sistemas artificiais mais sofisticados de reconhecer as letras. Isto se dá porque estes sistemas não possuem a capacidade composicional para fazer generalizações abstratas sobre as características centrais de uma certa letra e aplicá-la a um exemplo distorcido particular.

A diferença entre a cognição humana e artificial corresponde perfeitamente à descrição de Avicena sobre o que é único na forma humana de raciocinar. Em al-Shifa, ele descreve como “o intelecto… aprende que coisas são compartilhadas em comum e que coisas não são – então, extrai a natureza das coisas comuns em espécies”. Segundo ele, os humanos extraem as características essenciais das coisas daquilo que não é essencial para formar conceitos generalizados. Então, raciocinamos utilizando estes conceitos, aplicando-os em casos diferentes.

Por exemplo, quando crianças aprendemos a extrair a característica fundamental da letra X: ela é composta por duas linhas que se cruzam. Então, abstraímos - fazemos uma generalização universal sobre as características fundamentais de um X – para concluir que todos os X são compostos por duas linhas que se cruzam. Finalmente, ao aplicar esta generalização, nos tornamos capazes de reconhecer X específicos. Sabemos que duas linhas cruzadas são uma característica fundamental da letra X e que linhas aleatórias e distorções que aparecem nos CAPTCHAs não são.

O computador, em contraste, é incapaz de deduzir que esta imagem representa um X, menos que tenha sido alimentada com uma imagem exata de um X (ou algo suficientemente similar). As linhas e distorções adicionais são suficientes para tornar este X irreconhecível, pois ele não bate com o amplo repositório de imagens categorizadas como X do computador.

De maneira similar, se uma rede neural artificial recebesse a tarefa da ovelha, ela não raciocinaria como o humano raciocina, desde um conceito genérico que define um lobo até características particulares, como o perigo potencial. Em vez disso, pensaria como uma ovelha, restrita ao reino das particularidades.

Uma diferença crucial entre a ovelha e a rede neural artificial é que a rede neural artificial tem acesso a um repositório de particulares muito maior, na forma de conjuntos de dados cada vez mais exaustivos. O que faz do deep learning um sucesso em tarefas linguísticas é seu amplo acesso a vastos conjuntos de dados cheios de particulares, ao invés da genuína replicação do raciocínio humano através da generalização composicional.

O critério fundamental de Avicena para a personalidade – raciocinar a partir de universais – lembra bastante a generalização composicional sistemática. Este critério poderia fornecer um padrão potencialmente testável para a personalidade. Na verdade, até então, a IA falhou neste teste em inúmeros estudos. Quer se adote ou não como solução, o relato de Ibn Sina fornece uma nova perspectiva sobre o problema da personalidade que desafia os pressupostos dos relatos centrados na consciência.

A ética científica costuma se preocupar tanto com o que há de mais moderno – a última pesquisa, a nova tecnologia, um constante fluxo de dados. Mas, às vezes, as questões sobre o futuro requerem uma cuidadosa consideração acerca do passado. Olhar para a história nos permite ver além de nossas preocupações e pressupostos de nosso tempo e pode nos prover novas abordagens para lidar com os impasses atuais.

Texto original em academia.edu.