A IA do Google ganhou vida própria? A resposta está no inconsciente

 

tilt
Sexta-feira, 24/06/2022
Edição da manhã
 
Getty Images/iStockphoto
 
  

Na semana passada, trouxemos, aqui na newsletter de Tilt, a história do engenheiro do Google que afirmou que a inteligência artificial em desenvolvimento para a empresa tinha adquirido consciência própria. Agora, voltamos a essa história com o ponto de vista de um psicanalista: o professor Christian Dunker.

Segundo ele, o sistema do Google nos dá essa impressão de consciência porque consegue lidar com massas gigantescas de discursos sobre os mais variados temas, criando combinações coerentes de respostas e trazendo considerações consistentes sobre si mesmo.

A inteligência artificial envolvida na polêmica é a LaMDA, sigla para Modelo de Linguagem para Aplicações de Diálogo (Language Model for Dialogue Applications, em inglês). E ela consegue ainda absorver e empregar corretamente alguns sinais discursivos que usamos para identificar a presença de outra consciência, tais como pausas e hesitações.

Não é por acaso que o engenheiro afastado Blake Lemoine começou a realmente acreditar que LaMDA adquiriu "vida própria".

Contudo, para Dunker, a inteligência artificial do Google não parece demonstrar a existência de uma consciência digital, mas "um aparelhamento operacional mais sofisticado do discurso, que seleciona respostas pertinentes" de um vasto banco de dados.

E daí a gente aprende como nosso discurso pode funcionar perfeita e indefinidamente se nos atemos a certas regras gramaticais básicas, como inversão, reflexividade e identidade, afirma.

O problema, segundo o psicanalista, é que para produzir nuances e camadas de significado, seria preciso simular uma característica desafiadoramente limitante para máquinas: a capacidade de criar e lidar intencionalmente com ambiguidade, bem como de atribuir intencionalidade ao que, em princípio, está desprovido dela.

"O que torna a consciência humana talvez não seja sua perfeição racional nem a sua capacidade de ler e interpretar afetos e emoções, mas a imperfeição de nossa linguagem e o animismo regressivo de nosso pensamento", escreveu Dunker.

É justamente o inconsciente a característica mais difícil de se simular digitalmente. Curiosamente, é aí que Lemoine se mostrou humano e a LaMDA, não.

O engenheiro, segundo Dunker, desdobrou a consciência do erro como uma hipótese da existência de outra consciência. Algo que ele e que todos nós, humanos, estamos sujeitos a fazer, mas a LaMDA ou qualquer outra máquina ainda não é capaz.

Compartilhar essa edição do UOL Tilt - Papo Cabeça:
Compartilhar no FacebookCompartilhar no Twitter

Comentários