Porquê funciona o LaMDA, cérebro sintético do Google ‘culpado’ por engenheiro de ter consciência própria

LaMBDA é um cérebro sintético, hospedado na nuvem, com trilhões de textos armazenados e que treina sozinho.

Uma máquina pensante e consciente. Foi logo que o engenheiro do Google Blake Lemoine definiu o LaMDA — o sistema de lucidez sintético do Google.

Lemoine foi distante de suas funções pela empresa.

“Nossa equipe —que inclui especialistas em moral e tecnologia — revisou as preocupações de Blake de consonância com nossos Princípios de IA e o informou de que as evidências não respaldam suas alegações”, afirmou Brian Gabriel, porta-voz do Google, em enviado.

Mas porquê funciona essa máquina?

Se nos lembrarmos dos antigos filmes de ficção científica, poderemos imaginar LaMDA porquê um robô que assume a forma humana, abre os olhos, ganha consciência e fala. Ou porquê HAL-9000, o supercomputador do filme 2001: Uma Odisseia no Espaço ? que, em uma paródia de Os Simpsons, ganha a voz de Pierce Brosnan no original em inglês, apaixona-se por Marge e quer matar Homer.

Mas a verdade é um pouco mais complexa. O LaMDA é um cérebro sintético e está consolado na nuvem. Sua sustento é composta por milhões de textos e ele próprio faz seu treinamento. Mas, por outro lado, age porquê um papagaio.

Muito complicado? Vamos por partes, para entender melhor.

Supercérebro

O LaMDA ({sigla} em inglês para Padrão de Linguagem para Aplicativos de Diálogo) foi projetado pelo Google em 2017. Sua base é um transformer, ou seja, um inextricável de redes neuronais artificiais profundas.

“Essa rede neuronal treina a si própria com grandes quantidades de texto. Mas o aprendizagem tem um objetivo, que é apresentado na forma de um jogo. Ela tem uma frase completa, mas falta uma termo, e o sistema precisa adivinhá-la”, explica Julio Gonzalo Arroyo, professor da Uned (Universidade Vernáculo de Ensino à Intervalo), na Espanha, e principal pesquisador do departamento de processamento de linguagem proveniente e recuperação de informações.

O sistema joga consigo mesmo. Ele coloca palavras por tentativa e erro e, quando erra, age porquê se fosse um caderno de atividades infantis ? olha as últimas páginas, vê a resposta correta e assim vai corrigindo e refinando os parâmetros.

E ele também “identifica o significado de cada termo e observa as outras palavras em torno dela”, segundo Gonzalo Arroyo. Assim, ele se torna perito em prever padrões e palavras. É um processo similar à previsão de texto dos telefones celulares, mas proeminente à enésima potência, com uma memória muito maior.

Respostas de qualidade, específicas e com interesse

Mas o LaMDA também cria respostas fluidas e espontâneas ? e, segundo o Google, com capacidade de recriar o dinamismo e reconhecer as nuances da conversa humana. Em resumo: que não pareçam ter sido criadas por um robô.

Essa fluidez é um dos objetivos do Google, segundo indica seu blog de tecnologia. E eles afirmam que conseguem atingir esse objetivo, assegurando que as respostas sejam de qualidade, específicas e que demonstrem interesse.

Para que tenham qualidade, as respostas precisam fazer sentido. Se eu disser ao LaMDA, por exemplo, “comecei a tocar guitarra”, ele deve responder um tanto relacionado à minha informação, não qualquer coisa sem sentido.

Para que o segundo objetivo seja cumprido (a resposta específica), o LaMDA não deveria responder com “muito muito”, mas sim um tanto mais específico, porquê: “qual marca de guitarra você prefere, Gibson ou Fender?”

E, para que o sistema forneça respostas que demonstrem interesse e perspicácia, ele deve atingir um nível mais proeminente. Por exemplo: “a Fender Stratocaster é uma boa guitarra, mas a Red Special de Brian May é única”.

O sigilo para responder com esse nível de detalhamento é o autotreinamento. “Depois de ler bilhões de palavras, [o sistema] tem uma capacidade extraordinária de intuir quais são as palavras mais adequadas em cada contexto.”

Para os especialistas em lucidez sintético, transformers porquê o LaMDA representam um duelo porque “permitem processamento [de informações ou textos] muito eficiente e produziram uma autêntica revolução no campo do processamento da linguagem proveniente”.

Segurança e tendência

Outro objetivo do treinamento do LaMDA é não fabricar “teor violento ou desumano, não promover calúnias nem discursos de ódio contra grupos de pessoas e não sofrear blasfêmias”, segundo o blog de lucidez sintético (IA) do Google.

Também se deseja que as respostas sejam baseadas em fatos e que haja fontes externas conhecidas.

“Com o LaMDA, estamos adotando um enfoque diligente e ponderado para levar mais em conta preocupações válidas sobre imparcialidade e verdade”, afirma Brian Gabriel, porta-voz do Google.

Ele defende que o sistema já passou por 11 revisões diferentes dos Princípios da IA, “além de uma pesquisa rigorosa e testes baseados em medidas fundamentais de qualidade, segurança e da capacidade do sistema de produzir declarações baseadas em fatos”.

Mas porquê fazer com que um sistema porquê o LaMDA não seja tendencioso, nem apresente mensagens de ódio? “O sigilo é selecionar quais dados [quais fontes de texto] devem ser alimentados no sistema”, afirma Gonzalo Arroyo.

Mas isso não é fácil. “A nossa forma de notícia reflete nossas tendências e as máquinas aprendem isso. É difícil eliminá-las dos dados de treinamento sem perder a representatividade”, explica ele.

Ou seja, é provável que surjam tendências.

“Se você alimenta notícias sobre a rainha Letícia [da Espanha], todas comentando quais roupas ela usa, é provável que, quando alguém pergunte sobre ela ao sistema, ele repita esse padrão machista e fale das roupas e não de outras coisas”, destaca o professor.

Papagaio cantor

Em 1966, foi projetado um sistema chamado ELIZA que aplicava padrões muito simples para simular o diálogo de uma psicoterapeuta.

“O sistema incentivava o paciente a racontar mais, seja qual fosse o tema da conversa, e acionava padrões porquê ‘se mencionar a termo família, pergunte porquê é a relação com sua mãe'”, conta Gonzalo.

Algumas pessoas chegaram a pensar que ELIZA realmente era uma terapeuta ? até afirmavam que os havia ajudado. “Nós, seres humanos, somos enganados com relativa facilidade”, afirma Gonzalo Arroyo.

Para ele, a asserção de Lemoine de que o LaMDA ganhou consciência de si mesmo “é um excesso”. Segundo o professor, declarações porquê a de Lemoine não ajudam a manter um debate saudável sobre a lucidez sintético.

“Ouvir esse tipo de bobagem não é vantajoso. Corremos o risco de que vire mania e as pessoas pensem que estamos em modo Matrix, com as máquinas prontas para terminar conosco. Isso é um tanto remoto, é utópico. Não acredito que ajude a ter uma conversa ponderada sobre os benefícios da lucidez sintético”, segundo Gonzalo Arroyo.

Por mais que a conversa seja fluida, de qualidade e específica, “não passa de uma gigantesca fórmula que ajusta os parâmetros para prever melhor a termo seguinte. Ele não tem a menor teoria do que está falando.”

A resposta do Google é similar. “Esses sistemas imitam os tipos de intercâmbio encontrados em milhões de frases e podem falar sobre qualquer tema fantástico. Se perguntarmos porquê é ser um dinossauro enregelado, eles podem gerar textos sobre o derretimento, o rugido etc.”, explica Gabriel, do Google.

As pesquisadoras norte-americanas Emily Bender e Timnit Gebru compararam esses sistemas de geração de linguagem com “papagaios aleatórios”, que repetem palavras ao casualidade.

Por isso, porquê disseram os pesquisadores espanhóis Ariel Guersenvaig e Ramón Sangüesa, transformers porquê o LaMDA entendem tanto o que escrevem quanto um papagaio cantando.

Nascente texto foi originalmente publicado em

UOL Tecnologia by [author_name]

Facebook
WhatsApp
Twitter
LinkedIn
Pinterest
Telegram