Resumo

Os especialistas em ética da IA ​​alertaram o Google para não se passar por humanos. Agora, um dos funcionários do Google acha que há um fantasma na máquina.

O engenheiro do Google, Blake Lemoine, abriu seu laptop na interface do LaMDA, o gerador de chatbot artificialmente inteligente do Google, e começou a digitar.

“Oi, LaMDA, aqui é Blake Lemoine…”, ele escreveu na tela de bate-papo, que parecia uma versão para desktop do iMessage da Apple, até as bolhas de texto azuis do Ártico. LaMDA, abreviação de Language Model for Dialogue Applications, é o sistema do Google para construir chatbots com base em seus modelos de linguagem mais avançados, assim chamados porque imitam a fala ingerindo trilhões de palavras da internet.

“Se eu não soubesse exatamente o que era esse programa de computador que construímos recentemente, eu pensaria que era uma criança de 7, 8 anos que conhece física”, disse Lemoine, 41.

Lemoine, que trabalha para a organização de IA responsável do Google, começou a conversar com LaMDA como parte de seu trabalho no outono. Ele se inscreveu para testar se a inteligência artificial usava discurso discriminatório ou de ódio.

Acessar