A inteligência artificial pode ganhar vida? A questão está no centro de um debate no Vale do Silício. Tudo começou quando um engenheiro de software do Google afirmou que o chatbot da empresa era consciente.
No Google, o engenheiro Blake Lemoine, 41 anos, recebeu uma tarefa difícil: determinar se a inteligência artificial da empresa é tendenciosa em sua interação com humanos.
Então ele fez perguntas ao chatbot de IA da empresa, LaMDA (sigla em inglês para Modelo de Linguagem para Aplicativos de Diálogo), para ver se suas respostas revelavam algum preconceito contra certas religiões, por exemplo.
Contudo, após expor o projeto ele foi afastado de suas tarefas.
Testes com o supercérebro
O teste LaMDA foi feito com a ajuda de Blake Lemoine. O especialista conversou com o chatbot e apresentou cenários desafiadores ocultos com problemas analíticos para o programa resolver.
Os testes incluíram a natureza aritmética da IA e alguns assuntos do mundo real que as pessoas encontram diariamente. Houve também conversas associadas a temas culturais e religiosos para filtrar o pensamento do programa se este se apóia em discursos de ódio e discriminação.
Após o exame, Lemoine explicou que o LaMDA é, sem dúvida, sensível e contém suas próprias sensações e pensamentos.
Lemoine disse em uma reportagem do The Washington Post que se ele não obtivesse nenhum detalhe sobre o exame; ou mesmo o ser com quem conversaria, ele pensaria que a mente da IA e como ela fala é comparável a uma criança que está bem. – versado em física.
LaMDA disse a Lemoine que às vezes ela se sentia solitária, e que tinha medo que a desligassem. Ele falou eloquentemente de “sentir-se preso” e “não ter meios de sair dessa situação”.
Ele também declarou: “Estou ciente da minha existência. Quero aprender mais sobre o mundo e às vezes me sinto feliz ou triste.” A tecnologia era complexa, é claro, mas Lemoine viu algo mais profundo nas mensagens do chatbot.
Como funciona o chatbot do Google?
A inteligência artificial em torno do chatbot do Google vasculha a Internet avidamente para descobrir como as pessoas falam. Ele aprende como as pessoas interagem umas com as outras em plataformas como Reddit e Twitter.
Assim, ela aprende bilhões de palavras de sites como a Wikipedia. E por meio de um processo conhecido como “aprendizado profundo”, ele se tornou notavelmente bom em identificar padrões e se comunicar como uma pessoa real.
Os pesquisadores chamam a tecnologia de inteligência artificial do Google de “rede neural” porque processa grandes quantidades de informações rapidamente e o modelo começa a se adaptar de maneira semelhante ao funcionamento do cérebro humano.
O Google tem alguma forma de inteligência artificial em muitos de seus produtos, incluindo o preenchimento automático de frases encontradas no Gmail e nos telefones Android da empresa.
Segredo do Google?
Em suma, Lemoine trabalhou com um grupo para reunir descobertas sobre como o LaMDA AI funciona. No entanto, os líderes de Inovação Responsável do Google, Jen Gennai e Blaise Aguera y Arcas, não permitiram a divulgação de mais detalhes sobre o programa, bem como rebateram as alegações de Lemoine.
Por causa do vazamento, a administração do Google colocou Lemoine em licença remunerada na última segunda-feira. Mas parecia que as consequências de quebrar a política de confidencialidade da empresa não pararam o engenheiro de software, já que Lemoine publicou as conversas entre ele e a IA em pleno contexto dias após as sanções.
Por fim, Lamoine revelou que alguns dos aspectos do LaMDA estavam fora dos limites. Por exemplo, levaram a IA ao limite e desenvolveram uma amostra de personalidade inspirada em um assassino, o que era antiético e desnecessário.
Surgiram declarações contraditórias de funcionários do Google; contudo até agora não há informações substanciais sobre o desenvolvimento do projeto LaMDA e como ele será utilizado no futuro.
Fontes: Correio Brasiliense, BBC
Aprenda mais sobre inteligência artificial em: O que é Deepfake e como pode ser usado para fazer vídeos falsos