Riscos e limitações dos robôs conversadores: por que há tanta preocupação com a inteligência artificial que fala como humanos


Sistemas como o ChatGPT estão sendo desenvolvidos e lançados sem regulamentação em um contexto de corrida entre empresas de tecnologia, mas seus impactos já estão sendo percebidos por usuários e autoridades. Tanto o GPT-4 quanto o ChatGPT são um tipo de inteligência artificial generativa
Getty Images via BBC
“Hoje impera um faroeste, um faroeste onde vale tudo. No Vale do Silício tem aquele velho slogan: ‘mova-se rápido e quebre coisas’ (‘move fast and break things’, no original, em inglês) e está sendo exatamente esse o caso.”
É assim que o especialista em inteligência artificial Eugenio Vargas Garcia define o atual momento do setor, que vem recebendo uma atenção inédita desde o lançamento do robô conversador ChatGPT.
Compartilhe no WhatsApp
Compartilhe no Telegram
Garcia foi o especialista brasileiro nas negociações da Recomendação da Unesco sobre ética da Inteligência Artificial (IA) e é um dos signatários de uma carta aberta que pediu uma pausa de seis meses em todas as pesquisas e desenvolvimento de aplicações de inteligência artificial.
A carta, encabeçada pelo instituto sem fins lucrativos Future of Life, foi assinada por mais de 3.500 pessoas, entre elas acadêmicos, pesquisadores, empresários (como Elon Musk e Steve Wozniak, o cofundador da Apple), além de funcionários de grandes empresas de tecnologia, como Google, Meta e Microsoft, e desenvolvedores que trabalham com inteligência artificial.
“Cada um que assinou tem suas motivações próprias. A minha, no caso, não era tanto propor uma pausa nas pesquisas, mas sim de procurar chamar atenção para essa situação de corrida descontrolada entre as empresas, que estão colocando à disposição sistemas de impacto, sem que a gente saiba no que isso tudo vai dar”, explica Garcia.
Eugenio Vargas Garcia atua como cônsul-geral do Brasil em São Francisco, cidade americana que abriga o Vale do Silício. Ele falou à reportagem do g1 na condição de pesquisador.
▶️ Nesta reportagem você vai ver que:
modelos de linguagem como o ChatGPT aprendem a procurar padrões estatísticos e adivinhar qual seria a próxima palavra em uma frase;
apesar de buscar padrões e se aproximar da linguagem humana, o robô não entende verdadeiramente as palavras que escreve e pode acabar fornecendo informações falsas;
essas ferramentas também não estão isentas de riscos e podem ser usados por criminosos para fraudes, desinformação e crimes cibernéticos;
a velocidade como a IA tem sido desenvolvida também preocupa autoridades, já que as empresas do ramo têm sido pouco transparentes com seus modelos.
Aplicações de inteligência artificial não são novidade. Elas são usadas para reconhecimento facial, assistentes de voz, processamento de imagem e áudio e até para o mapeamento de proteínas.
Então, por que a preocupação expressa na carta com o desenvolvimento de “sistemas poderosos de inteligência artificial”?
A resposta está em sistemas como o ChatGPT, da startup OpenAI, que se tornou a aplicação de mais rápido crescimento da história em número de usuários e lançou gigantes de tecnologia como o Google e a Microsoft em uma corrida.
A disputa é para ver qual empresa conseguirá monetizar mais rápido a tecnologia, integrando-a com buscadores – como já está acontecendo com o Bing, da Microsoft. Isso tudo em um ambiente sem regulamentação ou protocolos de segurança estabelecidos.
O ChatGPT é um robô conversador que funciona pelo chamado “grande modelo de linguagem” (“large language model” ou LLM, na sigla em inglês). Ele gera em segundos textos coesos, bem escritos e – o mais importante – que parecem muito ter sido escritos por humanos.
“É uma ferramenta que trabalha com uma característica crucial da comunicação humana, que é a linguagem escrita”, explica Carlos Affonso de Souza, professor da UERJ e diretor do Instituto de Tecnologia e Sociedade (ITS).
“Nós, humanos, estamos acostumados a dar credibilidade a uma linguagem escrita quando ela é apresentada de forma concatenada, com sentido e coerência. Tendemos a atribuir inteligência à essa capacidade.”
No entanto, para muitos pesquisadores, os grandes modelos de linguagem e o ChatGPT estão muito longe de uma inteligência remotamente parecida com a humana – o que não significa que seu uso irrestrito e descontrolado não traga inúmeros riscos.
Para entender tanto as preocupações quanto as limitações de aplicações como o ChatGPT é, primeiro, essencial compreender como elas funcionam. Veja mais abaixo.
Como o GPT e outros modelos de linguagem funcionam
As diferentes versões do GPT (a 4, mais poderosa que a anterior só está disponível para assinantes) são baseadas em grandes modelos de linguagem, nos quais o algoritmo “aprende” a procurar padrões estatísticos em grandes volumes de texto (o GPT3 foi treinado com mais de 170 bilhões de parâmetros) e, assim, a “adivinhar” qual seria a próxima palavra de uma frase.
É assim que ele é capaz de, tendo como base algum contexto, escrever respostas, poemas, histórias, e-mails, mensagens, canções e linhas de código com uma fluência muito próxima da humana.
Mas o algoritmo, é claro, não é humano: ele não entende o verdadeiro significado das palavras que escreve, não possui referenciais externos, não é capaz de distinguir fato de ficção e, muito menos, de raciocinar.
Ele “apenas” procura padrões e entrega a palavra que calcula ser a mais provável de aparecer em determinada sequência – o que é muito útil para resumir textos ou escrever e-mails simples, mas que também torna a tecnologia pouquíssimo confiável na hora de escrever sobre fatos reais ou solicitar referências acadêmicas (e isso mesmo quando integrada a buscadores on-line).
Um pesquisador mostrou como o GPT-4 integrado ao buscador Bing deu respostas fantasiosas sobre o colapso do Banco do Vale do Silício.
Initial plugin text
Outro mostrou como o Galactica, sistema da Meta retirado do ar pouco depois do lançamento, afirmou que Elon Musk morreu, em 2018, em um acidente com carros autônomos.
Initial plugin text
“Está no próprio DNA da ferramenta procurar o engano quando não tem uma informação que pareça coerente”, afirma Souza.
Esse funcionamento levou especialistas em inteligência artificial a definirem o GPT e seus similares como “pastiche” (cópia ou imitação do estilo de uma obra artística) ou “papagaios estocásticos” (estocásticos se refere, em probabilidade, a processos aleatórios).
Isso torna essas ferramentas muito distantes, portanto, de “mentes digitais ainda mais poderosas que ninguém, nem seus criadores, consegue entender, prever ou controlar de forma confiável”, como diz a carta aberta.
Inteligência medíocre, riscos enormes
O fato de as aplicações atuais não serem “superinteligentes” não as torna isentas de riscos.
Gary Marcus, professor emérito de psicologia e neurociência da Universidade de Nova York e fundador de empresas de inteligência artificial, resumiu ao explicar os motivos que o levaram a assinar a carta aberta:
“Eu não estou preocupado, imediatamente, com o risco de máquinas superinteligentes fora do nosso controle. No curto prazo, eu estou preocupado com o que vou chamar de ‘risco IAM’: ‘inteligência artificial medíocre’ que não é confiável (como o Bing e o GPT-4), mas amplamente aplicada – tanto em termos do número absoluto de pessoas utilizando-a, quanto em termos do acesso que o software tem ao mundo”.
A Agência da União Europeia para Cooperação Policial (Europol) produziu um relatório elencando os possíveis usos criminosos do ChatGPT, entre eles:
Fraude: “a capacidade de grandes modelos de linguagem de reproduzir padrões de linguagem pode ser usada para imitar o estilo de determinados indivíduos ou grupos. Essa capacidade pode ser usada em escala para levar vítimas potenciais a confiar em criminosos”.
Desinformação: “ChatGPT é excelente em produzir textos que soam autênticos em velocidade e escala. Isso faz dele o modelo ideal para propósitos de propaganda e desinformação ao permitir que os usuários gerem e espalhem mensagens que reflitam uma narrativa específica com relativamente pouco esforço”.
Crimes cibernéticos: “o ChatGPT é capaz de produzir códigos em diferentes linguagens de programação. Para um criminoso em potencial com pouco conhecimento técnico, isso é um recurso inestimável para produzir códigos maliciosos”.
Segundo a Europol, esses exemplos são apenas um “vislumbre do que é possível” para o aplicativo que pode, ainda, facilitar a “perpetração da desinformação, discurso de ódio e conteúdo terrorista online”.
Em um texto aberto sobre a carta, quatro pesquisadoras que cunharam o termo “papagaios estocásticos” para se referir aos grandes modelos de linguagem e que vêm apontando os riscos éticos e sociais associados a essa tecnologia, afirmam que os prejuízos desses sistemas já estão aí:
exploração de trabalhadores e roubo massivo de dados para criar produtos lucrativos para algumas poucas empresas;
explosão de mídia sintética, que reproduz sistemas de opressão e ameaça nosso ecossistema de informação;
concentração de poder na mão de poucos, o que exacerba as desigualdades.
Além de riscos objetivos para a segurança individual e coletiva e possíveis impactos em democracias e eleições, robôs conversadores podem ter outras consequências não previstas, como o sofrimento emocional de usuários.
É o caso, reportado pelo Washington Post, de pessoas que se apaixonaram ou desenvolveram fortes vínculos com chatbots da Replika até que uma atualização do software – realizada para coibir comportamentos sexuais agressivos reportados – mudou completamente suas relações com os robôs.
“Alguns textos são inofensivos. Mas outros entram no limiar do que seria eticamente aceitável ou até mesmo perigoso”, diz o especialista em inteligência artificial Eugenio Garcia.
Em outro caso recente, um jornal belga reportou que um homem se suicidou depois de conversar por semanas com um robô conversador, baseado no GPT-4, que escrevia mensagens carregadas de conteúdo emocional, com demonstrações de ciúme, paixão e promessas de uma vida juntos “no paraíso”.
“A inteligência de máquina produz conhecimento não humano. Quem atribui significado somos nós, e a nossa tendência é antropomorfizar. Você conversa com ela, pode ser um amigo, um amante. Já temos robôs humanoides, imagine integrar um chatbot a esses robôs. Daí o céu é o limite, não sabemos onde isso vai dar daqui a 10 anos”, afirma Garcia.
A pesquisadora americana Emily Bender, uma das autoras do texto aberto sobre a carta e mente por trás do termo “papagaios estocásticos”, costuma chamar atenção para a confusão que os LLMs produzem ao fazer seus usuários sentirem que os robôs são realmente inteligentes e emocionais – apesar de, como já explicado, eles só estarem calculando a probabilidade de uma determinada sequência de palavras.
“Por que essas companhias estão borrando a distinção entre o que é humano e o que é um modelo de linguagem? É isso que queremos?”, ela pergunta em uma reportagem da New York Magazine.
Segundo Gary Marcus, se essas aplicações fossem apresentadas em um formato menos próximo da linguagem humana, usuários teriam menos chance de desenvolver fortes vínculos emocionais.
“Outros riscos não diminuíram. Pessoas mal-intencionadas usando grandes modelos de linguagem para criar desinformação ou fraudes – nada disso desaceleraria”, explicou ele em entrevista ao g1, por e-mail.
Chatbot ChatGPT
Florence Lo/ Reuters
Segredos do presente, incertezas do futuro
A velocidade com que essas aplicações estão sendo desenvolvidas também é fator de preocupação e um desafio para os reguladores.
Semanas depois de lançar gratuitamente o ChatGPT, baseado no sistema GPT-3, a startup OpenAI disponibilizou, para assinantes, uma nova atualização do sistema, o GPT-4.
Depois disso, as autoridades europeias, que passaram os últimos cinco anos discutindo uma lei geral para inteligência artificial, tiveram de voltar à prancheta.
“Se a lei tivesse sido adotada no ano passado, já estaria defasada”, afirma Eugenio Garcia. “Isso não significa que vamos deixar de tentar disciplinar esse ambiente. Estamos entrando no limiar da falta de controle, é como se estivesse abrindo uma caixa de Pandora.”
Enquanto isso, Agência de Proteção de Dados da Itália decidiu bloquear temporariamente o ChatGPT por violações das regras de coleta de dados e por não disponibilizar nenhum filtro de verificação de idade dos usuários (o robô é destinado para usuários de 13 anos ou mais).
Como outras empresas do ramo, a OpenAI, que criou o ChatGPT, é pouquíssimo transparente sobre seus modelos.
No documento que acompanhou o lançamento do GPT-4, a empresa afirma publicamente que não fornecerá detalhes sobre a arquitetura (incluindo o tamanho do modelo), hardware (por exemplo, quais os processadores foram usados), construção da base de dados e método de treinamento do sistema.
Os motivos? Segundo a própria empresa: implicações de segurança e a competitividade no setor.
Relatório da OpenAI sobre o GPT-4 mostra que a empresa não fornecerá detalhes sobre vários aspectos da ferramenta, por causa da “paisagem competitiva e das implicações de segurança”.
Reprodução
São muitas as empresas – gigantes como a Meta e pequenas como a OpenAI – disputando para desenvolver melhor e mais rapidamente inteligências artificiais (e ganhar dinheiro com isso, claro).
Mas o fato de ser uma corrida não deveria ser licença para vale-tudo. Em uma analogia simples: durante a pandemia, diferentes laboratórios também correram para desenvolver vacinas contra a Covid-19. Isso não significou, no entanto, que as vacinas tenham chegado à população sem passar por inúmeros testes em diferentes escalas, parâmetros de segurança, revisão independente e liberação por agências reguladoras governamentais.
“Todas as coisas importantes na sociedade têm algum tipo de regulação para simplesmente garantir que seja seguro”, diz Garcia. “A mentalidade deveria ser: mova-se devagar e não quebra nada.”
Carlos Affonso de Souza, do Instituto de Tecnologia e Sociedade, lembra que vários órgãos internacionais já elaboraram recomendações de boas práticas para garantir segurança e responsabilidade desde o momento em que a plataforma é concebida até o lançamento, como auditorias externas e ciclos de testagem.
Menos, claro, é quem fiscalizará tudo isso.
“Não temos estruturas de governança de Inteligência Artificial tão aperfeiçoadas a ponto dessas práticas serem amplamente adotadas. Por isso, a carta sugere a moratória de seis meses”, explica Souza.
Enquanto isso, as empresas fazem o que querem, sem nenhuma exigência de contrapartida ou garantias de segurança. E pior: em um contexto de demissões em massa que cortaram, inclusive, as equipes dedicadas à ética das inteligências artificiais, como noticiou o jornal britânico Financial Times.
“Se a OpenAI teve tamanha expertise para desenvolver o melhor chatbot que a gente já viu, como ela também não enveredou esforços para criar uma ferramenta, uma marca d’água, um identificador que pudesse identificar quais são os textos produzidos pelo chat?”, questiona Souza.
“Lançar sem isso é fazer com que as pessoas se enganem. Me parece óbvio que uma ferramenta com esse potencial devia ser lançada com um manual de instrução e salvaguarda. É o mínimo.”
Inteligência artificial: entenda por que cientistas estão preocupados com avanço rápido da tecnologia
VÍDEOS: notícias de Tecnologia

Fonte: G1_Tecnologia

Tags: No tags

Add a Comment

Your email address will not be published. Required fields are marked *