Por Alessandra Monterastelli, Outras Palavras.
Cientistas já estão usando o ChatGPT, nova ferramenta de Inteligência Artificial (IA) desenvolvida no final de 2022. A tecnologia é um chatbot – programa com capacidade de entender e redigir textos, simulando um diálogo humano – que vem chamando a atenção devido à capacidade impressionante de compreensão e articulação de suas respostas. O ChatGPT é a melhora da linguagem conhecida como GPT-3, IAs classificadas como Large Language Models (LLM) e foi desenvolvido pela OpenAI, empresa norte-americana sem fins lucrativos que conduz pesquisas envolvendo inteligência artificial.
Leia mais: Lula vai reajustar bolsas de pós-graduação
Em dezembro, apenas um mês após seu lançamento, a ferramenta já começou a ser testada por cientistas e pesquisadores. Entrevistados pela revista Nature, os biólogos computacionais Casey Greene e Milton Pividori, da Universidade da Pensilvânia, na Filadélfia, testaram o novo chatbot como assistente. Os resultados foram impressionantes: sugestões de revisão precisas para documentos foram feitas em segundos – foi encontrado, em questão de minutos, um erro de referência em uma importante equação.
A produção de textos fluentes e convincentes, seja para produzir prosa, poesia, códigos de computador ou – como no caso dos cientistas – para editar artigos de pesquisa, já é uma atividade realizada pela IA. “Isso nos ajudará a aumentar a produtividade enquanto pesquisadores”, afirmou Pividori, à Nature. Outros cientistas entrevistados pela revista, como Hafsteinn Einarsson, da Universidade da Islândia, afirmaram que a ferramenta está sendo utilizada também para “debater ideias”. Einarsson afirmou que usa o ChatGPT para escrever slides de apresentação e provas para alunos, além de converter teses em trabalhos. “Muitas pessoas já estão usando [o ChatGPT] como secretária ou assistente digital”, disse. O Núcleo Interinstitucional de Linguística Computacional (Nilc) da USP afirmou que o ChatGPT é “a mais nova evidência de inovações com potencial disruptivo que a inteligência artificial pode trazer no futuro, com potencial de alterar drasticamente a maneira pela qual interagimos com as máquinas”.
Há poucos meses de seu lançamento, a OpenAI já trabalha na monetização do recurso: a empresa do Vale do Silício anunciou um serviço que, por 20 dólares por mês, garante tempos de resposta mais rápidos e acesso prioritário a novos recursos do ChatGPT – que, além das funções já descritas, também pode conversar com chatbots de outras empresas para negociar preços de produtos, por exemplo. Apesar da OpenAI ser uma organização sem fins lucrativos, ela recebe investimentos de grandes corporações – entre elas a Microsoft, que já anunciou um novo repasse estimado em cerca de 10 bilhões de dólares. Outras Big Techs, como a Google, investem na construção de suas próprias LLMs – em setembro a DeepMind, subsidiária da empresa, publicou um artigo sobre o “agente de diálogo” Sparrow, que deverá ser lançada ainda neste ano de forma privada e que incluiria a capacidade de citar fontes em seus textos.
Apesar do potencial da ferramenta, outros especialistas levantam preocupações sobre seu desenvolvimento e utilização. A primeira delas, debatida por entidades como a Estratégia Latino-Americana de Inteligência Artificial (ELA-IA), é quem está produzindo essa tecnologia – e com que finalidade, visto que expectativas de lucro podem ir na contramão de necessidades sociais reais. “Se você acredita que essa tecnologia tem potencial para ser transformadora, acho que deveria ficar preocupado”, declarou Casey Greene, da Escola de Medicina da Universidade do Colorado. Ela, assim como outros pesquisadores, acredita que tudo dependerá de como futuras diretrizes irão restringir o uso dos chatbots – e que essa IA pode ser promissora, desde que seja supervisionada por humanos. Outros especialistas ouvidos pela Nature afirmam que os LLMs não são confiáveis para responder perguntas e que respostas equivocadas já foram identificadas. O fim do limite entre o que foi redigido pelo cérebro humano e por uma máquina também está no centro das preocupações dos cientistas.
A falta de confiabilidade está diretamente relacionada com a própria construção do ChatGPT e seus similares, que trabalham aprendendo e memorizando padrões estatísticos da linguagem em enormes bancos de dados de texto online – podendo incluir, inclusive, inverdades e preconceitos. Quando os LLMs recebem instruções de seus utilizadores, cospem, por assim dizer, palavra por palavra para montar uma conversa estilisticamente plausível. O resultado é que os LLMs facilmente produzem erros e informações enganosas, principalmente para tópicos técnicos sobre os quais eles podem ter poucos dados para treinar – mas escritas de forma persuasiva. Outro dado preocupante é que essas ferramentas não podem mostrar as origens de suas informações. “Não se pode confiar na ferramenta para obter fatos corretos ou produzir referências confiáveis”, decretou um editorial de janeiro do ChatGPT na revista Nature Machine Intelligence. Existe o perigo, por exemplo, que os chatbots repliquem ideias sobre o mundo de acordo com os dados utilizados para o seu treinamento, como a superioridade de determinadas culturas e sistemas. Shobita Parthasarathy, especialista em tecnologia e políticas públicas na Universidade de Michigan, relembra que as empresas responsáveis pelo desenvolvimento dessas IAs estão em países ricos, principais exportadores de determinada cultura e estilo de vida, e portanto podem não se esforçar o necessário para superar preconceitos sistêmicos.
Outra questão impossível de ignorar é como o ChatGPT se relaciona com o mundo do trabalho. Para além do receio de desemprego a longo-prazo, devido à substituição de atividades humanas por máquinas, algumas situações trabalhistas já estão ocorrendo no próprio desenvolvimento da IA. Para regular o ChatGPT, a OpenAI precisou contratar moderadores humanos incumbidos de rotular discursos tóxicos ou preconceituosos. Mas as notícias são de que esses trabalhadores foram mal remunerados. A exploração também foi apontada dentro de empresas de mídia social que contrataram pessoas para treinar bots automatizados.
Alguns pesquisadores defendem que os acadêmicos devem se recusar a apoiar LLMs comerciais desenvolvidos por grandes empresas tecnológicas. Além de problemas como preconceito, preocupações com a segurança e trabalhadores explorados, esses algoritmos também exigem uma grande quantidade de energia para treinar – o que vem levantando questionamentos: estariam as Big Techs levando em conta o impacto ecológico? Muito provavelmente, não. Definir limites para essas ferramentas através da lei, para esses especialistas, será crucial.