Imagine que a inteligência artificial sabe o que faz? Pesquisadores afirmam: repense isso.

"Imagine que a inteligência artificial 'sabe' o que faz? Pesquisadores afirmam: repense isso."


Pensar, saber, entender, lembrar.

Essas são palavras do dia a dia que as pessoas usam para descrever o que acontece na mente humana. Mas quando esses mesmos termos são aplicados à inteligência artificial, podem, inadvertidamente, fazer com que as máquinas pareçam mais humanas do que realmente são.

“Usamos verbos mentais o tempo todo em nossas vidas diárias, então faz sentido que também possamos usá-los ao falar sobre máquinas — isso nos ajuda a nos relacionar com elas,” disse Jo Mackiewicz, professor de Inglês na Iowa State. “Mas, ao mesmo tempo, quando aplicamos verbos mentais às máquinas, também há o risco de confundir a linha entre o que os humanos e a IA podem fazer.”

Mackiewicz e Jeanine Aune, professora de Inglês e diretora do programa de comunicação avançada na Iowa State, fazem parte de uma equipe de pesquisa que estudou como os escritores descrevem a IA usando linguagem semelhante à humana. Esse tipo de redacção, conhecido como antropomorfismo, atribui características humanas a sistemas não humanos. O estudo deles, “Antropomorfizando a Inteligência Artificial: Um Estudo de Corpus sobre Verbos Mentais Usados com IA e ChatGPT,” foi publicado na Technical Communication Quarterly.

A equipe de pesquisa também incluiu Matthew J. Baker, professor associado de linguística na Brigham Young University, e Jordan Smith, professor assistente de Inglês na Universidade do Norte do Colorado. Ambos estudaram anteriormente na Iowa State University.

Por que a Linguagem Semelhante à Humana Sobre IA Pode Ser Enganosa

De acordo com os pesquisadores, usar verbos mentais para descrever a IA pode criar uma impressão falsa. Palavras como “pensar,” “saber,” “entender,” e “querer” sugerem que um sistema possui pensamentos, intenções ou consciência. Na realidade, a IA não possui crenças ou sentimentos. Ela produz respostas analisando padrões em dados, não formando ideias ou tomando decisões conscientes.

Mackiewicz e Aune também ressaltaram que esse tipo de linguagem pode exagerar o que a IA é capaz de fazer. Frases como “a IA decidiu” ou “o ChatGPT sabe” podem fazer com que os sistemas pareçam mais independentes ou inteligentes do que realmente são. Isso pode levar a expectativas irreais sobre quão confiável ou capaz a IA é.

Há também uma preocupação mais ampla. Quando a IA é descrita como se tivesse intenções, isso pode desviar a atenção das pessoas por trás dela. Desenvolvedores, engenheiros e organizações são responsáveis por como esses sistemas são construídos e utilizados.

“Certas frases antropomórficas podem até ficar na mente dos leitores e potencialmente moldar a percepção pública da IA de maneiras não úteis,” disse Aune.

Como Os Escritores de Notícias Usam a Linguagem Sobre IA

Para entender melhor com que frequência esse tipo de linguagem aparece, os pesquisadores analisaram o corpus News on the Web (NOW). Este enorme conjunto de dados contém mais de 20 bilhões de palavras de artigos de notícias em inglês publicados em 20 países.

Eles se concentraram em quão frequentemente verbos mentais como “aprende,” “significa,” e “sabe” eram usados juntamente com termos como IA e ChatGPT.

Os achados foram inesperados.

Verbos Mentais São Menos Comuns Do Que o Esperado

O estudo descobriu que os escritores de notícias não costumam emparelhar termos relacionados à IA com verbos mentais.

Embora o antropomorfismo seja comum na fala do dia a dia, ele aparece muito menos frequentemente na redação jornalística. “O antropomorfismo tem se mostrado comum na fala cotidiana, mas descobrimos que seu uso é muito menor na redação de notícias,” disse Mackiewicz.

Entre os exemplos identificados, a palavra “precisa” apareceu com mais frequência com IA, aparecendo 661 vezes. Para o ChatGPT, “sabe” foi o par mais frequente, mas apareceu apenas 32 vezes.

Os pesquisadores observaram que os padrões editoriais podem influenciar. As diretrizes da Associated Press, que desencorajam a atribuição de emoções ou traços humanos à IA, podem estar influenciando como os jornalistas escrevem sobre essas tecnologias.

O Contexto Importa Mais Do Que as Próprias Palavras

Mesmo quando verbos mentais eram usados, eles nem sempre eram antropomórficos.

Por exemplo, a palavra “precisa” frequentemente descrevia requisitos básicos em vez de características semelhantes às humanas. Frases como “a IA precisa de grandes quantidades de dados” ou “a IA precisa de alguma assistência humana” são semelhantes à forma como as pessoas descrevem sistemas não humanos, como carros ou receitas. Nesses casos, a linguagem não implica que a IA tenha pensamentos ou desejos.

Em outros casos, “precisa” era usada para expressar o que deveria ser feito, como “a IA precisa ser treinada” ou “a IA precisa ser implementada.” Aune explicou que esses exemplos eram frequentemente escritos na voz passiva, o que devolve a responsabilidade a atores humanos, em vez da tecnologia em si.

O Antropomorfismo Existe em um Espectro

O estudo também mostrou que nem todos os usos de verbos mentais são iguais. Algumas frases se aproximam mais da sugestão de qualidades humanas.

Por exemplo, afirmações como “a IA precisa entender o mundo real” podem implicar expectativas ligadas ao raciocínio humano, ética ou consciência. Esses usos vão além de descrições simples e começam a sugerir capacidades mais profundas.

“Esses casos mostraram que a antropomorfização não é tudo ou nada e, em vez disso, existe em um espectro,” disse Aune.

Por Que as Escolhas Linguísticas Sobre a IA Importam

No geral, os pesquisadores descobriram que o antropomorfismo na cobertura da notícias é tanto menos frequente quanto mais nuançado do que muitos podem supor.

“No geral, nossa análise mostra que a antropomorfização da IA na redação de notícias é muito menos comum — e muito mais nuançada — do que podemos pensar,” disse Mackiewicz. “Mesmo as instâncias que antropomorfizavam a IA variaram amplamente em força.”

Os achados destacam a importância do contexto. Contar palavras simplesmente não é suficiente para entender como a linguagem molda o significado.

“Para os escritores, esse nuance importa: a linguagem que escolhemos molda como os leitores entendem os sistemas de IA, suas capacidades e os humanos responsáveis por eles,” disse Mackiewicz.

A equipe de pesquisa também enfatizou que esses insights podem ajudar profissionais a refletir mais cuidadosamente sobre como descrevem a IA em seu trabalho.

“Nossos achados podem ajudar técnicos e comunicadores profissionais a refletir sobre como pensam nas tecnologias de IA como ferramentas em seu processo de escrita e como escrevem sobre IA,” escreveu a equipe de pesquisa no estudo publicado.

À medida que a IA continua a se desenvolver, a forma como as pessoas falam sobre ela permanecerá importante. Mackiewicz e Aune disseram que os escritores precisarão manter a atenção sobre como as escolhas de palavras influenciam a percepção.

Olhando para o futuro, a equipe sugeriu que estudos futuros poderiam explorar como diferentes palavras moldam a compreensão e se até mesmo o uso raro de linguagem antropomórfica tem um forte impacto na forma como as pessoas veem a IA.

Nuno Martins Craveiro, jornalista de 42 anos, é o responsável pela estratégia e coordenação de conteúdos da axLisboa.pt. Com uma visão abrangente e rigorosa, supervisiona as diversas áreas editoriais do site, que abrangem desde a atualidade local e nacional até à economia, desporto e ciência.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

axLisboa.pt
Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.