Jornalistas, vamos ter cuidado com a linguagem que usamos ao escrever ou falar sobre IA, Vauhini Vara
Tradução de um fio no Bluesky de Vauhini Vara. Soube deste fio por este post da Emily M. Bender, que escreveu: “Concordo plenamente com tudo isso”.
Os grifos são meus.
– INÍCIO DA TRADUÇÃO –
Jornalistas, vamos ter cuidado com a linguagem que usamos ao escrever ou falar sobre IA. Aqui está um tópico — Emily M. Bender, sei que você também presta atenção nisso, então fique à vontade para dar sua opinião.
As pessoas não “colaboram” com produtos de IA mais do que colaboram com qualquer outro produto — essa é uma linguagem que as empresas de tecnologia usam, mas nós não devemos usar.
Por falar nisso: considere referir-se ao ChatGPT, ao Gemini, ao Claude e outros como “produtos” ou “aplicativos”, em vez de “ferramentas”; o último termo tende a obscurecer sua relação com as empresas por trás deles e dá a impressão de que existem apenas para nos ajudar.
Não pergunte a chatbots de IA como eles funcionam e não trate o resultado — ou, pior ainda, compartilhe-o com os leitores — como um fato; faça essas perguntas a pessoas com experiência e conhecimento. Chatbots não têm autoconsciência, e seus resultados podem estar errados.
Por falar nisso — quando os chatbots de IA cometem erros, chamem-nos pelo que são: erros, falhas, imprecisões. “Alucinações” é um termo desnecessariamente técnico que antropomorfiza os chatbots.
Outro dia, no rádio, ouvi alguém se referir aos “nossos” chatbots — como se cada um de nós tivesse seus próprios chatbots como amigos ou assistentes pessoais. Mas, é claro, não somos donos da tecnologia por trás desses produtos — quem os possui são as grandes empresas de tecnologia.
– FIM DA TRADUÇÃO –
Grupo no Signal para discutir críticas à Inteligência Artificial #
Feedback e ajuda #
Quer comentar? Manda um e-mail para adolfo @ utfpr.edu.br ou me manda mensagem no Bluesky.
Sou coordenador da Rede Emílias de Podcasts
Quer ajudar os podcasts ou me ajudar a ir a eventos?