Skip to main content

Já passamos por isso antes! Como assim?, por Olivia Guest

·3 mins

Tradução parcial de “We’ve been here before!”, de Olivia Guest, 18 de fevereiro de 2026.

– INÍCIO DA TRADUÇÃO –

Sem dúvida já passamos por isso antes. Muitas e muitas vezes no passado, empresas — assim como as empresas de inteligência artificial (IA) de hoje — mentiram para nós para nos vender produtos. Não só não há motivo para supor que o setor de IA seja diferente, como há, na verdade, muitos indícios de que elas estão nos enganando conscientemente. Para entender isso, dê uma olhada neste excelente relatório intitulado “Lições tardias de alertas precoces: ciência, precaução, inovação”, da Agência Europeia do Meio Ambiente (EEA):

O relatório “Late Lessons from Early Warnings” de 2013 é o segundo do gênero elaborado pela Agência Europeia do Ambiente (EEA) em colaboração com um amplo leque de autores externos e revisores. Os estudos de caso presentes nos dois volumes de “Late Lessons from Early Warnings” abrangem uma gama diversificada de inovações químicas e tecnológicas e destacam uma série de problemas sistêmicos. O “Projeto Late Lessons” ilustra o quão prejudicial e oneroso pode ser o uso indevido ou a negligência do princípio da precaução, utilizando estudos de caso e uma síntese das lições a serem aprendidas e aplicadas para maximizar as inovações e, ao mesmo tempo, minimizar os danos.

Além disso, existem padrões bem conhecidos do nosso pensamento que são afetados pela interação com certas máquinas. Como Brian P. Bloomfield (1987, p. 72) explicou há quatro décadas:

Embora a opacidade seja uma característica distintiva de muitas outras áreas da ciência e da tecnologia, os mitos que cercam a computação podem decorrer menos do fato de se tratar de um assunto opaco e esotérico e mais da maneira como ela parece esbater a fronteira entre pessoas e máquinas (Turkle 1984). É certo que a maioria das pessoas não compreende o funcionamento de um aparelho de televisão ou como programar corretamente seus gravadores de vídeo, mas, por outro lado, elas geralmente não acreditam que essas máquinas possam ter inteligência. Os mitos populares sobre a computação e a IA também se devem, sem dúvida, à forma como os computadores são frequentemente retratados na mídia de massa — por exemplo, como uma fonte abstrata de sabedoria ou como um cérebro mecânico.

Para uma análise detalhada e mais exemplos, consulte:

Guest, O., Suarez, M., Müller, B., et al. (2026). Against the Uncritical Adoption of ‘AI’ Technologies in Academia. Digital Culture & Education. https://doi.org/10.5281/zenodo.20082828

Outro aspecto relacionado — descrito por Valentina Ponomareva (1998) — é que:

É impossível criar um sistema automático absolutamente confiável e, mais cedo ou mais tarde, as pessoas se veem na necessidade de agir quando o equipamento falha. […] Se o cosmonauta perder essas habilidades devido ao [seu] papel passivo [por estar normalmente limitado apenas ao monitoramento e à observação], a probabilidade de [ele] escolher e executar o procedimento correto em uma emergência seria baixa. Essa contradição é inerente aos sistemas de controle automático.

Para saber mais sobre esse aspecto da IA, consulte:

Guest, O. (2026). What Does ‘Human-Centred AI’ Mean?. Behavioral Sciences. https://doi.org/10.3390/bs16040583

– FIM DA TRADUÇÃO –

O texto continua em https://olivia.science/before/.

Grupo no Signal para discutir críticas à Inteligência Artificial #

Grupo no Signal

Feedback e ajuda #

Quer comentar? Manda um e-mail para adolfo @ utfpr.edu.br ou me manda mensagem no Bluesky.

Sou coordenador da Rede Emílias de Podcasts

Quer ajudar os podcasts ou me ajudar a ir a eventos?

Recursos #