‘Risco da IA está em como ela vai afetar a liberdade de escolha’

Por Bruno Romani | OESP*

ROGER SPITZ Ceo do Disruptive Futures Institute, é futurista e consultor de riscos em cenários imprevisíveis para empresas e governos

Para especialista, delegar decisões complexas à inteligência artificial pode ser perigoso.

Nos últimos anos, o avanço da inteligência artificial (IA) levantou preocupações sobre o risco que a tecnologia representa para a humanidade – e os cenários discutidos parecem distopias retratadas na ficção científica. Para o sul-africano Roger Spitz, o perigo é bem mais sutil e bem mais próximo da realidade: a capacidade da tecnologia de afetar a liberdade de escolha.

Spitz é CEO do Disruptive Futures Institute, futurista e quase um filósofo da tecnologia: sua principal função é apontar como organizações devem navegar pelas transformações que estão por vir e refletir sobre seus impactos. Mas, mesmo para quem vive de olhar para frente, nunca foi tão difícil ter certezas. Em conversa com o Estadão, ele explica como a tecnologia ajuda a tornar complexos e não lineares cenários futuros. A seguir, os principais trechos da entrevista.

O sr. cunhou o termo ‘tecexistencialismo’ para tratar das implicações existenciais da tecnologia. Como esse conceito se conecta com governos e cidadãos, especialmente na era da IA?

Tecexistencialismo é uma palavra que inventei, em parte, porque estou interessado em filosofia existencialista, como Camus, Heidegger, Kierkegaard.

Nela, a tomada de decisão era exclusivamente humana. O tecexistencialismo é como o existencialismo 2.0. No século 21, a tomada de decisão humana e algorítmica não são mais separáveis. Então, é quase uma condição existencial e tecnológica, é a existência em um mundo tecnológico. A questão é o quanto permitimos que os algoritmos subam na cadeia de valor da tomada de decisão. O desafio é o seguinte: você tem áreas onde os algoritmos podem ser úteis, o que chamamos de domínios complicados. Você tem incógnitas conhecidas. É linear, portanto, previsível. E há uma variedade de respostas corretas. Você pode confiar em especialistas, e aqui a IA é muito poderosa. É como a descoberta de medicamentos com plataformas de IA, porque você pode ter reconhecimento de padrões em escala, e há uma variedade de respostas corretas. Requer as salvaguardas certas, mas tem utilidade. Porém, existem o que chamamos de domínios complexos. Você tem incógnitas desconhecidas, elas não são lineares, portanto, são assimétricas. Isso pode ser bom, pode ser ruim, mas é não linear, o que significa que é imprevisível, você não tem uma variedade de respostas corretas. Duas coisas acontecem quando você delega a máquinas a tomada de decisão em domínios complexos e imprevisíveis: uma é que não há dados sobre o futuro, e a IA não é melhor em adivinhar ou prever o que é imprevisível. Ela não pode fazer isso melhor do que os humanos. Porém, mais importante ou igualmente importante, é que nós, humanos, estamos ficando menos qualificados, nos tornando menos versáteis em dar sentido e tomar decisões. O perigo, voltando ao tecexistencialismo, é que os humanos estão se tornando mais parecidos com máquinas, apenas automatizando.

A IA é usada em domínios lineares há algum tempo. Mas nos últimos anos está se movendo em direção aos domínios complexos. É algo necessariamente ruim?

Há uma série de coisas que precisam ser gerenciadas e compreendidas em relação à IA, mas eu não diria que há algo errado. Temos desafios complexos no mundo, e por que não usar máquinas para isso. Mas há um problema que é duplo. Um é delegar esses resultados de decisão à exclusão de outras coisas. Estamos contando com isso como uma espécie de solução utópica, e o risco de fazer isso é ignorar caminhos alternativos. O segundo risco é que, quanto mais você faz isso em detrimento do nosso próprio pensamento e criatividade, maior é o risco de nos tornarmos menos hábeis na resolução desses desafios. A natureza desses problemas é dinâmica, emergente, múltipla em ambientes não lineares. Você não pode permitir que a humanidade delegue inteiramente a resolução às máquinas.

Nos últimos dois anos, tem havido conversas sobre as ameaças existenciais da IA, com cenários que soam como ficção científica. De que maneiras o sr. considera que a IA pode ser um problema para a humanidade?

“Se você pegar biotecnologia e o que ela é capaz, é (um risco) mais recente. Se pegar os efeitos do clima, que estão atingindo pontos de inflexão, é algo recente. Se está olhando para os impactos da IA, é algo recente. Estes são riscos existenciais em que cada um, por si só, pode causar estragos muito significativos, incluindo a extinção”

Muitas das narrativas, tanto de empresas e centros de tecnologia quanto da mídia, estão focadas em cenários binários, entre distopia e utopia. Ou vai salvar o mundo, ou vai ser um resultado distópico. Acho que a expressão risco existencial foi ligeiramente sequestrada para significar uma coisa específica, que é o risco de extinção humana. Para mim, risco existencial também tem um impacto na agência e liberdade de escolha. E, portanto, qualquer coisa que esteja se movendo para restringir nossa capacidade de exercer essa agência, liberdade e escolha, é um risco existencial. Mais perigosa é a ideia de Black Mirror, em que é tão familiar que, na verdade, poderia ser hoje. É tangível. Está lá, e estamos ignorando. Um exemplo: o sistema educacional e as estruturas de incentivo não estão ajustados ao mundo de hoje da IA, em que você precisa de pensamento crítico, de julgamento, você precisa exercer liberdade, agência e escolha, precisa reconhecer o que é a verdade. Aprender sobre isso é tão importante quanto aprender um idioma ou matemática.

O sr. considera necessário regulamentar a IA?

A resposta curta é sim. Claro que é preciso pensar na regulamentação, mas os desafios são muitos, você não pode abordálos com soluções pontuais, pois ela pode não alcançar os resultados que se deseja. Você pode ter consequências inesperadas ou perversas. Você pode ter maneiras de contornálas. Você pode ter outras implicações. Em nossos sistemas complexos, e a tecnologia é um sistema complexo, você não pode confiar exclusivamente na tecnologia como uma solução pontual. E não tenho certeza se realmente entendemos essas tecnologias, não apenas os legisladores. Talvez precisemos reinventar a educação, reinventar como as pessoas pensam sobre a verdade, a realidade, sua própria agência. E talvez isso não aconteça apenas por meio da regulamentação. Então há muito que pode ser feito que talvez não dependa da legislação, no qual também devemos estar pensando como sociedade.

A tecnologia tem papel na construção de um mundo multipolar ou ela é um instrumento desse mundo?

A tecnologia tem dois ou três papéis em relação a essa pergunta. O primeiro é simplesmente a facilidade com que se pode alcançar e competir por influência como ator estatal ou não estatal de uma forma assimétrica. Em outras palavras, você pode ter um garoto de 16 anos nos arredores de Moscou que pode ter armas de desinformação em massa. Isso é muito poderoso. Por que as eleições em diversos países são quase sempre divididas? A desinformação tem um papel nisso. A segunda coisa é que você tem o que (o consultor) Parag Khanna chama de cortina de silício. Então, durante a analogia com as guerras frias, você está chegando a batalhas de tecnologia entre código aberto, código fechado, Vale do Silício e tecnologia chinesa. Então, você tem cortinas de silício e uma espécie de guerra fria nesse ambiente. E a terceira coisa é que, se você pegar alguns dos riscos existenciais, como biotecnologia e IA, ambos estão relacionados à tecnologia. Tudo isso aprimora a multipolarização, porque torna mais fácil para esses atores convencer e impulsionar sua influência e suas narrativas e visões de mundo.

Há paralelo na história de desenvolvedores de tecnologia com um papel de imenso poder global, como ocorre hoje com as big techs? Isso é algo que te preocupa?

O que eu acho que o mundo não está enfatizando o suficiente é que é a primeira vez que a humanidade se depara com uma série de riscos existenciais individuais que podem interagir e se combinar sem uma ordem mundial. Porque, se você pega o risco nuclear, é pós-Segunda Guerra Mundial. Mas, se você pegar biotecnologia e o que ela é capaz, é mais recente. Se pegar os efeitos do clima que estão atingindo pontos de inflexão, é algo mais recente. Se você está olhando para os impactos da IA, é algo recente. Estes são riscos existenciais em que cada um, por si só, pode causar estragos muito significativos, incluindo a extinção.

*Estado de São Paulo, https://digital.estadao.com.br/o-estado-de-s-paulo/20251019, 17/10/2025

 

AN
× clique aqui e fale conosco pelo whatsapp