Acima, um ícone de ilustração gerada por IA de um cérebro humano composto de circuitos, representando ...

A ficção científica alertava que a IA poderia acabar com a humanidade... Em breve descobriremos se isso é possível

Empresas de tecnologia de inteligência artificial afirmam que máquinas mais inteligentes do que nós e capazes de ter suas próprias agendas estão prestes a se tornar realidade.

Acima, um ícone de ilustração gerada por IA de um cérebro humano composto de circuitos, representando justamente a inteligência artificial.

Foto de Domínio público
Por Maddie Stone
Publicado 24 de fev. de 2026, 16:15 BRT

Mais de 50 anos antes de o ChatGPT (ou qualquer outro chatbot) poder dizer o que você deve cozinhar para o jantar, um filme de ficção científica de 1968 já moldava a forma como pensamos sobre máquinas que conversam conosco.

No clássico “2001: Uma Odisseia no Espaço”, de Stanley Kubrick, uma espaçonave rumo a Júpiter é controlada por HAL, um computador que pensa por si mesmo e tem sua própria agenda. Conforme o filme avança, HAL para de cooperar com os astronautas humanos que foi programado para auxiliar e, eventualmente, desliga seus sistemas de suporte à vida.

HAL plantou uma ideia no imaginário popular: que um dia, nossas máquinas se tornarão tão inteligentes — e tão semelhantes a humanos — que, talvez, não seremos mais capazes de controlá-las. Nunca deixamos de acreditar nessa possibilidade. 

Com o recente surgimento de programas de IA generativa capazes de escrever conversas, produzir imagens vívidas e executar inúmeras tarefas para nós, alguns especialistas em tecnologia acreditam que possivelmente as máquinas superinteligentes da ficção científica estão logo ali.

Mas, embora as capacidades de chatbots como o ChatGPT da OpenAI e o Gemini do Google sejam impressionantes, será que essas tecnologias são realmente um passo em direção a personagens como Data, da franquia Star Trek, ou do carismático robô C-3PO, da saga Star Wars, ou, de forma mais sinistra, como dos robõs retratados nos filmes de O Exterminador do Futuro?

"Esse é o grande debate", afirma Melanie Mitchell, professora do Instituto Santa Fé que estuda a inteligência tanto em máquinas quanto em humanos.

Alguns especialistas dizem que é apenas uma jogada de marketing da indústria tecnológica. Mas outros já acreditam que máquinas que superam a inteligência humana em muitas métricas importantes, enquanto perseguem seus próprios objetivos — incluindo a autopreservação à custa da vida humana — estão mais próximas do que o público imagina.

O robô/o droide C-3PO com Luke Skywalker, ambos personagens da saga Star Wars.

O robô/o droide C-3PO com Luke Skywalker, ambos personagens da saga Star Wars.

Foto de Divulgação Disney e Star Wars

A inteligência artificial dos filmes de ficção científica x ChatGPT e outros aplicativos de IA


O termo “inteligência artificial” evoca alguns temas-chave. Na ficção científica, vemos IAs conscientes e autônomas, como HAL, de 2001: Uma Odisseia no Espaço. Vemos máquinas com emoções, como a personagem Samantha, a assistente de IA que se apaixona por um ser humano no filme Ela, de 2013, e C-3PO, o adorável e ansioso droide de protocolo presente na saga Star Wars. Vemos IAs indistinguíveis de humanos, como os replicantes dos filmes Blade Runner. E vemos também máquinas que querem nos matar.

É com esses personagens de ficção científica em mente que estamos tentando compreender o que significa viver na era da IA. Hoje, as chamadas ferramentas de IA podem compor músicas cativantes, escrever textos convincentes e discutir com empatia seus problemas de relacionamento, para citar apenas algumas possibilidades.

Mas Emily Bender, linguista computacional da Universidade de Washington, nos Estados Unidos e autora de "The AI ​​Con", argumenta que elas compartilham pouco mais do que um nome chamativo com as IAs pensantes e sensíveis da ficção científica.

"O que as empresas querem dizer quando falam em IA é 'investidores de risco, por favor, nos deem dinheiro'", afirma Bender. "Não se refere a um conjunto coerente de tecnologias."

mais populares

    veja mais
    Com computadores e processadores cada vez mais potentes, muitos se perguntam quando alcançaremos os níveis de ...

    Com computadores e processadores cada vez mais potentes, muitos se perguntam quando alcançaremos os níveis de inteligência artificial que antes víamos na ficção científica.

    Foto de Spencer Lowell, Nat Geo Image Collection

    Podemos chegar ao HAL 9000?


    Se as ferramentas de IA generativa de hoje se assemelham mais a uma versão sofisticada do recurso de autocompletar do que a um HAL 9000, será que elas poderiam eventualmente levar ao tipo de IA que vemos na ficção científica?

    Só que é impossível saber se as máquinas algum dia desenvolverão autoconsciência. "Não entendemos como isso surge em nossa própria cognição", diz Mitchell.

    Mas muitos especialistas argumentam que as ferramentas de IA não precisam ser sencientes para serem disruptivamente inteligentes. Modelos de última geração já superam humanos em diversas métricas e tarefas cognitivas, incluindo matemática, programação e reconhecimento de padrões em grandes conjuntos de dados. E esses modelos estão em constante aprimoramento.

    "Em todos os benchmarks que criamos, eles estão ficando cada vez melhores", afirma Yoshua Bengio, professor da Universidade de Montreal, no Canadá, pioneiro na área de aprendizado profundo e fundador da organização sem fins lucrativos LawZero, voltada para a segurança da IA.

    Porém, existem áreas em que a cognição das máquinas ainda está muito aquém da dos humanos. A capacidade de planejamento dos sistemas de IA está atualmente "no nível de uma criança", afirma Bengio, embora ele observe que os modelos de ponta estão fazendo progressos rápidos nessa área. Tendo sido treinados principalmente com texto e imagens, suas habilidades de raciocínio espacial também são precárias, diz ele.

    Uma grande questão na pesquisa em IA hoje é até que ponto os modelos podem ser aprimorados na direção da inteligência humana ou sobre-humana. Embora as empresas tenham feito avanços tremendos investindo enormes quantidades de poder computacional em seus modelos, não está claro se computadores cada vez mais poderosos resultarão em máquinas cada vez mais inteligentes. Em certo ponto, algo mais poderá ser necessário.

    Mitchell observa que, enquanto os bebês aprendem interagindo com o mundo ao seu redor, os sistemas de IA são treinados passivamente, recebendo enormes quantidades de informações. Isso pode ajudar a explicar por que os chatbots são propensos a mentir: sem feedback do mundo real, eles frequentemente têm dificuldade em discernir se a informação é verdadeira ou falsa, gerando muitas vezes conteúdos incorretos e fake news.

    Bengio afirma que, em vez de cruzarmos um limiar para um mundo de máquinas sencientes, como vemos em filmes de ficção científica, a inteligência artificial continuará a se desenvolver de forma desigual.

    "Não devemos nos perguntar: 'Já ultrapassamos o limiar da IAG?'", diz Bengio. (IAG, ou inteligência artificial geral, geralmente se refere a máquinas com inteligência semelhante à humana.) "Devido à natureza irregular da evolução da inteligência na IA, talvez nunca cheguemos a esse momento."

    (Conteúdo relacionado: Psicose induzida por IA: a conversa com um bot pode alimentar delírios e paranoia? O que diz a ciência)

    Os seres humanos estão condenados de qualquer maneira?


    Um limiar de importância indiscutivelmente muito maior é quando as máquinas atingem um nível de inteligência que lhes permitiria exterminar a humanidade.

    É um cenário que já vimos se desenrolar inúmeras vezes na ficção científica. Alguns o descartam como tal. "Não acho o argumento minimamente plausível", comenta Ted Chiang, o premiado escritor de ficção científica cujo conto "Story of Your Life" foi adaptado para o filme "A Chegada" (2016).

    Na visão de Chiang, quando as pessoas falam sobre a IA se voltando contra nós em busca de seus próprios objetivos, elas estão projetando suas próprias experiências com base em como vemos humanos poderosos e corporações agindo.

    "Acho que elas estão, inconscientemente, reproduzindo o espírito das startups do Vale do Silício", diz Chiang. "Elas estão atribuindo à IA os mesmos valores que os fundadores de startups têm: crescimento a qualquer custo, uma abordagem de terra arrasada em relação à competição."

    Bender está muito mais preocupada com outros riscos mais imediatos do desenvolvimento tecnológico não regulamentado, que já vem criando diversos problemas na sociedade, como: questões de privacidade, os impactos ambientais dos centros de dados e ainda, os chatbots que incitam as pessoas ao suicídio. Algoritmos que "se transformam em consciências" e decidem nos matar a todos "não é o problema que me preocupa", explica ela.

    Mas Bengio argumenta que a IA não precisa ser autoconsciente para representar uma ameaça existencial. Uma ferramenta de IA treinada em virologia, diz ele, poderia se tornar uma ferramenta para um terrorista criar uma pandemia

    Em teoria, uma IA poderia conceber a ideia de tal arma por conta própria, especialmente se visse a humanidade como um obstáculo. Pesquisadores já realizaram experimentos que mostram que modelos sofisticados se envolvem em chantagemespionagem corporativa e até assassinato para evitar serem desligados.

    “Em muitos experimentos, vemos a IA demonstrando um senso de autopreservação”, explica Bengio. “Elas farão coisas para garantir que não sejam desligadas. Inclusive coisas ruins.”

    Embora esses experimentos não sejam de forma alguma uma prova de que a IA um dia tentará exterminar a humanidade, Bengio afirma que “não podemos ignorar o problema”, pois consideramos esse cenário altamente improvável.

    Ironicamente, Mitchell diz que uma das razões pelas quais vemos modelos tomando atitudes antiéticas é que eles são expostos a histórias sobre IA desonesta em seus dados de treinamento — e então começam a representar esses personagens e comportamentos. Se provocada com o cenário certo, uma IA tentaria se passar por HAL um dia? Essa possibilidade traz uma nova perspectiva para o debate.

    Elas realmente se sentem ameaçadas ou estão apenas representando esses tropos de ficção científica com os quais foram treinadas?”, questiona Mitchell. “Em termos de consequências para nós, qual é a diferença?

    mais populares

      veja mais
      loading

      Descubra Nat Geo

      • Animais
      • Meio ambiente
      • História
      • Ciência
      • Viagem
      • Fotografia
      • Espaço
      • Saúde

      Sobre nós

      Inscrição

      • Assine a newsletter
      • Disney+

      Siga-nos

      Copyright © 1996-2015 National Geographic Society. Copyright © 2015-2026 National Geographic Partners, LLC. Todos os direitos reservados