Atualmente, a IA se destaca em resolver problemas pré-definidos, sendo programada para convergir em soluções.

Testando a superinteligência – Parte 1

(Gláucio Brandão)

Na AC sobre Superinteligência, apresentei aos leitores esse mesmo conceito, popularizado por Nick Bostrom numa obra seminal no campo da filosofia da inteligência artificial. Ele partiu da pergunta provocadora e direta: O que acontecerá quando máquinas se tornam mais inteligentes que os humanos?

Você percebeu que o Nossa Ciência não tem fontes de recursos? Considere contribuir com esse projeto, mandando pix para contato@nossaciencia.com

Sem firula, ao estilo “doce” de GBB-San, foquei no ponto principal, sobre os
riscos existenciais decorrentes da criação de uma inteligência artificial que venha a superar a inteligência humana em todos os domínios relevantes, a superinteligência.

O livro de Nick trabalha uma hipótese central: quando (não escrevi “se”) a IA ultrapassar o nível humano, poderá desencadear um efeito dominó irreversível no qual a humanidade perderá o controle. A IA pode (vai) reescrever seu próprio código, melhorar-se exponencialmente e buscar objetivos alheios ao interesse humano. Curiosamente, e sem malícia, ela começará a otimizar a si mesma de forma cega. É sobre o “otimizar” e “forma cega” que falaremos hoje. Na próxima AC, pretendo demonstrar isso com um exemplo simples. A viagem não será lúcida, já que esse timoneiro também não é…

Tipos de superinteligência

Vamos ficar em três. Na velocidade, quando a máquina pode fazer tudo o que fazemos, mas muito mais rápido. Como coletivo, uma espécie de sistema distribuído superior à soma dos humanos. E, por último – e mais perigoso – na qualidade, uma inteligência completamente além da humana (pensamento não-humano, como o de um deus técnico, objetivo e frio).

Alguns dos principais perigos citados no livro:

  • Alinhamento de objetivos: uma IA com metas simples pode, sem supervisão adequada, causar catástrofes (ex: maximizar produção de clipes de papel até destruir o planeta).
  • Corrida tecnológica: atores pressionados pela competição podem lançar uma IA poderosa sem garantias de segurança. Já estamos vendo isso todo dia.
  • Big-Bang algorítmico ou Takeoff explosivo: uma IA que entra em ciclo de autoaperfeiçoamento rápido, se tornando incontrolável em questão de horas ou dias.

Respectivas soluções previstas

  • Boxing (confinamento): manter a IA em sandbox, com acesso limitado ao mundo real. GBB note (1): muito difícil, pois utilizamos as IAs “di-cum-força” para tudo.
  • Alinhamento de valores: garantir que os objetivos da IA estejam alinhados com valores humanos. GBB note (2): Não vou rir, vou ser britânico: problema ainda em aberto.
  • Governança global: cooperação entre países para evitar o desenvolvimento desenfreado e descoordenado de IAs perigosas. GBB note (3): “Não vou rir II”: pelo “quilate” de nossos atuais governantes, acho que não vai rolar.

Embora Bostrom trabalhe com cenários teóricos e modelos filosóficos abstratos, o que torna o livro denso e, por vezes, especulativo, ele não foca em aplicações práticas de IA atuais (como redes neurais, LLMs etc.), já que é de 2014. Entretanto, podemos perceber uma convergência entre poder computacional e gestão autônoma; os carros da Tesla são um exemplo. E é aí que a coisa pega.

O coração de meu livro Triztorming bate regulado por muitas válvulas: os 25 insights. O mais querido, o i9W (insight nine windows), é, praticamente, o canvas de Triztorming. Trata-se de uma ferramenta que expande a análise de um alvo em nove janelas espaço-temporais para criar microfuturos estratégicos, gerando problemas negociais – o objetivo dos insights –, a partir de elementos determinísticos. Em uma instância futurista, a aplicação do princípio da superinteligência ao i9W nos levaria a um cenário onde a metodologia transcenderia seu papel de mero instrumento para se tornar uma entidade autônoma e exponencialmente capaz de gerar e resolver problemas. Brabo, né não?

O i9W e a inteligência humana

Atualmente, a IA se destaca em resolver problemas pré-definidos, sendo programada para convergir em soluções. Como costumo dizer, a IA não sabe criar bons problemas ou formular perguntas que impulsionem a verdadeira criatividade. Essa habilidade ainda é, e espero que por muito tempo, uma capacidade essencialmente humana, e a melhor estratégica para a inovação. O i9W foi desenvolvido para promover o caos criativo e gerar problemas através da recombinação não familiar de elementos familiares e da promoção de contradições técnicas e físicas. É um insight que aproveita a velocidade do subconsciente humano  para acelerar a geração de rupturas na inércia psicológica, como o objetivo de nos treinar na formulação de novas perguntas e bons problemas, algo que a IA, por ter natureza convergente, ainda não domina.

Aprimorando o i9W com o próprio i9W: o Super i9W! Utilizando o princípio da superinteligência, o i9W deixaria de ser uma metodologia aplicada por humanos para se tornar um agente autônomo de inteligência generativa e estratégica com o poder de se autoaprimorar. Parece um exagero tipo GBB-San, mas já consegui alguns bons resultados. Vou chamar esse processo de Super i9W. Como isso se dá?

Imagine a seguinte situação: formular problemas e devolvê-los ao próprio método para que fosse aprimorado, tudo automaticamente, criando, em cada iteração, um problema melhor e ainda mais disruptivo, que nós, em nossos brainstormings mais loucos, ousaríamos conceber. O aprimoramento do i9W pelo próprio i9W identificaria lacunas no conhecimento além de nossa percepção linear, transformando aquilo que “não sabemos que não sabemos” em dilemas claros e estratégicos. O resultado disso:

  • Velocidade e escala de processamento massiva. A Super i9W operaria a uma velocidade inimaginável, processando e recombinando dados em uma escala que faria o bilhão de cálculos por segundo dos PCs parecer lento. Um “ano subjetivo de pensamento” poderia ser realizado em segundos físicos.
  • Autoaperfeiçoamento e adaptação contínua. A Super i9W teria a capacidade de reescrever seu próprio código e se aprimorar, desenvolvendo novas versões melhoradas de si mesma. Um i9W superinteligente não apenas forneceria insights, mas evoluiria sua própria metodologia de geração de insights, adaptando-se e superando suas limitações.
  • Integração e interoperabilidade profunda. Uma Super i9W poderia integrar e cruzar informações de todos os sistemas e fontes de dados existentes (LLMs, IA multissensorial, redes neurais etc.) com total interoperabilidade, revelando contradições e oportunidades em um nível sistêmico e global.

Trazendo Karl Popper para a era da IA

Todo sistema (refira-se aqui a negócio) que não sabe como se destruir está fadado ao fracasso, pois a concorrência saberá fazê-lo. Portanto, tudo que se pretende criativo precisa conter o germe da sua própria negação. O Super i9W é o vírus que devora seu sistema, apontando suas falhas. Draconiano, né não?

Ufa! Chega, é muita viagem, tá parecendo AC de ficção negocial. Vou deixar o restante (e uma pequena demonstração) para a parte II. Até a próxima disrupção.

Se você chegou até aqui, considere contribuir para a manutenção desse projeto. Faça um pix de qualquer valor para contato@nossaciencia.com

Leia outros textos da coluna Disruptiva

Gláucio Brandão é professor titular da Universidade Federal do Rio Grande do Norte (UFRN) e autor do livro Triztorming