Pergunte a seis pesquisadores de IA quando vamos alcançar inteligência artificial em nível humano e você terá seis respostas diferentes. Foi exatamente isso que aconteceu em uma mesa-redonda de novembro de 2025 do Queen Elizabeth Prize for Engineering, em que Jensen Huang, Yoshua Bengio, Geoffrey Hinton, Fei-Fei Li, Yann LeCun e Bill Dally deram cronogramas completamente diferentes para a mesma pergunta.
Essa discordância não é um defeito. É uma característica. Ela nos diz algo importante sobre o momento atual: estamos em um período em que as pessoas que mais entendem de IA realmente não sabem o que vem a seguir.
A tendência confiável: as coisas continuam melhorando
Aqui está o que quase todo mundo concorda. Os modelos vão continuar melhorando. A mesma trajetória que nos levou do GPT-3 ao GPT-4, do Claude 2 ao Claude 3.5, vai seguir adiante porque os motores fundamentais do progresso continuam intactos.
Dario Amodei, CEO da Anthropic, descreveu essa progressão em termos concretos no podcast do Lex Fridman: “We’re starting to get to PhD level, and last year we were at undergraduate level, and the year before we were at the level of a high school student.”
Se essa progressão vai continuar no mesmo ritmo é incerto, mas a direção parece clara o bastante para que apostar contra isso no curto prazo seja imprudente.
O que isso significa na prática? Assistentes de programação mais capazes. Ferramentas de escrita melhores. Ajudantes de pesquisa mais inteligentes. O que a IA já faz razoavelmente bem vai ficar visivelmente melhor nos próximos anos, provavelmente a ponto de as ferramentas do início de 2025 parecerem primitivas em 2027.
Simon Willison, desenvolvedor de software que vem documentando amplamente sua experiência construindo com LLMs, escreveu sobre como seu fluxo de trabalho mudou em 2025: “Coding agents changed everything for me.” Ele descreveu a criação de dezenas de ferramentas por meio de prompts para LLMs, trabalhando de forma assíncrona com agentes de IA e até desenvolvendo código no celular com confiança suficiente para enviar mudanças para projetos em produção.
Isso não é ficção científica. É um desenvolvedor em atividade descrevendo sua prática atual. Multiplique isso por milhões de trabalhadores do conhecimento e você terá uma noção da mudança que já está em curso.
O horizonte multimodal
Texto, imagens, áudio, vídeo. As paredes entre essas modalidades estão ruindo mais rápido do que muitos esperavam.
A análise da Epoch AI sobre como a IA será em 2030 projeta avanços significativos: implementar software científico complexo a partir de descrições em linguagem natural, ajudar matemáticos a formalizar provas, responder perguntas abertas sobre protocolos de laboratório. Isso não é especulação desenfreada. São extrapolações do progresso atual em benchmarks.
Mas extrapolar é complicado. Todo gráfico de capacidades acaba esbarrando em limites. Os dados de treinamento se esgotam. Os custos computacionais escalam de forma exponencial. Retornos decrescentes aparecem. A pergunta não é se essas barreiras existem, mas quando elas vão se tornar limitantes.
Agentes: a próxima fronteira (provavelmente)
A grande aposta agora está nos agentes de IA. Não apenas IA que responde perguntas, mas IA que executa ações, usa ferramentas, trabalha entre sistemas e conclui tarefas de várias etapas com supervisão humana mínima.
É aqui que o hype engrossa. A realidade: os agentes ainda são frágeis. Eles falham de maneiras surpreendentes. Exigem orquestração cuidadosa para continuarem úteis. Uma discussão de 2024 no Hacker News capturou bem o ceticismo, com o usuário talldayo prevendo que “In 10 years, AI and LLMs will be a joke on The Simpsons in the same way they made fun of the Palm Pilot.”
Isso provavelmente é pessimista demais. Mas é um corretivo útil para os anúncios ofegantes sobre agentes de todos os grandes laboratórios. A distância entre demonstração e implantação continua grande. Agentes que funcionam sem falhas em condições controladas frequentemente têm dificuldade com a bagunça dos fluxos de trabalho reais.
Ainda assim, até melhorias incrementais na confiabilidade dos agentes desbloqueiam valor significativo. Se agentes conseguirem lidar com 70% das tarefas rotineiras de forma confiável, em vez de 30%, isso é transformador para muitos fluxos de trabalho. Perfeição não é a barra. Utilidade é.
A pergunta da AGI: onde os especialistas realmente discordam
Quando a IA se torna geralmente inteligente? Capaz de executar qualquer tarefa intelectual que um humano consegue? É aqui que a divergência entre especialistas fica mais afiada.
Em uma ponta: Dario Amodei sugere que estamos ficando sem “truly convincing blockers, truly compelling reasons why this will not happen in the next few years.” A extrapolação dele aponta 2026 ou 2027 como plausíveis para sistemas de IA igualarem capacidade humana em muitos domínios.
Na outra ponta: Yann LeCun, cientista-chefe de IA da Meta, chama as previsões atuais de AGI de “complete delusion.” Ele argumenta que precisamos de máquinas “as smart as a cat” antes de nos preocuparmos com superinteligência, e que não estamos nem perto disso. Para ele, os modelos atuais de linguagem demonstram que “you can manipulate language and not be smart.”
Essas duas pessoas ganharam o Prêmio Turing. As duas trabalham diariamente com sistemas de IA de fronteira. As duas têm acesso às mesmas pesquisas. Elas apenas interpretam tudo de forma completamente diferente.
Um comentarista no Hacker News, rwaksmunski, fez a observação sardônica de que “AGI is still a decade away, and always will be.” O fio de respostas que veio depois, na verdade, contestou esse enquadramento, observando que pesquisadores só agora estão ajustando expectativas para prazos mais curtos com base no progresso observado. A piada de “sempre a dez anos de distância” pode estar ficando ultrapassada justamente porque os cronogramas estão se comprimindo.
Empregos: a resposta honesta é que não sabemos
A IA vai tirar seu emprego? As previsões variam de catastróficas a benignas, muitas vezes dependendo de quem as faz.
Goldman Sachs: “We remain skeptical that AI will lead to large employment reductions over the next decade.”
Dario Amodei: IA pode “wipe out half of all entry-level white-collar jobs” e elevar o desemprego para 10-20% dentro de um a cinco anos.
World Economic Forum: 92 milhões de empregos deslocados, 170 milhões de novos empregos criados, para um saldo positivo de 78 milhões de posições até 2030.
Daron Acemoglu, economista do MIT: a IA só estará pronta para assumir ou ajudar pesadamente “around 5% of jobs over the next decade.”
Essas não são previsões que você pode tirar uma média. Elas representam modelos fundamentalmente diferentes de como a tecnologia afeta o emprego. Ou o deslocamento acontece gradualmente com tempo para adaptação, ou acontece de forma súbita com ruptura massiva. Não sabemos qual modelo se aplica à IA.
Jerome Powell, presidente do Federal Reserve, quando perguntado sobre IA e emprego, disse algo incomumente franco: “This may be different.” É o chefe do Federal Reserve reconhecendo que estamos em território genuinamente desconhecido.
A resposta honesta é que não sabemos, e quem afirma ter certeza sobre impactos no emprego está confiante demais. O que sabemos: preparação vence previsão. Organizações e indivíduos que entendem as capacidades da IA têm mais opções, independentemente de qual cenário se concretize.
Regulação: o curinga
O EU AI Act já está em vigor. A China implementou regulações de IA. Os EUA continuam relativamente sem intervenção. Esse mosaico vai moldar o desenvolvimento da IA de formas que não conseguimos prever plenamente.
A regulação pode desacelerar capacidades perigosas. Também pode concentrar o desenvolvimento de IA em jurisdições com regras mais leves. Pode proteger trabalhadores. Pode entrincheirar incumbentes. Os efeitos vão ser de segunda e terceira ordem de maneiras que ninguém consegue mapear com confiança hoje.
O que parece claro: o ambiente regulatório em 2030 não vai se parecer em nada com o de hoje. A questão é se ele vai permitir um desenvolvimento benéfico da IA enquanto limita danos, ou se não vai fazer nenhum dos dois de forma eficaz.
Como pensar sobre previsões de IA
Um quadro útil: separar o curto prazo do longo prazo.
Curto prazo (2025-2027): Os sistemas atuais vão melhorar. Assistentes de programação, ferramentas de escrita, ajudantes de pesquisa, geradores de imagem. Essas melhorias são em grande parte previsíveis a partir das trajetórias atuais. Planeje para isso.
Médio prazo (2027-2030): Agentes podem ficar confiáveis o suficiente para trabalho autônomo significativo. IA multimodal provavelmente vai lidar com muitos gargalos atuais. Impactos econômicos vão começar a aparecer nos dados de emprego. Aqui a certeza é bem menor.
Longo prazo (2030+): Possibilidades de AGI, cenários de superinteligência, reestruturação econômica transformadora. Incerteza real. Quem afirma saber o que acontece aqui está chutando.
Um comentarista do Hacker News, massung, fez uma previsão que ficou comigo: “My personal prediction is that the next massive leap in AI is going to be a paradigm shift away from how we train and simulate networks.”
Esse é o tipo de curinga difícil de precificar. O progresso atual vem de escalar abordagens conhecidas. O próximo avanço pode vir de algo totalmente diferente. Ou pode nunca vir. Não sabemos.
O que realmente vale preparar
Dada toda essa incerteza, o que vale fazer agora?
Aprenda as ferramentas. Independentemente do que acontecer com os cronogramas de AGI, as capacidades atuais da IA já são úteis. Entender como usá-las bem traz retorno imediato e posiciona você para o que vier depois.
Construa adaptabilidade. As previsões específicas vão errar. A direção geral de capacidade crescente parece confiável. Organizações e indivíduos que conseguem se adaptar a capacidades em mudança vão navegar melhor a incerteza do que quem aposta em resultados específicos.
Mantenha calibração. O ciclo de hype é exaustivo. O ciclo de catastrofismo paralisa. Nenhum dos dois ajuda você. Preste atenção no que a IA realmente faz na prática, não no que as demos prometem nem no que os críticos temem.
Observe os praticantes. O sinal mais confiável vem de quem está construindo coisas reais com IA. Quando desenvolvedores relatam que coding agents “changed everything,” isso é mais informativo do que qualquer previsão sobre quando vamos alcançar AGI.
Um usuário do Hacker News, mrdependable, capturou uma frustração comum em um fio de 2025: “I always see these reports about how much better AI is than humans now, but I can’t even get it to help me with pretty mundane problem solving.”
Essa lacuna entre desempenho em benchmark e utilidade prática é real e vale lembrar. O progresso está acontecendo. Só que de forma desigual, bagunçada e muitas vezes superestimada.
A previsão que mais importa
Aqui vai minha previsão: daqui a cinco anos, vamos olhar para este artigo e algumas previsões terão sido conservadoras demais, outras agressivas demais, e ao menos uma coisa terá acontecido que ninguém antecipou.
Isso não é fuga pela tangente. É a coisa mais honesta que posso dizer sobre um campo em que quem mais sabe é quem mais discorda.
A incerteza é desconfortável, mas também esclarecedora. Ela significa que o futuro ainda não está determinado. As escolhas que fazemos sobre como desenvolver e implantar IA ainda importam. Os debates sobre segurança, sobre emprego, sobre regulação, sobre quem se beneficia desses sistemas… esses debates valem a pena justamente porque o resultado ainda não está escrito.
O que é certo: a IA vai continuar mudando como trabalhamos, criamos e resolvemos problemas. A natureza exata dessa mudança continua genuinamente em aberto. Isso é aterrorizante ou empolgante, dependendo da sua disposição.
Eu acho empolgante. Mas entendo as duas reações.
Este artigo reflete capacidades e previsões de IA até janeiro de 2026. Dado o ritmo de mudança nesse campo, algumas informações já podem estar desatualizadas quando você estiver lendo isto. Para ferramentas de IA atuais e aplicações práticas, explore nossos guias sobre como usar IA de forma eficaz no seu trabalho.