ai-fundamentals
10 min read
View as Markdown

Qué sigue para la IA: una mirada honesta a 2025-2030

Más allá de la euforia y el catastrofismo: lo que realmente predicen los expertos sobre la IA en los próximos cinco años, lo que sigue siendo genuinamente incierto y cómo pensar en predicciones que no dejan de cambiar.

Robert Soares

Pregúntales a seis investigadores de IA cuándo alcanzaremos una inteligencia artificial a nivel humano y obtendrás seis respuestas distintas. Eso fue exactamente lo que pasó en una mesa redonda de noviembre de 2025 del Queen Elizabeth Prize for Engineering, donde Jensen Huang, Yoshua Bengio, Geoffrey Hinton, Fei-Fei Li, Yann LeCun y Bill Dally dieron plazos completamente diferentes para la misma pregunta.

Este desacuerdo no es un fallo. Es una característica. Nos dice algo importante sobre el momento actual: estamos en una etapa en la que la gente que más sabe de IA realmente no sabe qué viene después.

La tendencia fiable: todo sigue mejorando

Esto es en lo que casi todo el mundo coincide. Los modelos van a seguir mejorando. La misma trayectoria que nos llevó de GPT-3 a GPT-4, de Claude 2 a Claude 3.5, seguirá avanzando porque los motores fundamentales del progreso siguen intactos.

Dario Amodei, CEO de Anthropic, describió esa progresión en términos concretos en el pódcast de Lex Fridman: “We’re starting to get to PhD level, and last year we were at undergraduate level, and the year before we were at the level of a high school student.”

Si esa progresión continúa al mismo ritmo es incierto, pero la dirección parece lo bastante clara como para que apostar en contra sea poco sensato a corto plazo.

¿Qué significa esto en la práctica? Asistentes de programación más capaces. Mejores herramientas de redacción. Ayudantes de investigación más inteligentes. Lo que la IA ya hace razonablemente bien mejorará de forma notable en los próximos años, probablemente lo suficiente como para que las herramientas de principios de 2025 parezcan primitivas en 2027.

Simon Willison, desarrollador de software que ha documentado ampliamente su experiencia construyendo con LLM, escribió sobre cómo cambió su forma de trabajar en 2025: “Coding agents changed everything for me.” Describió cómo creó decenas de herramientas usando prompts con LLM, trabajando de forma asíncrona con agentes de IA, e incluso desarrollando código desde su teléfono con suficiente confianza como para desplegar cambios en proyectos en producción.

Eso no es ciencia ficción. Es un desarrollador en activo describiendo su práctica actual. Multiplica esto por millones de trabajadores del conocimiento y tendrás una idea del cambio que ya está en marcha.

El horizonte multimodal

Texto, imágenes, audio, video. Los muros entre estas modalidades se están derrumbando más rápido de lo que muchos esperaban.

El análisis de Epoch AI sobre cómo se verá la IA en 2030 proyecta avances significativos: implementar software científico complejo a partir de descripciones en lenguaje natural, ayudar a matemáticos a formalizar demostraciones, responder preguntas abiertas sobre protocolos de laboratorio. No son especulaciones disparatadas. Son extrapolaciones del progreso actual en pruebas de referencia.

Pero extrapolar es complicado. Todos los gráficos de capacidad acaban chocando con límites. Se agotan los datos de entrenamiento. Los costos de cómputo escalan de forma exponencial. Aparecen rendimientos decrecientes. La pregunta no es si esas barreras existen, sino cuándo van a imponerse.

Agentes: la próxima frontera (probablemente)

La gran apuesta ahora mismo son los agentes de IA. No solo IA que responde preguntas, sino IA que ejecuta acciones, usa herramientas, trabaja entre sistemas y completa tareas de varios pasos con mínima supervisión humana.

Aquí es donde se dispara la exageración. La realidad: los agentes siguen siendo frágiles. Fallan de maneras sorprendentes. Requieren una orquestación cuidadosa para seguir siendo útiles. Un debate de Hacker News de 2024 captó bien ese escepticismo, con el usuario talldayo prediciendo que “In 10 years, AI and LLMs will be a joke on The Simpsons in the same way they made fun of the Palm Pilot.”

Probablemente eso es demasiado pesimista. Pero sirve como correctivo frente a los anuncios sin aliento sobre agentes de todos los grandes laboratorios. La brecha entre la demostración y el despliegue sigue siendo amplia. Los agentes que funcionan perfecto en condiciones controladas suelen atascarse con el desorden de los flujos de trabajo reales.

Aun así, incluso una mejora incremental en la fiabilidad de los agentes desbloquea mucho valor. Si los agentes pueden encargarse de forma fiable del 70% de las tareas rutinarias en vez del 30%, eso transforma muchos flujos de trabajo. El listón no es la perfección. Es la utilidad.

La pregunta de la AGI: donde de verdad discrepan los expertos

¿Cuándo se vuelve la IA generalmente inteligente? ¿Capaz de realizar cualquier tarea intelectual que puede hacer un humano? Aquí es donde el desacuerdo entre expertos se vuelve más agudo.

En un extremo: Dario Amodei sugiere que nos estamos quedando sin “truly convincing blockers, truly compelling reasons why this will not happen in the next few years.” Su extrapolación apunta a 2026 o 2027 como fechas plausibles para sistemas de IA que igualen capacidad humana en muchos ámbitos.

En el otro extremo: Yann LeCun, Chief AI Scientist de Meta, llama a las predicciones actuales de AGI “complete delusion.” Sostiene que necesitamos máquinas “as smart as a cat” antes de preocuparnos por la superinteligencia, y que no estamos ni cerca. Considera que los modelos de lenguaje actuales demuestran que “you can manipulate language and not be smart.”

Ambos son ganadores del Premio Turing. Ambos trabajan a diario con sistemas de IA de frontera. Ambos tienen acceso a la misma investigación. Simplemente la interpretan de forma completamente distinta.

Un comentarista de Hacker News, rwaksmunski, hizo una observación sardónica: “AGI is still a decade away, and always will be.” El hilo que siguió discutió ese marco, señalando que los investigadores recién ahora están ajustando expectativas hacia plazos más cercanos en función del progreso observado. Puede que el chiste de “siempre a diez años” se esté quedando viejo precisamente porque los plazos se están comprimiendo.

Empleo: la respuesta honesta es que no lo sabemos

¿La IA te va a quitar el trabajo? Las predicciones van de lo catastrófico a lo benigno, y a menudo dependen de quién las haga.

Goldman Sachs: “We remain skeptical that AI will lead to large employment reductions over the next decade.”

Dario Amodei: la IA podría “wipe out half of all entry-level white-collar jobs” y disparar el desempleo al 10-20% en el próximo periodo de uno a cinco años.

El Foro Económico Mundial: 92 millones de empleos desplazados, 170 millones de nuevos empleos creados, para un saldo neto positivo de 78 millones de puestos para 2030.

El economista del MIT Daron Acemoglu: la IA solo estará lista para asumir o asistir fuertemente “around 5% of jobs over the next decade.”

No son predicciones que puedas promediar. Representan modelos fundamentalmente distintos de cómo la tecnología afecta al empleo. O el desplazamiento ocurre gradualmente y hay tiempo para adaptarse, o ocurre de golpe y con disrupción masiva. No sabemos qué modelo aplica a la IA.

Jerome Powell, presidente de la Reserva Federal de EE. UU., cuando le preguntaron por la IA y el empleo, dijo algo inusualmente franco: “This may be different.” Es el jefe de la Reserva Federal reconociendo que estamos en territorio realmente desconocido.

La respuesta honesta es que no lo sabemos, y cualquiera que afirme tener certeza sobre el impacto en el empleo está siendo demasiado confiado. Lo que sí sabemos: prepararse vence a predecir. Organizaciones y personas que entienden las capacidades de la IA tienen más opciones, sea cual sea el escenario que termine ocurriendo.

Regulación: la carta imprevisible

La Ley de IA de la UE ya está en vigor. China ha implementado regulaciones de IA. Estados Unidos sigue interviniendo relativamente poco. Este mosaico va a moldear el desarrollo de la IA de formas que no podemos predecir del todo.

La regulación podría frenar capacidades peligrosas. También podría concentrar el desarrollo de IA en jurisdicciones con reglas más laxas. Podría proteger a los trabajadores. Podría afianzar a los actores establecidos. Los efectos van a ser de segundo y tercer orden, de maneras que hoy nadie puede trazar con confianza.

Lo que parece claro: el entorno regulatorio de 2030 no se parecerá en nada al de hoy. La pregunta es si permitirá un desarrollo beneficioso de la IA mientras limita daños, o si no logrará ninguna de las dos cosas de forma efectiva.

Cómo pensar las predicciones sobre IA

Un marco útil: separar el corto plazo del largo plazo.

Corto plazo (2025-2027): Los sistemas actuales van a mejorar. Asistentes de programación, herramientas de redacción, ayudantes de investigación, generadores de imágenes. Estas mejoras son en gran medida previsibles desde las trayectorias actuales. Planifica en función de eso.

Medio plazo (2027-2030): Los agentes pueden volverse lo bastante fiables para trabajo autónomo significativo. La IA multimodal probablemente gestionará muchos cuellos de botella actuales. Los impactos económicos empezarán a verse en datos de empleo. Aquí hay bastante menos certeza.

Largo plazo (2030+): Posibilidades de AGI, escenarios de superinteligencia, reestructuración económica transformadora. Incertidumbre real. Cualquiera que diga saber qué pasará aquí está adivinando.

Un comentarista de Hacker News, massung, ofreció una predicción que se me quedó grabada: “My personal prediction is that the next massive leap in AI is going to be a paradigm shift away from how we train and simulate networks.”

Ese es el tipo de carta imprevisible que es difícil meter en el modelo. El progreso actual viene de escalar enfoques conocidos. El próximo gran avance podría venir de algo completamente distinto. O puede que nunca llegue. No lo sabemos.

Para qué vale la pena prepararse de verdad

Con toda esta incertidumbre, ¿qué vale la pena hacer ahora?

Aprende las herramientas. Pase lo que pase con los plazos de AGI, las capacidades actuales de IA ya son útiles. Entender cómo usarlas bien da resultados inmediatos y te posiciona para lo que venga.

Construye adaptabilidad. Las predicciones concretas van a fallar. La dirección general de mayor capacidad parece fiable. Organizaciones y personas que pueden adaptarse a capacidades cambiantes navegarán mejor la incertidumbre que quienes apuestan por resultados específicos.

Mantente calibrado. El ciclo de euforia agota. El ciclo apocalíptico paraliza. Ninguno te sirve. Presta atención a lo que la IA realmente hace en la práctica, no a lo que prometen las demostraciones ni a lo que temen los críticos.

Observa a los que construyen. La señal más fiable viene de quienes están creando cosas reales con IA. Cuando desarrolladores reportan que los agentes de programación “changed everything”, eso informa más que cualquier predicción sobre cuándo llegaremos a la AGI.

Un usuario de Hacker News, mrdependable, resumió una frustración común en un hilo de 2025: “I always see these reports about how much better AI is than humans now, but I can’t even get it to help me with pretty mundane problem solving.”

Esa brecha entre el rendimiento en benchmarks y la utilidad práctica es real y conviene recordarla. El progreso está ocurriendo. Solo que es desigual, desordenado y, muchas veces, exagerado.

La predicción que más importa

Aquí va mi predicción: dentro de cinco años miraremos este artículo y algunas predicciones habrán sido demasiado conservadoras, otras demasiado agresivas, y al menos una cosa habrá pasado sin que nadie la anticipara.

No es una evasiva. Es lo más honesto que puedo decir sobre un campo donde quienes más saben son quienes discrepan con más fuerza.

La incertidumbre incomoda, pero también aclara. Significa que el futuro todavía no está decidido. Las decisiones que tomemos sobre cómo desarrollar y desplegar IA siguen importando. Los debates sobre seguridad, sobre empleo, sobre regulación, sobre quién se beneficia de estos sistemas… esos debates valen la pena precisamente porque el resultado no está escrito.

Lo que sí es seguro: la IA seguirá cambiando cómo trabajamos, creamos y resolvemos problemas. La naturaleza exacta de ese cambio sigue genuinamente abierta. Eso puede ser aterrador o emocionante, según tu disposición.

A mí me resulta emocionante. Pero entiendo ambas reacciones.


Este artículo refleja capacidades y predicciones de IA hasta enero de 2026. Dado el ritmo de cambio en este campo, parte de esta información puede haber quedado desactualizada cuando lo leas. Para herramientas de IA actuales y aplicaciones prácticas, explora nuestras guías sobre cómo usar IA de forma efectiva en tu trabajo.

Ready For DatBot?

Use Gemini 2.5 Pro, Llama 4, DeepSeek R1, Claude 4, O3 and more in one place, and save time with dynamic prompts and automated workflows.

Top Articles

Come on in, the water's warm

See how much time DatBot.AI can save you