Carlos del Porto Blanco
Las aplicaciones de inteligencia artificial son muchas veces impredecibles en sus respuestas, algunas veces parecen un genio y en otras un tonto. A ese comportamiento los investigadores, ingenieros y economistas le llaman “inteligencia irregular”. Es el término utilizado para explicar por qué la IA avanza a toda velocidad en algunas áreas —como las matemáticas y la programación informática—, mientras que aún le cuesta avanzar en otras. Sobre este término hablaremos hoy.
Algunas personas se preocupan de que la inteligencia artificial nos haga sentir inferiores, pero, cualquiera en su sano juicio debería tener un complejo de inferioridad cada vez que mira una flor. Alan Kay.
Un recuento histórico.
El término “inteligencia irregular” se ha referido normalmente a formas no convencionales de obtención y uso de información, vinculadas históricamente a conflictos, espionaje y operaciones militares fuera de los marcos tradicionales. Se diferencia de la inteligencia “regular” porque no sigue protocolos institucionales estandarizados, sino que se adapta a contextos de guerra irregular, insurgencias o conflictos híbridos. Su estudio permite comprender cómo actores estatales y no estatales han empleado métodos alternativos para producir conocimiento estratégico, con implicaciones en seguridad, política y sociedad.
La importancia de esta disciplina se aprecia en los temas relacionados con Seguridad Nacional, al permitir anticipar amenazas no convencionales (terrorismo, insurgencias, crimen organizado); en el campo de la Política Internacional, influye en negociaciones y estrategias diplomáticas y desde la arista de la Tecnología, hoy se extiende al ciberespionaje y la guerra informacional.
Entrando en materia
En el imaginario popular, la inteligencia suele concebirse como una habilidad uniforme: si alguien es inteligente, se espera que lo sea en casi todo. Usted amigo lector que me lee, coincidirá conmigo que eso es erróneo. Hay personas con doctorados en astrofísica que no son capaces de cambiar la zapatilla de un grifo de agua. Pero volviendo al tema, esa premisa, aplicada a la inteligencia artificial, ha generado décadas de debate sobre si las máquinas podrán algún día igualar o superar la cognición humana. Sin embargo, aferrarse a esa comparación desvía la atención de lo que realmente define a los sistemas actuales. Investigadores, ingenieros y economistas están popularizando un término que redefine el paradigma: la inteligencia irregular (jagged intelligence).
Pero ¿qué significa “inteligencia irregular” hoy en día?
En la literatura científica y en los marcos institucionales actuales, no existe un concepto técnico reconocido bajo la denominación inteligencia irregular. El término se refiere a la capacidad desigual de la IA para resolver problemas diversos: puede destacar en áreas como matemáticas o programación, pero fallar en tareas simples que requieren sentido común.
La IA se convirtió en una estrella de las matemáticas en el verano del 2025 cuando una aplicación creada por Google y OpenAI respondió correctamente a cinco de seis preguntas complejas en la Olimpiada Internacional de Matemáticas, un concurso anual para los mejores estudiantes de preparatoria del mundo.
Pero el sentido común de la IA sigue siendo deficiente. Unos meses más tarde, el ingeniero de software Anuradha Weeraman, de Sri Lanka, observó que los principales sistemas de IA tenían dificultades para responder a lo que básicamente era una pregunta capciosa que la mayoría de las personas consideran ridículamente sencilla. Cuando le consultó a varios chatbot que necesitaba llevar su auto a un taller que estaba a solo 50 metros de distancia y preguntó si debía ir a pie o en el auto los bots le dijeron que fuera a pie.
Desde una perspectiva algorítmica, la decisión era «lógica» (caminar es más eficiente para distancias cortas), pero desde la experiencia humana y el sentido común, es un absurdo (implica dejar el auto en el lugar, cuando para repararlo se requiere llevarlo al taller). Evidentemente el sentido común sigue siendo el menos común de los sentidos para las aplicaciones de Inteligencia artificial, un dilema vigente desde los años 60.
Para entender la inteligencia irregular, primero se debe desechar la idea de un «cerebro electrónico» homogéneo. La metáfora más precisa es la de una navaja suiza con habilidades dispares: excelente para cortar (resolver problemas matemáticos complejos), pero sorprendentemente torpe abrir una lata de leche condensada (aplicar el sentido común más básico).
El término “inteligencia irregular” fue acuñado por Andrej Karpathy, uno de los investigadores fundadores de OpenAI, había sido antes jefe de tecnología de autoconducción de Tesla. “Algunas cosas funcionan extremadamente bien (para los estándares humanos), mientras que otras fallan de manera catastrófica (también para los estándares humanos)”, escribió en redes sociales en 2024, “y no siempre es obvio cuál es cuál”. Eso es diferente del cerebro humano, “donde muchos conocimientos y capacidades de resolución de problemas están altamente correlacionados y mejoran linealmente, todos juntos, desde el nacimiento hasta la edad adulta”.
Comprender la naturaleza irregular de la IA no es solo un ejercicio académico; tiene implicaciones profundas y prácticas para la economía global. Si se asume que la IA es un «sustituto humano general», el pronóstico laboral sería apocalíptico. Sin embargo, el modelo de inteligencia irregular pinta un panorama más matizado. El economista Alex Imas, de la Escuela de Negocios Booth de la Universidad de Chicago, explica que «si un trabajo implica varias tareas diferentes —y casi todos son así—, algunas tareas se automatizarán y otras no». Eso sugiere que no se está ante un reemplazo masivo, sino ante un aumento de capacidades.
Desde que OpenAI propició el auge de la IA en 2022, los ejecutivos tecnológicos han oscilado entre advertir que sus nuevas creaciones podrían tener un efecto devastador en los empleos de cuello blanco (empleos de trabajo simbólico, oficina, docencia, investigación y otros similares) y restar importancia al impacto a largo plazo en el empleo.
Hasta ahora, fuera de la industria tecnológica, sólo hay pruebas anecdóticas de que la IA se ha convertido en una destructora de empleos. No obstante, dada la rapidez con que la tecnología está mejorando, muchos expertos sostienen que la cuestión de si la IA reemplazará a trabajadores de cuello blanco no es si ocurrirá, sino cuándo. Hace solo unos años, estos sistemas apenas empezaban a mostrar las habilidades de programación más rudimentarias.
Sin embargo, la tecnología que mejora lo que pueden hacer los trabajadores sin sustituirlos tiene muchos precedentes, y eso es lo que algunos economistas e investigadores de la IA sostienen que ocurrirá. Ya en la década de 1960, una calculadora de bolsillo podía sumar, restar y multiplicar mucho más rápido que una persona. Eso no significaba que una calculadora pudiera sustituir a un contador.
Sistemas como Claude de Anthropic y Codex de OpenAI pueden escribir código informático mucho más rápido que un ser humano. Pero no son tan buenos a la hora de comprender cómo encaja cada fragmento de código en una aplicación de software más amplia. Para eso necesitan ayuda humana.
François Chollet, un destacado investigador de IA, publicó una nueva prueba de referencia digital llamada ARC-AGI 3. En ella se piden soluciones a cientos de acertijos parecidos a los de un juego, sin proporcionar ni una sola pista sobre cómo resolverlos. Todos los acertijos pueden ser resueltos por una persona promedio sin entrenamiento previo, pero los principales sistemas de IA no consiguieron resolver ninguno de ellos, según las pruebas realizadas por Chollet y ARC Prize, el laboratorio de investigación sin fines de lucro que supervisa la prueba.
Los sistemas de IA como Claude y ChatGPT de OpenAI aprenden sus habilidades identificando patrones en datos digitales, como artículos de Wikipedia, noticias, programas informáticos y otros textos extraídos de internet. Pero eso solo los lleva hasta cierto punto. Internet solo contiene una pequeña parte del conocimiento humano. Registra lo que la gente hace en el mundo digital, pero contiene comparativamente poca información sobre lo que ocurre en el mundo físico.
Eso significa que esos sistemas pueden escribir correos electrónicos, responder preguntas, hablar con soltura sobre casi cualquier tema y generar código informático. Pero como los sistemas de IA reproducen los patrones que encuentran en los datos digitales, no son buenos planificando con antelación, generando ideas nuevas o abordando tareas que no han visto antes. “La IA no tiene inteligencia general”, dijo Chollet. “Lo que tiene es un montón de habilidades diferentes”. Al final su respuesta está basada en probabilidades, no conocimientos.
Empresas como Anthropic y OpenAI están enseñando a estos sistemas habilidades adicionales mediante la técnica de aprendizaje por refuerzo. Trabajando con miles de problemas matemáticos pueden, por ejemplo, aprender qué métodos conducen a la respuesta correcta y cuáles no. Eso funciona bien en áreas como las matemáticas y la programación, donde las empresas de IA pueden definir con claridad el comportamiento bueno y el malo.
La respuesta a un problema matemático es correcta o incorrecta. El código informático pasa una prueba de rendimiento o falla. Sin embargo, el aprendizaje por refuerzo no funciona tan bien en áreas como la escritura creativa, la filosofía o incluso algunas ciencias, donde la distinción entre lo bueno y lo malo es más difícil de precisar.
El principal problema de la inteligencia irregular es la imprevisibilidad. Para el usuario general, es difícil saber cuándo la IA se comportará como un genio o como un «tonto”. Esa falta de fiabilidad cognitiva genera desconfianza. Joshua Gans, economista de la Universidad de Toronto, advierte que «la naturaleza irregular de la IA hace que los problemas puedan surgir de cualquier parte. Hay lagunas, y no siempre sabemos dónde están». Las reservas se centran en dos puntos clave:
- La falacia de la generalización: Un sesgo común es asumir que, porque la IA es brillante en matemáticas o ajedrez, también lo será en razonamiento ético o diagnóstico médico fuera de su entrenamiento específico.
- El problema de la «caja negra«: A menudo es imposible saber por qué la IA falla en una tarea simple mientras resuelve una compleja.
El ecosistema que estudia y desarrolla esta frontera tecnológica está liderado por los mismos gigantes que crean los modelos. Un hecho crucial que se debe interiorizar es que la inteligencia irregular es un concepto dinámico. Las brechas de hoy se están cerrando a gran velocidad. Lo que Karpathy señaló como una falla catastrófica en 2024 podría estar resuelto por completo en los modelos lanzados durante el 2026.
Para el público general y los profesionales, en particular, comprender el concepto de inteligencia irregular no es una opción, sino una necesidad para la alfabetización digital del siglo XXI. Se debe abandonar la comparación antropomórfica y adoptar una visión pragmática: la IA es una herramienta con un perfil de habilidades asimétrico. El éxito en su uso radicará en identificar con precisión qué tareas se pueden delegar en la «navaja suiza» algorítmica y cuáles se deben reservar para el matiz, la planificación y la conciencia situacional del cerebro humano.
A pesar de sus limitaciones actuales, la inteligencia artificial evoluciona rápidamente. Muchas de sus fallas se corrigen con el tiempo, lo que hace difícil predecir hasta dónde llegará su desarrollo. La “inteligencia irregular” permite entender que la IA no es perfecta ni homogénea, sino una herramienta poderosa con fortalezas específicas y límites claros que seguirán moldeando su impacto en la sociedad.
Referencias
- Metz, Cade. ¿Qué es la ‘inteligencia irregular’ y cómo puede redefinir el debate sobre la IA? 2026 abril 25. The New York Times. Obtenido de: https://www.nytimes.com/es/2026/04/25/espanol/ia-inteligencia-irregular-jagged.html
- ¿Qué es la “inteligencia irregular” y por qué redefine el debate sobre la inteligencia artificial? 2026 abril 26. Techno Noticias. Obtenido de: https://technonoticias.com/2026/04/26/que-es-la-inteligencia-irregular-y-por-que-redefine-el-debate-sobre-la-inteligencia-artificial/