En los últimos años, el término inteligencia artificial general (AGI, por sus siglas en inglés) ha pasado de ser una idea marginal a ocupar titulares, declaraciones de grandes empresas tecnológicas y documentos oficiales de gobiernos. OpenAI, la empresa detrás de ChatGPT, afirma, en mi opinión hipócritamente, que su misión es “asegurar que la inteligencia artificial general beneficie a toda la humanidad”, mientras que DeepMind, la empresa detrás de AlphaGo y AlphaFold, describe la AGI como el motor potencial de una de las grandes transformaciones históricas. De hecho, Reino Unido y Estados Unidos ya mencionan la AGI en sus estrategias nacionales de inteligencia artificial (IA).
Recientemente, investigadores de Microsoft aseguraron haber detectado “destellos de AGI” en el modelo GPT-4, y algunos ejecutivos de Google han llegado a afirmar que “la AGI ya está aquí”.
Con tanta atención pública, podría parecer que todo el mundo tiene claro qué significa AGI. Pero la realidad es mucho más ambigua. Tanto el significado como la viabilidad del concepto son objeto de un intenso debate entre especialistas. Mientras tanto, empresas y gobiernos están tomando decisiones estratégicas basadas en interpretaciones a menudo muy diferentes de lo que sería una AGI.
Una idea con raíces antiguas
El objetivo de crear una inteligencia artificial con capacidades generales, similares a las humanas, se remonta a los años 50. En 1965, el premio Nobel Herbert Simon afirmó que las máquinas serían capaces de realizar cualquier trabajo humano en un plazo de veinte años. Marvin Minsky, pionero de la IA en el MIT, llegó a afirmar que en los años 70 las máquinas tendrían una inteligencia comparable a la de un niño.
Obviamente, estas predicciones no se cumplieron. Durante décadas, los éxitos de la IA se han concentrado en aplicaciones muy específicas: jugar al ajedrez, reconocer rostros, diagnosticar enfermedades concretas. El concepto de AGI no surgió hasta principios de los 2000, como respuesta al deseo de recuperar la ambición original de una inteligencia artificial similar a la inteligencia humana.
De sueño científico a objetivo empresarial
La AGI es una aspiración lejana y quizás inalcanzable. Sin embargo, algunas de las principales empresas de IA —como OpenAI, DeepMind o Anthropic— ya afirman explícitamente, aunque sin argumentos científicos sólidos, que es un objetivo perfectamente posible. Y eso ha alimentado todo tipo de especulaciones: desde predicciones optimistas (llegará antes de 2030) hasta advertencias apocalípticas sobre una posible “IA fuera de control”.
Pero, ¿qué significa exactamente AGI? No existe una única respuesta. Algunas definiciones se centran en la capacidad de realizar “cualquier tarea cognitiva que pueda hacer un humano”, mientras que otras la describen como un sistema “altamente autónomo, capaz de superar a los humanos en la mayoría de los trabajos valiosos económicamente” e incluso otras definiciones hablan de inteligencia con estados mentales y consciencia. En cualquier caso, todas parten de la idea de que esta IA sería mucho más “inteligente” que cualquier sistema actual de IA.
Optimizar no es lo mismo que pensar
Muchos sistemas de IA actuales funcionan optimizando objetivos muy concretos. Por ejemplo, AlphaGo está diseñado para maximizar sus posibilidades de ganar una partida de Go. Los grandes modelos de lenguaje, como ChatGPT, buscan predecir la siguiente palabra de una frase de la manera más probable. Esta manera de entender la inteligencia como una forma de optimización ha dado pie a teorías sobre una “superinteligencia” que podría llegar a autopotenciarse sin límites.
Estas ideas han alimentado escenarios de ciencia ficción: Nick Bostrom, en su libro Superinteligencia, especula que una IA encargada de fabricar clips de papel podría, en teoría, destruir a la humanidad, agotando absolutamente todos los recursos disponibles en el planeta, si su objetivo no estuviera bien acotado. Otros autores igualmente apocalípticos plantean versiones similares con inteligencias artificiales diseñadas para combatir el cambio climático que podrían decidir que el problema son los propios humanos y por consiguiente la solución sería eliminarlos a todos.
Sin embargo, muchos discrepamos profundamente de estas visiones. La inteligencia humana no es simplemente la capacidad de optimizar objetivos, sino un conjunto muy complejo e integrado de habilidades que dependen del cuerpo, de la experiencia emocional, del contexto social y de la cultura. Entender el mundo, adaptarse a situaciones nuevas y colaborar con otras personas son elementos centrales de la inteligencia humana, y no pueden emularse únicamente con cálculos basados en algoritmos de optimización.
Una etiqueta con más sombras que luces
Todo esto sugiere que la AGI, a pesar de su popularidad, sigue siendo una etiqueta poco clara. Las previsiones sobre su desarrollo suelen basarse más en intuiciones y creencias personales que en evidencias empíricas. Y la historia de la inteligencia artificial está llena de ejemplos donde nuestras expectativas resultaron erróneas.
Quizás, antes de preguntarnos cuándo llegará la AGI, deberíamos preguntarnos si realmente sabemos qué estamos buscando.
Ramon López de Mántaras,Institut d’Investigació en Intel·ligència Artificial (IIIA-CSIC)