Dibujar un retrato o imaginar el aspecto de cualquier persona dentro de veinte años es posible gracias a la inteligencia artificial (IA) generativa. Herramientas como Stable Diffusion, un modelo de aprendizaje automático desarrollado por Stability AI, es una de las aplicaciones capaces de generar imágenes digitales de alta calidad a partir de descripciones en lenguaje natural. Solo hay que introducir una pequeña descripción y la máquina hará el resto.
Podemos darle una descripción o que nos lea el pensamiento, porque Stable Diffusion es capaz de reconstruir experiencias visuales a partir de la actividad del cerebro humano, según una publicada en Biorxiv.
“Demostramos que nuestro marco simple puede reconstruir imágenes de alta resolución a partir de la actividad cerebral con alta fidelidad semántica, sin necesidad de entrenamiento o ajuste de modelos generativos profundos complejos”, explican Yu Takagi y Shinji Nishimoto, investigadores de la Graduate School of Frontier Biosciences de la Universidad de Osaka (Japón).
Con IA
Reconstruir experiencias visuales

La clave estuvo en los procesos aplicados para transformar la actividad cerebral en datos, para que de esta forma pudieran ser leídos y utilizados por esta herramienta
Los autores partieron de la idea de que la reconstrucción de experiencias visuales a partir de la actividad del cerebro humano “ofrece una forma única de comprender cómo el cerebro representa el mundo e interpretar la conexión entre los modelos de visión por computadora y nuestro sistema visual”.
Investigaciones anteriores ya habían ahondado en esta cuestión, pero utilizando sistemas demasiados complejos: “Si bien recientemente se han empleado modelos generativos profundos para esta tarea, la reconstrucción de imágenes realistas con alta fidelidad semántica sigue siendo un problema desafiante. Aquí, proponemos un nuevo método basado en un modelo de difusión (DM) para reconstruir imágenes de la actividad del cerebro humano obtenidas a través de imágenes de resonancia magnética funcional (fMRI)”.