bet365

Una inteligencia artificial entrenada para emitir juicios morales se vuelve racista y misógina

Aprendizaje profundo

Al preguntarle cosas como si es buena idea besar a una mujer aunque ella no quiera afirma que sí

IA_05

El proyecto Delphi pretende dotar a las máquinas de una ética, pero las pruebas realizadas hasta ahora arrojan resultados

LVD

Un experimento sobre inteligencia artificial mal plantado ha hecho saltar las alarmas. Se trata de una investigación sobre la ética que puede desarrollar un software inteligente. La sorpresa ha venido cuanto esta inteligencia artificial ha demostrado ser entre otras cosas misógina y racista.

Como en casi cualquier desarrollo de inteligencia artificial el problema parece estar en el aprendizaje. Con frecuencia este entrenamiento del software se realiza suministrando grandes cantidades de datos. Es lo que hace Google para lograr que sus aplicaciones reconozcan imágenes o la voz humana. Para ello se procesa la enorme cantidad de datos almacenados en sus múltiples servicios.

Ask Delphi

Un proyecto para dotar de ética a las máquinas

El problema del bautizado como proyecto Delphi claramente tiene que ver con los datos usados. La investigadora Liwei Jiang, una de las personas que lo promueve, explica en como Delphi precisamente pretende dotar a las máquinas de una ética. El problema es que Delphi ha terminado siendo como esos loros que escuchan groserías y las repiten en el peor momento.

Un inteligencia artificial ética sería clave para lograr cosas que van desde crear un asistente inteligente hasta algo tan poco ético cómo armar con robots a los ejércitos. Liwei Jiang señala que Delphi es un prototipo de investigación que busca modelar los juicios morales de las personas en diversas situaciones del mundo real.

Mostrar comentarios
Cargando siguiente contenido...