bet365赔率

Cuidado con este riesgo de la IA: todos podemos ser excodificados

Inteligencia Artificial

Cuidado con este riesgo de la IA: todos podemos ser excodificados

Desde hace varios meses todo el mundo habla de inteligencia artificial (IA) a todos los niveles, desde el c贸micamente famoso 鈥渃u帽ado鈥 hasta los gobernantes m谩s poderosos. Por ejemplo, la Casa Blanca acaba de presentar una orden ejecutiva cuyo objetivo es promover sistemas de IA seguros y confiables. Su eficacia depender谩 en gran medida de c贸mo se aplique esta regulaci贸n y en particular de qu茅 aspectos sean vinculantes y cu谩les sean meramente voluntarios.

Por su parte, el G7 acaba de acordar un c贸digo de conducta, en este caso 煤nicamente voluntario, que las empresas de IA deber铆an respetar. Los d铆as 1 y 2 de noviembre se celebra una cumbre, en el ic贸nico Bletchley Park (donde Alan Turing consigui贸 descifrar los mensajes del ej茅rcito alem谩n codificados mediante la m谩quina Engima) con el objetivo de elaborar reglas globales sobre una IA segura.

Somos excodificados cuando se utilizan algoritmos para negarnos derechos

En mi opini贸n, estas iniciativas prestan excesiva atenci贸n a hipot茅ticos peligros de extinci贸n de la humanidad debidos a futuras superinteligencias artificiales. Todo ello refleja una narrativa largoplacista, impulsada desde Silicon Valley, sobre el riesgo existencial que plantea la IA. Narrativa cada vez m谩s dominante en el discurso p煤blico.

Esto es preocupante porque focalizar los esfuerzos en evitar da帽os hipot茅ticos que podr铆an, o no, surgir a muy largo plazo desv铆a la atenci贸n de los da帽os reales que la IA est谩 causando ya hoy en d铆a. Uno de ellos es el riesgo muy real de ser excodificados (neologismo inventado por la experta en IA y activista Joy Buolamwini combinando los t茅rminos 鈥渆xcluidos鈥 y 鈥渃odificados鈥, 茅ste 煤ltimo en el sentido de inform谩tico del t茅rmino).

Asian man is using facial recognition for payment

El reconocimiento facial, cada vez m谩s usado听

Weiquan Lin / Getty

Corremos el riesgo de ser excodificados cuando un hospital utiliza un algoritmo que nos categoriza como no prioritarios para recibir un trasplante de 贸rgano. Tambi茅n somos excodificados cuando se nos niega un pr茅stamo bancario por una toma de decisiones algor铆tmica o cuando nuestro curr铆culum es descartado autom谩ticamente por un algoritmo. Tambi茅n podemos ser excodificados cuando un algoritmo de selecci贸n de inquilinos nos niega el acceso a la vivienda. Son ejemplos reales. Nadie es inmune a ser excodificado y quienes ya est谩n marginados corren un riesgo mayor.

No es casualidad pues que la narrativa del largoplacismo est茅 impulsada por los responsables de las grandes tecnol贸gicas de Silicon Valley, ya que lo que pretenden es esconder bajo la cortina de humo del largoplacismo los peligros reales y as铆 evitar su regulaci贸n con el (dudoso) argumento de quedarse atr谩s en la carrera de la innovaci贸n.

El neologismo excodificados, inventado por una experta en IA, combina los t茅rminos excluidos y codificados

Lo que se deber铆a hacer es un replanteamiento radical de c贸mo se construyen los sistemas de IA, comenzando con una regulaci贸n muy estricta sobre las pr谩cticas de recopilaci贸n de datos con el fin de que sean 茅ticas y consensuadas con los propietarios de los datos. Las empresas de 迟别肠苍辞濒辞驳铆补 deber铆an estar sujetas a un escrutinio p煤blico sobre sus sistemas de inteligencia artificial para garantizar que sus productos se desarrollen minimizando da帽os potenciales y valorando c贸mo, una vez desplegados, estos sistemas pueden afectar a nuestras vidas, a nuestra sociedad y a nuestros sistemas pol铆ticos.

Hasta ahora las contadas voces que se han atrevido a se帽alar los actuales problemas reales causados por los sistemas de IA se han tenido que enfrentar a cr铆ticas agresivas en redes sociales (como en el caso de Joy Buolamwini, que tuvo que defenderse de los ataques p煤blicos de Amazon) o al rechazo de sus empleadores que incluso les puede costar su puesto de trabajo, como fue el caso de Timnit Gebru y Margaret Mitchell, despedidas por los responsables de Google.

Es una verg眉enza que las voces que alertan sobre los peligros actuales y reales de la IA corran el riesgo de ser silenciadas por las mismas empresas que, hip贸critamente, afirman estar muy preocupadas por los riesgos de la IA. Los que estamos implicados en la investigaci贸n y desarrollo de la IA estamos moralmente obligados a informar a la ciudadan铆a de que los sistemas de IA nos pueden excodificar y para evitarlo es imprescindible enfrentarse a las grandes tecnol贸gicas mediante una regulaci贸n estricta, incluso m谩s estricta que la que se contempla en la futura 鈥淎I Act鈥 de la UE, y si es necesario prohibir el despliegue de aplicaciones que claramente supongan un alto riesgo para la sociedad.

Ramon L贸pez de M谩ntaras es fundador y exdirector del Insituto de Investigaci贸n de Inteligencia Artificial del CSIC. Su 煤ltimo libro es 'Cent coses que cal saber sobre intel路lig猫ncia artificial'

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...