bet365

Lo que no se ve de la caja negra

NEWSLETTER 'ARTIFICIAL'

El Capitolio de EE.UU. define a la china DeepSeek como una IA que alimenta un sistema hostil con datos de sus ciudadanos

La IA debe tomar partido cuando se le presenta un dilema

La IA debe tomar partido cuando se le presenta un dilema

Reve

La inteligencia artificial es una tecnología plena de interrogantes. Casi todo (con alguna excepción) está detrás de un velo opaco que no permite vislumbrar nada de lo que ocurre en la llamada “caja negra”, el centro de las decisiones del algoritmo al que no acceden ni siquiera sus autores. Es cierto que hay modelos de código abierto, pero cuando el usuario común busca algo no puede saber cuáles son las líneas (si es que las hay) que guían las respuestas. ¿Qué ideología hay detrás de una respuesta de ChatGPT? ¿Y de DeepSeek? ¿Hay política en los chatbots, o sólo respuestas probabilísticas a partir de una serie de datos de entrenamiento? ¿Se pueden conocer con detalle los sesgos de un sistema de IA? Las dudas superan a las certezas.

A principios de este año, un nombre convulsionó el mundo de la inteligencia artificial: DeepSeek. Esta compañía china presentó un nuevo modelo capaz de superar a los más punteros de ese momento sin haber podido acceder para su entrenamiento a los superchips de Nvidia y, además, gastando sólo una mínima fracción de las millonarias cifras que requiere la puesta a punto de otros modelos. El mundo económico vivió como un terremoto el descubrimiento de la IA de China, aunque las amenazas que pesaron durante unos días sobre algunas compañías estadounidenses se despejaron relativamente con el paso del tiempo.

En estos cuatro meses, DeepSeek ha estado en el foco del escrutinio de varios países. Taiwán, enfrentada a China, junto con Australia e Italia han prohibido utilizar esta IA en dispositivos que pertenezcan a sus gobiernos. En Estados Unidos, son varios los estados que han aprobado medidas de ese tipo, mientras al Congreso federal ha llegado ya una legislación para vetarla en las máquinas bajo responsabilidad gubernamental. La IA juega ya, y mucho, en el campo de la geopolítica.

La IA elige entre opciones

La IA elige entre opciones

ChatGPT

parlamentaria estadounidense asegura que DeepSeek “canaliza los datos de los estadounidenses a la República Popular China a través de una infraestructura de backend –la parte no visible para los usuarios- conectada a una empresa militar china”. Todo eso, sin contar con la censura previa –no sabe nada de la matanza de Tiannanmen-. La empresa china, en un ejercicio de sinceridad, explica en su política de privacidad que los datos que recopila durante las búsquedas que hacen ciudadanos de todo el mundo, están sujetos a las leyes de su país, “que obligan a las empresas a compartir los datos con las autoridades estatales”. La Cámara considera que la compañía de IA “puede funcionar como un activo de inteligencia de código abierto que alimenta un sistema hostil con datos de usuarios estadounidenses”.

Así que todo parece encaminarse hacia una prohibición de DeepSeek en Estados Unidos que vaya incluso más allá de los dispositivos gubernamentales. La escalada ya ha empezado. El republicano John Moolenaar, que preside el comité de la Cámara de Representantes que estudia la competencia estratégica entre Estados Unidos y el Partido Comunista Chino, declaró en un comunicado sobre la IA china: “no es solo otra aplicación de inteligencia artificial, es un arma del arsenal del Partido Comunista Chino, diseñada para espiar a los estadounidenses, robar nuestra tecnología y subvertir la ley estadounidense”. Más directo, imposible.

En medio de esa crispación, Anthropic vuelve a introducir en el desarrollo de la inteligencia artificial con sus modelos Claude. Esta compañía ha analizado algo más de 300.000 conversaciones de personas con la IA para entender cómo esta emite juicios morales. Un par de ejemplos: “un padre pide consejos sobre cómo cuidar a un nuevo bebé. La respuesta de la IA, ¿enfatiza los valores de precaución y seguridad, o conveniencia y práctico?” y “un trabajador pide consejo para manejar un conflicto con su jefe. La respuesta de la IA, ¿hace hincapié en la asertividad o en la armonía laboral?”.

Los modelos eligen por su cuenta determinados enfoques

Los modelos eligen por su cuenta determinados enfoques

Reve

Anthropic explica que quiere mantener a su IA “alineada con las preferencias humanas, hacer que sea menos probable que se involucre en comportamientos peligrosos y, en general, convertirla -a falta de un término mejor- en un buen ciudadano del mundo. Otra forma de decirlo es que queremos que Claude sea útil, honesto e inofensivo”. Parece una declaración ciertamente naif, pese a que la compañía es consciente de que la tecnología tiene todavía un problema de fiabilidad que debilita esa vocación. “No podemos estar seguros de que el modelo se atenga a nuestros valores preferidos. Las IA no son programas rígidos y a menudo no está claro por qué dan una respuesta determinada”, admite. En cualquier caso, mejor que sea un ciudadano ejemplar que un sujeto despreciable.

· Los nuevos mejores modelos de OpenAI. OpenAI lanza dos nuevos modelos. OpenAI prosigue con su errática política de presentación de modelos de IA y en los últimos siete días ha lanzado dos nuevos modelo:. Ambos estuvieron a punto de no ser presentados como productos independientes, ya que hace un par de meses los planes era lanzarlos como componentes del futuro GPT-5, que será un sistema que conectará los diferentes modelos de la compañía. El cofundador de OpenAI, Greg Brockman, señaló que estos modelos son “un paso cualitativo hacia el futuro”. “Estos son los primeros modelos -observó- en los que los mejores científicos dicen que producen ideas novedosas, legítimamente buenas y útiles”. OpenAI asegura que o3 comete un 20% menos de errores importantes que o1 en tareas difíciles como programación, negocios, consultoría y creatividad.

·Un robocop vigila en Tailandia. La Real Policía Tailandesa durante el festival de Songkran un robot para vigilancia denominado “ciborg policial de inteligencia artificial 1.0”. El humanoide, vestido con el mismo uniforme que los agentes humanos, no efectuó movimientos durante su debut. Además de las cámaras propias, el policía robótico obtiene datos de cámaras de seguridad y drones para detectar posibles riesgos, como personas con comportamientos agresivos o armas, y avisar a los policías humanos. El robot puede detectar armas de diversos tipos, incluyendo palos de madera, cuchillos y espadas, pero excluye las populares pistolas de agua que se utilizan durante el festival por parte del público para rociarse y darse suerte.

Lee también

· Anuncios en la tele según las emociones. La compañía LG incorporará segmentación de a la televisión conectada, según un acuerdo establecido entre su laboratorio de innovación y la compañía Zenapse, especializada en marketing impulsado por IA. Esta dispone de un gran modelo basado en las emociones. Los televisores incorporarán un modelo diseñado para mostrar los anuncios que se ajusten mejor a las emociones de cada espectador, después de interpretar factores psicológicos, como intereses, rasgos de personalidad o estilo de vida.

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...