LinkedIn ha dejado de recopilar datos de usuarios del Reino Unido para su inteligencia artificial

El organismo de control de protección de datos del Reino Unido ha confirmado que LinkedIn, propiedad de Microsoft, ha dejado de procesar datos de usuarios para el entrenamiento de modelos de inteligencia artificial por ahora.

Steven Almond, director ejecutivo de riesgo regulatorio de la Oficina del Comisionado de Información, escribió en una declaración el viernes: “Nos complace que LinkedIn haya reflexionado sobre las preocupaciones que planteamos sobre su enfoque para entrenar modelos de IA generativos con información relacionada con sus usuarios del Reino Unido. Acogemos con satisfacción la confirmación de LinkedIn de que ha suspendido dicho entrenamiento de modelos a la espera de un mayor compromiso con la ICO”.

Los expertos en privacidad con ojo de águila ya habían detectado una edición silenciosa que LinkedIn hizo a su política de privacidad después de una reacción negativa por recopilar información de las personas para entrenar a las IA, agregando al Reino Unido a la lista de regiones europeas donde no ofrece una opción de exclusión voluntaria, ya que dice que no está procesando datos de usuarios locales para este propósito.

“En este momento, no estamos habilitando el entrenamiento para IA generativa en datos de miembros del Espacio Económico Europeo, Suiza y el Reino Unido, y no proporcionaremos la configuración a los miembros de esas regiones hasta nuevo aviso”, escribió el asesor general de LinkedIn, Blake Lawit, en una publicación actualizada del blog de la empresa publicada originalmente el 18 de septiembre.

La red social profesional había especificado previamente que no procesaba información de usuarios ubicados en la Unión Europea, el EEE o Suiza, donde se aplica el Reglamento General de Protección de Datos (RGPD) del bloque. Sin embargo, la ley de protección de datos del Reino Unido todavía se basa en el marco de la UE, por lo que cuando se supo que LinkedIn no estaba extendiendo la misma cortesía a los usuarios del Reino Unido, los expertos en privacidad se apresuraron a denunciarlo.

La organización británica sin ánimo de lucro de derechos digitales Open Rights Group (ORG) canalizó su indignación por la acción de LinkedIn en una nueva denuncia ante la ICO sobre el procesamiento de datos sin consentimiento para la IA. Pero también criticó al regulador por no haber detenido otro robo de datos de IA.

En las últimas semanas, Meta, el propietario de Facebook e Instagram, levantó una pausa previa en el procesamiento de los datos de sus propios usuarios locales para entrenar a sus IA y volvió a recopilar de forma predeterminada la información de los usuarios del Reino Unido. Eso significa que los usuarios con cuentas vinculadas al Reino Unido deben volver a optar activamente por no participar si no quieren que Meta use sus datos personales para enriquecer sus algoritmos.

A pesar de que la ICO ya había expresado su preocupación por las prácticas de Meta, hasta ahora el regulador se ha mantenido al margen y ha observado cómo el gigante de la tecnología publicitaria reanuda esta recolección de datos.

En una declaración publicada el miércoles, el responsable de políticas y asuntos legales de ORG, Mariano delli Santi, advirtió sobre el desequilibrio que supone permitir que las plataformas poderosas hagan lo que quieran con la información de las personas siempre y cuando incluyan una opción de exclusión voluntaria en algún lugar de la configuración. En cambio, argumentó, se les debería exigir que obtengan el consentimiento afirmativo por adelantado.

“El modelo de exclusión voluntaria demuestra una vez más ser totalmente inadecuado para proteger nuestros derechos: no se puede esperar que el público controle y persiga a cada una de las empresas en línea que decide usar nuestros datos para entrenar a la IA”, escribió. “El consentimiento voluntario no solo es un mandato legal, sino un requisito de sentido común”.

Nos hemos puesto en contacto con la ICO y Microsoft con preguntas y actualizaremos este informe si recibimos una respuesta.

Leer más
Back to top button