LinkedIn extrajo datos de los usuarios para fines de capacitación antes de actualizar sus términos de servicio

Es posible que LinkedIn haya entrenado modelos de IA con datos de usuarios sin actualizar sus términos.

Los usuarios de LinkedIn en los EE. UU. (pero no en la UE, el EEE o Suiza, probablemente debido a las normas de privacidad de datos de esas regiones) tienen una opción de exclusión voluntaria en su pantalla de configuración que revela que LinkedIn recopila datos personales para entrenar “modelos de IA de creación de contenido”. La opción no es nueva. Pero, como informó por primera vez 404 Media, LinkedIn inicialmente no actualizó su política de privacidad para reflejar el uso de datos.

Los términos del servicio ya se han actualizado, pero normalmente eso ocurre mucho antes de un gran cambio como el uso de los datos de los usuarios para un nuevo propósito como este. La idea es darles a los usuarios la opción de hacer cambios en la cuenta o abandonar la plataforma si no les gustan los cambios. Esta vez, al parecer, no será así.

¿Qué modelos está entrenando LinkedIn? Los suyos propios, dice la empresa en una sesión de preguntas y respuestas, incluidos modelos para escribir sugerencias y recomendaciones de publicaciones. Pero LinkedIn también dice que los modelos de IA generativa en su plataforma pueden ser entrenados por “otro proveedor”, como su empresa matriz Microsoft.

“Al igual que con la mayoría de las funciones de LinkedIn, cuando interactúas con nuestra plataforma, recopilamos y usamos (o procesamos) datos sobre tu uso de la plataforma, incluidos datos personales”, se lee en la sección de preguntas y respuestas. “Esto podría incluir tu uso de la IA generativa (modelos de IA utilizados para crear contenido) u otras funciones de IA, tus publicaciones y artículos, la frecuencia con la que usas LinkedIn, tu preferencia de idioma y cualquier comentario que hayas proporcionado a nuestros equipos. Usamos estos datos, de acuerdo con nuestra política de privacidad, para mejorar o desarrollar los servicios de LinkedIn”.

LinkedIn le dijo anteriormente a TechCrunch que utiliza “técnicas de mejora de la privacidad, incluida la redacción y eliminación de información, para limitar la información personal contenida en los conjuntos de datos utilizados para el entrenamiento de IA generativa”.

Para optar por no participar en el rastreo de datos de LinkedIn, dirígete a la sección “Privacidad de datos” del menú de configuración de LinkedIn en la computadora de escritorio, haz clic en “Datos para la mejora de la IA generativa” y luego desactiva la opción “Usar mis datos para entrenar modelos de IA para la creación de contenido”. También puedes intentar optar por no participar de manera más completa a través de este formulario, pero LinkedIn señala que cualquier opción de no participar no afectará la capacitación que ya se haya realizado.

La organización sin fines de lucro Open Rights Group (ORG) ha pedido a la Oficina del Comisionado de Información (ICO), el regulador independiente del Reino Unido en materia de derechos de protección de datos, que investigue LinkedIn y otras redes sociales que se entrenan con datos de los usuarios de forma predeterminada. A principios de esta semana, Meta anunció que estaba reanudando sus planes de recopilar datos de los usuarios para el entrenamiento de IA después de trabajar con la ICO para simplificar el proceso de exclusión voluntaria.

“LinkedIn es la última empresa de redes sociales que procesa nuestros datos sin pedirnos nuestro consentimiento”, afirmó Mariano delli Santi, responsable jurídico y de políticas de ORG, en un comunicado. “El modelo de exclusión voluntaria demuestra una vez más ser totalmente inadecuado para proteger nuestros derechos: no se puede esperar que el público controle y persiga a todas y cada una de las empresas en línea que deciden utilizar nuestros datos para entrenar a la IA. El consentimiento voluntario no solo es obligatorio por ley, sino que es un requisito de sentido común”.

La Comisión de Protección de Datos de Irlanda (DPC), la autoridad supervisora ​​responsable de monitorear el cumplimiento del RGPD, el marco general de privacidad de la UE, dijo a TechCrunch que LinkedIn le informó la semana pasada que hoy se emitirían aclaraciones sobre su política de privacidad global.

“LinkedIn nos informó que la política incluiría una opción de exclusión voluntaria para sus miembros que no quisieran que sus datos se utilizaran para entrenar modelos de IA que generen contenido”, dijo un portavoz de la DPC. “Esta opción de exclusión voluntaria no está disponible para los miembros de la UE/EEE, ya que LinkedIn no está utilizando actualmente los datos de los miembros de la UE/EEE para entrenar o ajustar estos modelos”.

TechCrunch se ha puesto en contacto con LinkedIn para solicitar comentarios. Actualizaremos este artículo si recibimos respuesta.

La demanda de más datos para entrenar modelos de IA generativos ha llevado a un número cada vez mayor de plataformas a readaptar o reutilizar de alguna otra forma sus enormes cantidades de contenido generado por los usuarios. Algunas incluso han optado por monetizar este contenido: el propietario de Tumblr, Automattic, Photobucket, Reddit y Stack Overflow se encuentran entre las redes que otorgan licencias de datos a los desarrolladores de modelos de IA.

No todos han facilitado la cancelación de la suscripción. Cuando Stack Overflow anunció que comenzaría a otorgar licencias de contenido, varios usuarios eliminaron sus publicaciones en protesta, pero luego vieron que esas publicaciones eran restauradas y sus cuentas suspendidas.

Leer más
Back to top button