La gobernanza de la IA no puede dejarse en manos de intereses creados

El informe final del órgano asesor de alto nivel de las Naciones Unidas sobre inteligencia artificial es, por momentos, una lectura surrealista. El documento, titulado “Gobernar la IA para la humanidad”, subraya los desafíos contradictorios que supone lograr que cualquier tipo de gobernanza se mantenga en una tecnología de tan rápido desarrollo, con inversiones masivas y tan publicitada.

Por un lado, el informe observa —con bastante acierto— que existe “un déficit de gobernanza global con respecto a la IA”. Por otro, el organismo asesor de la ONU señala con ironía que: “Cientos de guías, marcos y principios (de IA) han sido adoptados por gobiernos, empresas y consorcios, y organizaciones regionales e internacionales”. Al mismo tiempo, este informe añade un conjunto más de recomendaciones a la pila de gobernanza de la IA.

El problema general que destaca el informe es que existe un mosaico de enfoques en torno a la gobernanza de la IA, en lugar de una coherencia colectiva sobre qué hacer con una tecnología que es a la vez poderosa y estúpida.

La automatización con IA puede ser muy poderosa: basta con pulsar un botón para obtener resultados ajustados a la demanda. Pero la IA también puede ser estúpida porque, a pesar de lo que implica su nombre, no es inteligencia; sus resultados son un reflejo de sus datos de entrada, y los datos de entrada incorrectos pueden generar resultados muy malos (y poco inteligentes).

Si a la estupidez se le suma la escala, la IA puede causar problemas muy graves, como destaca el informe. Por ejemplo, puede amplificar la discriminación o difundir desinformación. Ambas cosas ya están sucediendo, en todo tipo de ámbitos, a una escala problemática, lo que conduce a daños muy reales en el mundo.

Pero aquellos que tienen intereses comerciales en el fuego de la IA generativa que ha estado ardiendo en los últimos años están tan cautivados por el potencial aumento de escala de esta tecnología que están haciendo todo lo posible para minimizar los riesgos de la estupidez de la IA.

En los últimos años, esto ha incluido un fuerte cabildeo sobre la idea de que el mundo necesita reglas para protegerse contra la llamada IAG (inteligencia artificial general), o el concepto de una IA que pueda pensar por sí misma e incluso podría pensar mejor que los humanos. Pero se trata de una ficción llamativa destinada a captar la atención de los responsables de las políticas y centrar la atención de los legisladores en problemas inexistentes de la IA, normalizando así las estupideces dañinas de las herramientas de IA de la generación actual. (Por lo tanto, en realidad, el juego de relaciones públicas que se está llevando a cabo consiste en definir y desactivar la noción del concepto de “seguridad de la IA” haciendo que signifique que nos preocupemos solo por la ciencia ficción).

Una definición estrecha de la seguridad de la IA sirve para distraer la atención de los enormes daños ambientales que supone invertir cada vez más potencia informática, energía y agua en la construcción de centros de datos lo suficientemente grandes como para alimentar a esta voraz nueva bestia de escala. Si podemos permitirnos seguir ampliando la IA de esta manera No están sucediendo a ningún alto nivel, pero ¿quizás deberían suceder?

El inspector de la IAG también sirve para dirigir la conversación y evitar las innumerables cuestiones legales y éticas vinculadas al desarrollo y uso de herramientas de automatización entrenadas con la información de otras personas sin su permiso. Están en juego empleos y medios de vida, incluso industrias enteras, y también los derechos y libertades de las personas.

Palabras como “derecho de autor” y “privacidad” asustan a los desarrolladores de IA mucho más que los supuestos riesgos existenciales de la IAG porque se trata de personas inteligentes que no han de hecho Perdió el contacto con la realidad.

Pero aquellos con un interés personal en ampliar la IA eligen insistir solo en el potencial beneficio de sus innovaciones para minimizar la aplicación de cualquier “barandilla” (para usar la metáfora minimalista de la elección cuando los tecnólogos finalmente se ven obligados a aplicar límites a su tecnología) que se interponga en el camino hacia la consecución de mayores ganancias.

Si a esto le sumamos rivalidades geopolíticas y un sombrío panorama económico mundial, los gobiernos de los estados nacionales a menudo pueden estar más que dispuestos a sumarse a la moda y la lucha por la IA, presionando por una menor gobernanza con la esperanza de que pueda ayudarlos a ampliar sus propios campeones nacionales de IA.

En un contexto tan desigual, ¿es de extrañar que la gobernanza de la IA siga siendo un lío tan terriblemente confuso y enredado? Incluso en la Unión Europea, donde a principios de este año los legisladores adoptaron un marco basado en el riesgo para regular una minoría de aplicaciones de la IA, las voces más fuertes que discuten este esfuerzo histórico siguen denunciando su existencia y afirmando que la ley presagia el fin de las posibilidades del bloque de generar innovación local. Y lo hacen incluso después de que la ley se diluyera tras las presiones previas de la industria tecnológica (encabezadas por Francia, con la vista puesta en los intereses de Mistral, su esperanza de un campeón nacional de GenAI).

Un nuevo impulso para desregular las leyes de privacidad de la UE

Los intereses creados no se detienen ahí. Ahora tenemos a Meta, propietaria de Facebook e Instagram (que se ha convertido en una gran desarrolladora de inteligencia artificial) haciendo lobby abiertamente para desregular las leyes europeas de privacidad y eliminar los límites a cómo puede usar la información de las personas para entrenar a las IA. ¿Nadie librará a Meta de esta turbulenta regulación de la protección de datos para que pueda despojar a los europeos de su cultura para obtener ganancias publicitarias?

Su última carta abierta de lobby contra el Reglamento General de Protección de Datos (GDPR) de la UE, que fue escrita en el WSJ, involucra a un grupo de otros gigantes comerciales también dispuestos a desregular para obtener ganancias, incluidos Ericsson, Spotify y SAP.

“Europa se ha vuelto menos competitiva y menos innovadora en comparación con otras regiones y ahora corre el riesgo de quedarse aún más rezagada en la era de la IA debido a la toma de decisiones regulatorias inconsistentes”, según se informa en la carta.

Meta tiene un largo historial de incumplimiento de la legislación de privacidad de la UE (por ejemplo, ha recibido la mayoría de las diez mayores multas de la historia en virtud del RGPD y ha acumulado miles de millones de dólares en multas), por lo que no debería ser un ejemplo de prioridades legislativas. Sin embargo, cuando se trata de IA, ¡aquí estamos! Después de haber infringido tantas leyes de la UE, ¿se supone que debemos escuchar las ideas de Meta para eliminar el obstáculo de tener leyes que infringir en primer lugar? Este es el tipo de pensamiento mágico que puede provocar la IA.

Pero lo realmente aterrador es que existe el peligro de que los legisladores inhalen esta propaganda y entreguen las palancas del poder a quienes quieren automatizar todo, poniendo una fe ciega en un dios de escala sin cabeza con la esperanza de que la IA genere automáticamente prosperidad económica para todos.

Es una estrategia —si es que podemos llamarla así— que ignora por completo el hecho de que las últimas décadas de desarrollo digital (muy poco regulado) han producido exactamente lo contrario: una asombrosa concentración de riqueza y poder absorbida por un puñado de plataformas masivas: las grandes tecnológicas.

Es evidente que los gigantes de las plataformas quieren repetir el truco con Big AI, pero los responsables de las políticas corren el riesgo de recorrer sin pensar los caminos que les recomienda su ejército de cabilderos políticos, generosamente remunerados. Esto no se parece en nada a una lucha justa, si es que llega a serlo.

Sin duda, las presiones económicas están impulsando un profundo examen de conciencia en Europa en estos momentos. Un informe muy esperado de principios de este mes del economista italiano Mario Draghi sobre el tema, nunca tan delicado, del futuro de la competitividad europea en sí mismo se queja de las “cargas regulatorias” autoimpuestas que también se describen específicamente como “contraproducentes para quienes trabajan en los sectores digitales”.

Teniendo en cuenta el momento en que Meta publicó su carta abierta, seguramente su objetivo es llegar a la misma conclusión, pero no es de extrañar: Meta y varias de las otras empresas que se suman a este esfuerzo por desregular las leyes de privacidad de la UE se encuentran entre la larga lista de empresas que Draghi consultó directamente para su informe (mientras tanto, como otros han señalado, la lista de colaboradores del economista no incluye a ningún grupo de derechos humanos o digitales, aparte del grupo de consumidores BEUC).

Recomendaciones del grupo asesor de inteligencia artificial de la ONU

La asimetría de intereses que impulsa la adopción de la IA y, al mismo tiempo, busca rebajar y diluir los esfuerzos de gobernanza hace difícil ver cómo puede surgir un consenso verdaderamente global sobre cómo controlar la escala y la estupidez de la IA. Pero el grupo asesor de la ONU sobre IA tiene algunas ideas que parecen sólidas, si alguien está dispuesto a escucharlas.

Entre las recomendaciones del informe se incluye la creación de un panel científico internacional independiente para estudiar las capacidades, oportunidades, riesgos e incertidumbres de la IA e identificar áreas en las que se necesita más investigación, con especial atención al interés público (aunque es una buena idea encontrar académicos que no estén ya en la nómina de Big AI). Otra recomendación son los diálogos intergubernamentales sobre IA que se llevarían a cabo dos veces al año al margen de las reuniones existentes de la ONU para compartir las mejores prácticas, intercambiar información e impulsar una mayor interoperabilidad internacional en materia de gobernanza. El informe también menciona un intercambio de estándares de IA que mantendría un registro de definiciones y trabajaría para fomentar la armonización de estándares a nivel internacional.

El organismo de la ONU también sugiere crear lo que llama una “red de desarrollo de capacidad de IA” para reunir conocimientos y recursos para apoyar el desarrollo de la gobernanza de la IA dentro de los gobiernos y para el interés público; y también establecer un fondo global para la IA para abordar las brechas digitales que la distribución desigual de la tecnología de automatización también corre el riesgo de ampliar drásticamente.

En cuanto a los datos, el informe propone establecer lo que denomina un “marco global de datos de IA” para fijar definiciones y principios que regulen los datos de entrenamiento, incluso con vistas a garantizar la diversidad cultural y lingüística. El esfuerzo debería establecer normas comunes en torno a la procedencia de los datos y su uso, a fin de garantizar una “rendición de cuentas transparente y basada en derechos en todas las jurisdicciones”.

El organismo de la ONU también recomienda establecer fideicomisos de datos y otros mecanismos que, según sugiere, podrían ayudar a fomentar el crecimiento de la IA sin comprometer la gestión de la información, como por ejemplo a través de “mercados globales bien gobernados para el intercambio de datos anónimos para entrenar modelos de IA” y mediante “acuerdos modelo” para permitir el acceso transfronterizo a los datos.

Una recomendación final es que la ONU establezca una Oficina de Inteligencia Artificial dentro de la Secretaría que actúe como un organismo de coordinación, que informe al Secretario General para brindar apoyo, participar en actividades de divulgación y asesorar al jefe de la ONU. Y una cosa está clara: la IA va a exigir una movilización masiva de esfuerzos, organización y mucho trabajo si queremos evitar que los intereses creados definan la agenda de gobernanza.

Leer más
Back to top button