Los defensores de la seguridad de la IA dicen a los fundadores que disminuyan la velocidad

Lamentablemente, “muévete con cautela y forma un equipo rojo” no es tan pegadizo como “muévete rápido y rompe cosas”. Pero tres defensores de la seguridad de la IA dejaron claro a los fundadores de startups que ir demasiado rápido puede generar problemas éticos a largo plazo.

“Estamos en un punto de inflexión en el que se están trasladando toneladas de recursos a este espacio”, dijo Sarah Myers West, codirectora ejecutiva del AI Now Institute, en el escenario de TechCrunch Disrupt 2024. “Estoy realmente preocupada de que en este momento Hay tanta prisa por lanzar un producto al mundo, sin pensar en la cuestión del legado de cuál es el mundo en el que realmente queremos vivir y de qué manera la tecnología que se está produciendo actúa al servicio de ese mundo. o dañarlo activamente”.

La conversación llega en un momento en el que la cuestión de la seguridad de la IA parece más apremiante que nunca. En octubre, la familia de un niño que se suicidó demandó a la empresa de chatbot Character.AI por su presunto papel en la muerte del niño.

“Esta historia realmente demuestra lo mucho que está en juego en el muy rápido despliegue que hemos visto de tecnologías basadas en IA”, dijo Myers West. “Algunos de estos son problemas de larga data, casi intratables, de moderación de contenidos o abuso en línea.

Pero más allá de estas cuestiones de vida o muerte, los riesgos de la IA siguen siendo altos, desde la desinformación hasta la infracción de derechos de autor.

“Estamos construyendo algo que tiene mucho poder y la capacidad de impactar realmente la vida de las personas”, dijo Jingna Zhang, fundadora de la plataforma social de artistas Cara. “Cuando se habla de algo como Character.AI, que realmente interactúa emocionalmente con alguien, tiene sentido que creo que debería haber barreras sobre cómo se construye el producto”.

La plataforma de Zhang, Cara, despegó después de que Meta dejara claro que podía utilizar las publicaciones públicas de cualquier usuario para entrenar su IA. Para artistas como la propia Zhang, esta política es una bofetada. Los artistas necesitan publicar su trabajo en línea para conseguir seguidores y clientes potenciales, pero al hacerlo, su trabajo podría usarse para dar forma a los mismos modelos de inteligencia artificial que algún día podrían dejarlos sin trabajo.

“Los derechos de autor son lo que nos protege y nos permite ganarnos la vida”, afirmó Zhang. Si las obras de arte están disponibles en línea, eso no significa que sean gratuitas per se: las publicaciones de noticias digitales, por ejemplo, tienen que licenciar las imágenes de los fotógrafos para poder usarlas. “Cuando la IA generativa comenzó a generalizarse, lo que estamos viendo es que no funciona con lo que normalmente estamos acostumbrados, lo que está establecido por ley. Y si quisieran utilizar nuestro trabajo, deberían otorgarle una licencia”.

Aleksandra Pedraszewska, Seguridad de la IA, ElevenLabs; Sarah Myers West, directora ejecutiva del Instituto AI Now; y Jingna Zhang, fundadora y directora ejecutiva de Cara en TechCrunch Disrupt 2024 el miércoles 30 de octubre de 2024.Créditos de imagen:Fotografía de Katelyn Tucker/Slava Blazer

Los artistas también podrían verse afectados por productos como ElevenLabs, una empresa de clonación de voz mediante IA que vale más de mil millones de dólares. Como jefa de seguridad de ElevenLabs, le corresponde a Aleksandra Pedraszewska asegurarse de que la sofisticada tecnología de la empresa no sea cooptada para deepfakes no consensuados, entre otras cosas.

“Creo que los modelos de equipos rojos, la comprensión de comportamientos indeseables y las consecuencias no deseadas de cualquier nuevo lanzamiento que realice una empresa de IA generativa se está convirtiendo nuevamente en (una máxima prioridad)”, dijo. “ElevenLabs tiene hoy 33 millones de usuarios. Esta es una comunidad enorme que se ve afectada por cualquier cambio que realicemos en nuestro producto”.

Pedraszewska dijo que una forma en que las personas en su rol pueden ser más proactivas para mantener seguras las plataformas es tener una relación más cercana con la comunidad de usuarios.

“No podemos simplemente operar entre dos extremos, uno completamente anti-IA y anti-GenAI, y luego otro, tratando efectivamente de persuadir a una regulación cero del espacio. Creo que necesitamos encontrarnos en un punto intermedio en lo que respecta a la regulación”, afirmó.

¡TechCrunch tiene un boletín informativo centrado en la IA! Regístrate aquí para recibirlo en tu bandeja de entrada todos los miércoles.

Leer más
Back to top button