Persona-Plug (PPlug): un modelo plug-and-play liviano para la generación de lenguaje personalizado

La personalización es esencial en muchas tareas lingüísticas, ya que los usuarios con necesidades similares pueden preferir resultados diferentes en función de sus preferencias personales. Los métodos tradicionales implican el ajuste fino de los modelos lingüísticos para cada usuario, lo que requiere muchos recursos. Un enfoque más práctico utiliza sistemas basados ​​en la recuperación para personalizar los resultados haciendo referencia a los textos anteriores de un usuario. Sin embargo, este método puede no captar el estilo general de un usuario y puede alterar la continuidad de los resultados personalizados. Una mejor solución integra el estilo holístico del usuario en los modelos lingüísticos sin modificar su estructura, lo que permite obtener resultados personalizados sin necesidad de un reentrenamiento extenso ni de recursos computacionales.

Investigadores de la Universidad Renmin de China y Baidu Inc. presentaron un nuevo modelo de lenguaje personalizado, PPlug. Este mejora la personalización mediante un módulo de inserción de usuario que crea una inserción específica del usuario basada en todas sus interacciones históricas. Esta inserción se adjunta a la entrada para que el modelo de lenguaje haga referencia a ella, lo que le permite generar salidas personalizadas sin modificar sus parámetros. Las pruebas exhaustivas en el punto de referencia LaMP muestran que PPlug supera significativamente a los enfoques existentes, logrando mejoras de entre el 1,4 % y el 35,8 %. El modelo captura de manera eficiente los patrones de comportamiento holísticos de los usuarios para una mejor generación de lenguaje personalizado.

Los recientes avances en los LLM han dado lugar a enfoques personalizados para satisfacer las preferencias de cada usuario. Estos métodos se dividen principalmente en dos categorías: LLM personalizados, ajustados y basados ​​en la recuperación. Los modelos ajustados, como OPPU, ajustan los parámetros para cada usuario, pero son costosos desde el punto de vista computacional. Para solucionar este problema, se emplean métodos de ajuste fino con eficiencia de parámetros (PEFT), como LoRA, para optimizar la eficiencia. Por el contrario, los métodos basados ​​en la recuperación aprovechan el historial del usuario recuperando documentos relevantes para guiar los resultados del LLM sin modificar el modelo. Sin embargo, estos modelos enfrentan limitaciones con historiales de usuario largos debido a las restricciones de longitud de entrada.

El modelo PPlug personaliza los LLM incorporando incrustaciones específicas del usuario derivadas de comportamientos históricos, lo que guía a los LLM fijos en la generación de resultados personalizados. El modelo emplea un codificador de comportamiento del usuario para convertir cada interacción del usuario en vectores, que luego se agregan en función de la relevancia para las entradas actuales a través de un mecanismo de atención. A diferencia de los modelos ajustados, PPlug funciona como un sistema plug-and-play, lo que reduce los costos computacionales y evita el ajuste de parámetros para cada usuario. PPlug evalúa todos los comportamientos del usuario en comparación con los modelos basados ​​en la recuperación, lo que proporciona una representación integral de las preferencias del usuario para una personalización más precisa.

Los investigadores evaluaron su modelo PPlug utilizando el punto de referencia público LaMP, que incluye seis tareas de personalización: identificación de citas, etiquetado de películas, calificación de productos, generación de titulares de noticias, creación de títulos académicos y paráfrasis de tweets. Midieron el rendimiento con métricas como precisión, puntuación F1, MAE, RMSE y puntuaciones ROUGE. Utilizando codificadores FlanT5-XXL y basados ​​en BGE, PPlug superó consistentemente a los métodos de referencia, incluidos los modelos no personalizados y basados ​​en recuperación, logrando mejoras de entre el 1,4 % y el 35,8 %. Los estudios de ablación mostraron que la incorporación de todos los historiales de usuario e incrustaciones de instrucciones mejora el rendimiento. Además, la combinación de PPlug con estrategias de recuperación mejoró aún más los resultados, lo que demuestra su eficacia para capturar las preferencias completas del usuario.

En conclusión, PPlug utiliza un módulo de incrustación de usuario ligero y listo para usar para codificar y agregar los comportamientos históricos de un usuario en una incrustación personal única, que guía a los LLM para generar resultados personalizados. A diferencia de los métodos basados ​​en la recuperación existentes, que pueden no capturar los patrones lingüísticos generales de un usuario, PPlug crea una única incrustación que tiene en cuenta la entrada para representar el estilo general de un usuario. Los experimentos en el punto de referencia LaMP muestran que PPlug supera significativamente los métodos de personalización actuales, logrando resultados más personalizados sin requerir un ajuste fino extenso del modelo.


Echa un vistazo a la PapelTodo el crédito por esta investigación corresponde a los investigadores de este proyecto. Además, no olvides seguirnos en Gorjeo y únete a nuestro Canal de Telegram y LinkedIn Gr¡Arriba!. Si te gusta nuestro trabajo, te encantará nuestro hoja informativa..

No olvides unirte a nuestro Subreddit con más de 50 000 millones de usuarios

⏩ ⏩ SEMINARIO WEB GRATUITO SOBRE IA: ‘SAM 2 para video: cómo optimizar sus datos’ (miércoles 25 de septiembre, 4:00 a. m. a 4:45 a. m. EST)


Sana Hassan, pasante de consultoría en Marktechpost y estudiante de doble titulación en el IIT Madrás, es un apasionado de la aplicación de la tecnología y la IA para abordar los desafíos del mundo real. Con un gran interés en resolver problemas prácticos, aporta una perspectiva nueva a la intersección de la IA y las soluciones de la vida real.

⏩ ⏩ SEMINARIO WEB GRATUITO SOBRE IA: ‘SAM 2 para video: cómo optimizar sus datos’ (miércoles 25 de septiembre, 4:00 a. m. a 4:45 a. m. EST)

Leer más
Back to top button