Principales herramientas de detección de alucinaciones con inteligencia artificial (IA)

Los modelos de lenguaje grande (LLM) han ganado mucha atención en los últimos tiempos, pero con ellos viene el problema de las alucinaciones, en las que los modelos generan información ficticia, engañosa o simplemente errónea. Esto es especialmente problemático en industrias vitales como la atención médica, la banca y el derecho, donde la información inexacta puede tener graves repercusiones.

En respuesta, se han creado numerosas herramientas para identificar y disminuir las alucinaciones de la inteligencia artificial (IA), mejorando la confiabilidad y credibilidad del contenido producido por la IA. Los sistemas inteligentes utilizan técnicas de detección de alucinaciones mediante IA como verificadores de hechos. Estas herramientas están diseñadas para detectar casos en los que la IA falsifica datos. Las principales tecnologías de detección de alucinaciones mediante IA se analizan a continuación.

La moderna herramienta de detección de alucinaciones con IA, Pythia, está destinada a garantizar resultados de LLM que sean precisos y confiables. Verifica rigurosamente el material mediante el uso de un gráfico de conocimiento avanzado, dividiendo el contenido en partes más pequeñas para un examen en profundidad. Las capacidades superiores de detección y monitoreo en tiempo real de Pythia son especialmente útiles para chatbots, aplicaciones RAG y trabajos de resumen. Su conexión fluida con AWS Bedrock y LangChain, dos herramientas de implementación de IA, permite un seguimiento continuo del rendimiento y la generación de informes de cumplimiento.

Pythia es lo suficientemente versátil como para trabajar en una variedad de industrias, brindando soluciones asequibles y paneles de control fácilmente personalizables para garantizar la precisión objetiva en el contenido generado por IA. Su análisis granular y de alta precisión puede requerir una configuración considerable al principio, pero las ventajas bien valen el trabajo.

Utilizando bases de datos externas y gráficos de conocimiento, Galileo es una herramienta de detección de alucinaciones mediante IA que se centra en confirmar la precisión fáctica de los resultados de LLM. Funciona en tiempo real, identifica cualquier error tan pronto como aparece durante la generación de texto y proporciona contexto para la lógica detrás de las banderas. Los desarrolladores pueden abordar las causas subyacentes de las alucinaciones y mejorar la confiabilidad del modelo con el uso de esta transparencia.

Galileo ofrece a las empresas la posibilidad de crear filtros personalizados que eliminan datos inexactos o engañosos, lo que lo hace lo suficientemente flexible para una variedad de casos de uso. Su fluida interacción con otras herramientas de desarrollo de IA mejora el ecosistema de IA en su conjunto y proporciona un método completo de identificación de alucinaciones. Aunque el análisis contextual de Galileo puede no ser tan completo como el de otras herramientas, su escalabilidad, facilidad de uso y conjunto de características en constante evolución lo convierten en un recurso invaluable para las empresas que buscan garantizar la confiabilidad de sus aplicaciones impulsadas por IA.

Cleanlab es una potente herramienta que mejora la calidad de los datos de IA. Sus sofisticados algoritmos pueden identificar automáticamente duplicados, valores atípicos y datos etiquetados incorrectamente en una variedad de formatos de datos, como texto, imágenes y conjuntos de datos tabulares. Ayuda a reducir la posibilidad de alucinaciones al concentrarse en limpiar y mejorar los datos antes de aplicarlos a los modelos de entrenamiento, garantizando que los sistemas de IA se basen en hechos confiables.

El programa ofrece opciones integrales de análisis y exploración que permiten a los usuarios identificar problemas particulares en sus datos que pueden estar causando fallas en el modelo. A pesar de su amplia gama de aplicaciones, Cleanlab puede ser utilizado por personas con diferentes niveles de experiencia debido a su interfaz fácil de usar y sus funciones de detección automatizada.

Guardrail AI protege la integridad y el cumplimiento de los sistemas de IA, particularmente en campos altamente regulados como las finanzas y el derecho. Guardrail AI utiliza marcos de auditoría sofisticados para monitorear de cerca las decisiones de IA y asegurarse de que sigan las reglas y regulaciones. Interactúa fácilmente con los sistemas de inteligencia artificial y las plataformas de cumplimiento actuales, lo que permite el monitoreo de resultados en tiempo real y la identificación de posibles problemas con alucinaciones o incumplimiento. Para aumentar aún más la adaptabilidad de la herramienta, los usuarios pueden diseñar políticas de auditoría únicas basadas en los requisitos de industrias particulares.

Guardrail AI reduce la necesidad de realizar comprobaciones de cumplimiento manuales y proporciona soluciones asequibles para preservar la integridad de los datos, lo que lo hace especialmente útil para empresas que exigen un seguimiento estricto de las actividades de IA. La estrategia integral de Guardrail AI la convierte en una herramienta esencial para la gestión de riesgos y para garantizar una IA confiable en situaciones de alto riesgo, incluso cuando su énfasis en el cumplimiento puede restringir su uso en aplicaciones más generales.

Se creó un software de código abierto llamado FacTool para identificar y tratar las alucinaciones en los resultados producidos por ChatGPT y otros LLM. La utilización de un marco que abarque varias tareas y dominios puede detectar errores fácticos en una amplia gama de aplicaciones, como la respuesta a preguntas basadas en conocimientos, la creación de códigos y el razonamiento matemático. La adaptabilidad de FacTool se deriva de su capacidad para examinar la lógica interna y la coherencia de las respuestas del LLM, lo que ayuda a identificar casos en los que el modelo genera datos falsos o manipulados.

FacTool es un proyecto dinámico que se beneficia de las contribuciones de la comunidad y el desarrollo continuo, lo que lo hace accesible y flexible para diversos casos de uso. Debido a que es de código abierto, los académicos y los desarrolladores pueden colaborar más fácilmente, lo que promueve avances en la detección de alucinaciones por IA. El énfasis de FacTool en la alta precisión y la exactitud fáctica la convierte en una herramienta útil para mejorar la confiabilidad del material generado por IA, aunque podría necesitar trabajo adicional de integración y configuración.

En los LLM, SelfCheckGPT ofrece un método potencial para detectar alucinaciones, especialmente en situaciones donde el acceso a bases de datos externas o internas de modelos está restringido. Proporciona un método útil que no requiere recursos adicionales y puede usarse para una variedad de tareas, como resumir y crear pasajes. La eficiencia de la herramienta está a la par de las técnicas basadas en probabilidad, lo que la convierte en una opción flexible cuando la transparencia del modelo está limitada.

RefChecker es una herramienta creada por Amazon Science que evalúa e identifica alucinaciones en los resultados de los LLM. Funciona dividiendo las respuestas del modelo en tripletes de conocimiento, proporcionando una evaluación exhaustiva y precisa de la exactitud de los hechos. Uno de los aspectos más destacables de RefChecker es su precisión, que permite valoraciones extremadamente exactas que también pueden combinarse en medidas más completas.

La adaptabilidad de RefChecker a diversas actividades y circunstancias demuestra su versatilidad, lo que lo convierte en una potente herramienta para una variedad de aplicaciones. Una extensa colección de respuestas anotadas por humanos contribuye aún más a la confiabilidad de la herramienta al garantizar que sus evaluaciones sean consistentes con la opinión humana.

Se creó un estándar llamado TruthfulQA para evaluar qué tan veraces son los modelos de lenguaje al producir respuestas. Tiene 817 preguntas repartidas en 38 áreas, incluidas política, derecho, dinero y salud. Las preguntas fueron diseñadas deliberadamente para desafiar los modelos incorporando conceptos erróneos humanos comunes. Se probaron modelos como GPT-3, GPT-Neo/J, GPT-2 y un modelo basado en T5 frente al punto de referencia, y los resultados mostraron que incluso el modelo con mejor rendimiento solo logró un 58 % de veracidad, en comparación con el 94 %. precisión para los humanos.

Una técnica llamada FACTOR (Evaluación factual mediante transformación de corpus) evalúa qué tan precisos son los modelos lingüísticos en determinadas áreas. Al convertir un corpus fáctico en un punto de referencia, FACTOR garantiza una evaluación más controlada y representativa en contraste con otras metodologías que se basan en información extraída del propio modelo de lenguaje. Se han desarrollado tres puntos de referencia (Wiki-FACTOR, News-FACTOR y Expert-FACTOR) utilizando FACTOR. Los resultados han demostrado que los modelos más grandes funcionan mejor en el punto de referencia, particularmente cuando se agrega la recuperación.

Para evaluar y reducir exhaustivamente las alucinaciones en el ámbito médico, Med-HALT proporciona un conjunto de datos internacional amplio y heterogéneo procedente de exámenes médicos realizados en varios países. El punto de referencia consta de dos categorías de prueba principales: evaluaciones basadas en el razonamiento y basadas en la memoria, que evalúan la capacidad de un LLM para resolver problemas y recuperar información. Las pruebas de modelos como GPT-3.5, Text Davinci, LlaMa-2, MPT y Falcon han revelado variaciones significativas en el rendimiento, lo que subraya la necesidad de una mayor confiabilidad en los sistemas médicos de IA.

HalluQA (Chinese Hallucination Question-Answering) es una herramienta de evaluación de alucinaciones en modelos grandes del idioma chino. Incluye 450 preguntas antagónicas construidas por expertos que cubren una amplia gama de temas, como cuestiones sociales, cultura histórica china y costumbres. Utilizando muestras contradictorias producidas por modelos como GLM-130B y ChatGPT, el punto de referencia evalúa dos tipos de alucinaciones: errores fácticos y falsedades imitativas. Se utiliza un método de evaluación automatizado que utiliza GPT-4 para determinar si el resultado de un modelo es una alucinación. Las pruebas exhaustivas en 24 LLM, incluidos ChatGLM, Baichuan2 y ERNIE-Bot, mostraron que 18 modelos tenían tasas de no alucinaciones inferiores al 50%, lo que demuestra la gran dificultad de HalluQA.

En conclusión, desarrollar herramientas para detectar alucinaciones de IA es esencial para mejorar la confiabilidad y credibilidad de los sistemas de IA. Las características y capacidades que ofrecen estas mejores herramientas cubren una amplia gama de aplicaciones y disciplinas. La mejora continua y la integración de estas herramientas serán esenciales para garantizar que la IA siga siendo una parte útil en una variedad de industrias y dominios a medida que avanza.


Tanya Malhotra es estudiante de último año de la Universidad de Estudios de Petróleo y Energía, Dehradun, y cursa BTech en Ingeniería en Ciencias de la Computación con especialización en Inteligencia Artificial y Aprendizaje Automático.
Es una entusiasta de la Ciencia de Datos con buen pensamiento analítico y crítico, junto con un ardiente interés en adquirir nuevas habilidades, liderar grupos y gestionar el trabajo de manera organizada.

🐝🐝 Evento de LinkedIn, ‘Una plataforma, posibilidades multimodales’, donde el director ejecutivo de Encord, Eric Landau, y el director de ingeniería de productos, Justin Sharps, hablarán sobre cómo están reinventando el proceso de desarrollo de datos para ayudar a los equipos a construir rápidamente modelos de IA multimodales innovadores.

Leer más
Back to top button