El impacto de los chatbots de IA en la formación de recuerdos falsos: un estudio exhaustivo

Los recuerdos falsos, recuerdos de acontecimientos que no ocurrieron o que se desvían significativamente de los acontecimientos reales, plantean un desafío importante en psicología y tienen consecuencias de gran alcance. Estos recuerdos distorsionados pueden comprometer los procedimientos legales, llevar a una toma de decisiones errónea y distorsionar los testimonios. El estudio de los recuerdos falsos es crucial debido a su potencial para impactar diversos aspectos de la vida humana y la sociedad. Los investigadores enfrentan varios desafíos al investigar este fenómeno, incluida la naturaleza reconstructiva de la memoria, que está influenciada por actitudes, expectativas y contextos culturales individuales. La maleabilidad de la memoria y su susceptibilidad a la influencia lingüística complican aún más el estudio de los recuerdos falsos. Además, la similitud entre las señales neuronales de recuerdos verdaderos y falsos presenta un obstáculo importante para distinguirlos, lo que dificulta el desarrollo de métodos prácticos para detectar recuerdos falsos en entornos del mundo real.

Esfuerzos de investigación anteriores han explorado varios aspectos de la formación de recuerdos falsos y su relación con las tecnologías emergentes. Los estudios han investigado el impacto de los deepfakes y la información engañosa en la formación de la memoria, revelando la susceptibilidad de la memoria humana a las influencias externas. Se ha demostrado que los robots sociales influyen en el reconocimiento de la memoria, y un estudio demostró que el 77% de la información inexacta y emocionalmente neutral proporcionada por un robot se incorporó a la memoria de los participantes como errores. Este efecto fue comparable a las distorsiones de la memoria inducidas por humanos. Las técnicas de neuroimagen, como la resonancia magnética funcional (fMRI) y los potenciales relacionados con eventos (ERP), han examinado los correlatos neuronales de los recuerdos verdaderos y falsos. Estos estudios han identificado distintos patrones de activación cerebral asociados con el reconocimiento verdadero y falso, particularmente en las regiones tempranas del procesamiento visual y el lóbulo temporal medial. Sin embargo, la aplicación práctica de estos métodos de neuroimagen en entornos del mundo real aún debe mejorarse debido a su alto costo, sus complejos requisitos de infraestructura y su gran demanda de tiempo. A pesar de estos avances, existe una brecha de investigación significativa en la comprensión de la influencia específica de la IA conversacional, particularmente los modelos de lenguaje grandes, en la formación de recuerdos falsos.

Investigadores del MIT Media Lab y la Universidad de California han realizado un estudio exhaustivo para investigar el impacto de la IA conversacional impulsada por LLM en la formación de recuerdos falsos, simulando un escenario de testigo en el que los sistemas de IA sirvieron como interrogadores. Este diseño experimental involucró a 200 participantes asignados aleatoriamente a una de cuatro condiciones en un estudio de dos fases. El experimento utilizó una historia de portada para ocultar su verdadero propósito, informando a los participantes que el estudio tenía como objetivo evaluar las reacciones a la cobertura en video de un crimen. En la Fase 1, los participantes vieron un vídeo CCTV silencioso y no pausable de dos minutos y medio de duración de un robo a mano armada en una tienda, simulando la experiencia de un testigo. Luego interactuaron con su condición asignada, que era una de las cuatro condiciones experimentales diseñadas para comparar sistemáticamente varios mecanismos que influyen en la memoria: una condición de control, una condición basada en encuestas, una condición de chatbot preestablecida y una condición de chatbot generativa. Estas condiciones se diseñaron cuidadosamente para explorar diferentes aspectos de la inducción de recuerdos falsos, desde métodos de encuesta tradicionales hasta interacciones avanzadas impulsadas por IA. Esto permite un análisis exhaustivo de cómo las diferentes técnicas de interrogatorio podrían influir en la formación y el recuerdo de la memoria en escenarios de testigos.

El estudio empleó un diseño experimental de dos fases para investigar el impacto de diferentes métodos de interacción de la IA en la formación de recuerdos falsos. En la Fase 1, los participantes vieron un video CCTV de un robo a mano armada y luego interactuaron con una de cuatro condiciones: control, basado en encuestas, chatbot preescrito o chatbot generativo. La condición basada en encuestas utilizó Formularios de Google con 25 preguntas de sí o no, incluidas cinco engañosas. El chatbot preescrito hizo las mismas preguntas que la encuesta, mientras que el chatbot generativo proporcionó comentarios mediante un LLM, lo que potencialmente reforzó recuerdos falsos. Después de la interacción, los participantes respondieron 25 preguntas de seguimiento para medir su recuerdo del contenido del video.

La fase 2, realizada una semana después, evaluó la persistencia de recuerdos falsos inducidos. Este diseño permitió la evaluación de los efectos inmediatos y a largo plazo de diferentes métodos de interacción sobre el recuerdo y la retención de recuerdos falsos. El estudio tenía como objetivo responder cómo diversos métodos de interacción de la IA influyen en la formación de recuerdos falsos, con tres hipótesis preregistradas que comparan la efectividad de diferentes condiciones y exploran factores moderadores. Preguntas de investigación adicionales examinaron los niveles de confianza en los recuerdos falsos inmediatos y retrasados, así como los cambios en el recuento de recuerdos falsos a lo largo del tiempo.

Los resultados del estudio revelaron que las interacciones a corto plazo (10 a 20 minutos) con chatbots generativos pueden inducir significativamente más recuerdos falsos y aumentar la confianza de los usuarios en estos recuerdos falsos en comparación con otras intervenciones. La condición de chatbot generativo produjo un gran efecto de desinformación: el 36,4% de los usuarios fueron engañados a través de la interacción, en comparación con el 21,6% en la condición basada en encuestas. El análisis estadístico mostró que el chatbot generativo indujo significativamente más recuerdos falsos inmediatos que la intervención basada en encuestas y el chatbot preestablecido.

Todas las condiciones de intervención aumentaron significativamente la confianza de los usuarios en los recuerdos falsos inmediatos en comparación con la condición de control, y la condición de chatbot generativo produjo niveles de confianza aproximadamente dos veces mayores que el control. Curiosamente, la cantidad de recuerdos falsos inducidos por el chatbot generativo se mantuvo constante después de una semana, mientras que las condiciones de control y de encuesta mostraron aumentos significativos en los recuerdos falsos con el tiempo.

El estudio también identificó varios factores moderadores que influyen en los falsos recuerdos inducidos por la IA. Se descubrió que los usuarios menos familiarizados con los chatbots, más familiarizados con la tecnología de inteligencia artificial y aquellos más interesados ​​en las investigaciones de delitos eran más susceptibles a la formación de recuerdos falsos. Estos hallazgos resaltan la compleja interacción entre las características del usuario y el potencial de recuerdos falsos inducidos por la IA, enfatizando la necesidad de una consideración cuidadosa de estos factores en el despliegue de sistemas de IA en contextos sensibles como los testimonios de testigos presenciales.

Este estudio proporciona evidencia convincente del impacto significativo que la IA, particularmente los chatbots generativos, puede tener en la formación de recuerdos falsos en los humanos. La investigación subraya la necesidad urgente de una consideración cuidadosa y pautas éticas a medida que los sistemas de IA se vuelven cada vez más sofisticados e integrados en contextos sensibles. Los hallazgos resaltan los riesgos potenciales asociados con las interacciones entre la IA y los humanos, especialmente en áreas como los testimonios de testigos presenciales y los procedimientos legales. A medida que el mundo continúa avanzando en la tecnología de IA, es crucial equilibrar sus beneficios con salvaguardas para proteger la integridad de la memoria humana y los procesos de toma de decisiones. Es esencial realizar más investigaciones para comprender completamente y mitigar estos efectos.


Mira el Papel. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, no olvides seguirnos en Gorjeo y únete a nuestro Canal de telegramas y LinkedIn Grarriba. Si te gusta nuestro trabajo, te encantará nuestro hoja informativa..

No olvides unirte a nuestro SubReddit de más de 50.000 ml

¿Está interesado en promocionar su empresa, producto, servicio o evento ante más de 1 millón de desarrolladores e investigadores de IA? ¡Colaboremos!


Asjad es consultor interno en Marktechpost. Está cursando B.Tech en ingeniería mecánica en el Instituto Indio de Tecnología, Kharagpur. Asjad es un entusiasta del aprendizaje automático y el aprendizaje profundo que siempre está investigando las aplicaciones del aprendizaje automático en la atención médica.

Leer más
Back to top button