Lingma SWE-GPT: Soluciones pioneras asistidas por IA para los desafíos del desarrollo de software con modelos innovadores de código abierto

La ingeniería de software automatizada (ASE) ha surgido como un campo transformador, que integra la inteligencia artificial con los procesos de desarrollo de software para abordar los desafíos de depuración, mejora de funciones y mantenimiento. Las herramientas ASE emplean cada vez más modelos de lenguajes grandes (LLM) para ayudar a los desarrolladores, mejorar la eficiencia y abordar la creciente complejidad de los sistemas de software. Sin embargo, la mayoría de las herramientas de última generación dependen de modelos propietarios de código cerrado, lo que limita su accesibilidad y flexibilidad, particularmente para organizaciones con estrictos requisitos de privacidad o limitaciones de recursos. A pesar de los recientes avances en el campo, ASE continúa lidiando con los desafíos de implementar soluciones escalables del mundo real que puedan abordar dinámicamente las necesidades matizadas de la ingeniería de software.

Una limitación importante de los enfoques existentes surge de su excesiva dependencia de datos estáticos para la capacitación. Si bien son eficaces para generar soluciones a nivel de función, modelos como GPT-4 y Claude 3.5 luchan con tareas que requieren una comprensión contextual profunda de las dependencias de todo el proyecto o la naturaleza iterativa del desarrollo de software del mundo real. Estos modelos se entrenan principalmente en bases de código estáticas y no logran capturar los flujos de trabajo dinámicos de resolución de problemas de los desarrolladores cuando interactúan con sistemas de software complejos. La ausencia de conocimientos a nivel de proceso obstaculiza su capacidad para localizar fallas de manera efectiva y proponer soluciones significativas. Además, los modelos de código cerrado introducen preocupaciones sobre la privacidad de los datos, especialmente para las organizaciones que trabajan con bases de código confidenciales o patentadas.

Investigadores del Tongyi Lab del Grupo Alibaba desarrollaron el Serie Lingma SWE-GPTun conjunto de LLM de código abierto optimizados para la mejora del software. La serie incluye dos modelos, Lingma SWE-GPT 7B y 72B, diseñados para simular procesos de desarrollo de software del mundo real. A diferencia de sus homólogos de código cerrado, estos modelos son accesibles, personalizables y están diseñados para capturar los aspectos dinámicos de la ingeniería de software. Al integrar conocimientos de actividades de envío de código del mundo real y flujos de trabajo iterativos de resolución de problemas, Lingma SWE-GPT tiene como objetivo cerrar la brecha de rendimiento entre los modelos de código abierto y cerrado manteniendo la accesibilidad.

El desarrollo de Lingma SWE-GPT sigue una metodología estructurada de tres etapas: comprensión del repositorio, localización de fallas y generación de parches. En la primera etapa, el modelo analiza la jerarquía del repositorio de un proyecto, extrayendo información estructural clave de directorios, clases y funciones para identificar archivos relevantes. Durante la fase de localización de fallas, el modelo emplea razonamiento iterativo y API especializadas para identificar con precisión fragmentos de código problemáticos. Finalmente, la etapa de generación de parches se centra en crear y validar correcciones, utilizando operaciones de git para garantizar la integridad del código. El proceso de capacitación enfatiza la síntesis de datos orientada a procesos, empleando muestreo de rechazo y aprendizaje curricular para refinar el modelo de manera iterativa y manejar progresivamente tareas más complejas.

Las evaluaciones de desempeño demuestran la efectividad de Lingma SWE-GPT en puntos de referencia como SWE-bench Verified y SWE-bench Lite, que simulan problemas de GitHub del mundo real. El modelo Lingma SWE-GPT 72B resolvió el 30,20 % de los problemas en el conjunto de datos SWE-bench Verified, un logro significativo para un modelo de código abierto. Este rendimiento se acerca al de GPT-4o, que resolvió el 31,80% de los problemas y representó una mejora del 22,76% con respecto al modelo Llama 3.1 405B de código abierto. Mientras tanto, el modelo más pequeño Lingma SWE-GPT 7B logró una tasa de éxito del 18,20% en SWE-bench Verified, superando el 17,20% del Llama 3.1 70B. Estos resultados resaltan el potencial de los modelos de código abierto para cerrar las brechas de rendimiento sin dejar de ser rentables.

Las evaluaciones de SWE-bench también revelaron la solidez de Lingma SWE-GPT en varios repositorios. Por ejemplo, en repositorios como Django y Matplotlib, el modelo 72B superó consistentemente a sus competidores, incluidos los principales modelos de código abierto y cerrado. Además, la variante 7B más pequeña demostró ser muy eficiente para escenarios con recursos limitados, lo que demuestra la escalabilidad de la arquitectura de Lingma SWE-GPT. La ventaja de costos de los modelos de código abierto refuerza aún más su atractivo, ya que eliminan los altos costos de API asociados con las alternativas de código cerrado. Por ejemplo, resolver las 500 tareas en el conjunto de datos SWE-bench Verified usando GPT-4o costaría aproximadamente $390, mientras que Lingma SWE-GPT no incurre en costos directos de API.

La investigación también subraya varias conclusiones clave que ilustran las implicaciones más amplias del desarrollo de Lingma SWE-GPT:

  • Accesibilidad de código abierto: los modelos Lingma SWE-GPT democratizan las capacidades avanzadas de ASE, haciéndolas accesibles para varios desarrolladores y organizaciones.
  • Paridad de rendimiento: el modelo 72B logra un rendimiento comparable a los modelos de código cerrado de última generación y resuelve el 30,20 % de los problemas en SWE-bench Verified.
  • Escalabilidad: el modelo 7B demuestra un sólido rendimiento en entornos restringidos y ofrece una solución rentable para organizaciones con recursos limitados.
  • Comprensión dinámica: al incorporar capacitación orientada a procesos, Lingma SWE-GPT captura la naturaleza iterativa e interactiva del desarrollo de software, cerrando las brechas dejadas por la capacitación de datos estáticos.
  • Localización de fallas mejorada: la capacidad del modelo para identificar ubicaciones de fallas específicas mediante razonamiento iterativo y API especializadas garantiza una alta precisión y eficiencia.

En conclusión, Lingma SWE-GPT representa un importante paso adelante en ASE, al abordar las limitaciones críticas del entrenamiento de datos estáticos y la dependencia de código cerrado. Su metodología innovadora y desempeño competitivo lo convierten en una alternativa convincente para las organizaciones que buscan soluciones escalables y de código abierto. Al combinar conocimientos orientados a procesos con alta accesibilidad, Lingma SWE-GPT allana el camino para una adopción más amplia de herramientas asistidas por IA en el desarrollo de software, haciendo que las capacidades avanzadas sean más inclusivas y rentables.


Mira el Papel. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, no olvides seguirnos en Gorjeo y únete a nuestro Canal de telegramas y LinkedIn Grarriba. Si te gusta nuestro trabajo, te encantará nuestro hoja informativa.. No olvides unirte a nuestro SubReddit de más de 55.000 ml.

(CONFERENCIA VIRTUAL DE IA GRATUITA) SmallCon: Conferencia virtual gratuita sobre GenAI con Meta, Mistral, Salesforce, Harvey AI y más. Únase a nosotros el 11 de diciembre en este evento virtual gratuito para aprender lo que se necesita para construir a lo grande con modelos pequeños de pioneros de la IA como Meta, Mistral AI, Salesforce, Harvey AI, Upstage, Nubank, Nvidia, Hugging Face y más.


Asif Razzaq es el director ejecutivo de Marktechpost Media Inc.. Como empresario e ingeniero visionario, Asif está comprometido a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, Marktechpost, que se destaca por su cobertura en profundidad del aprendizaje automático y las noticias sobre aprendizaje profundo que es técnicamente sólida y fácilmente comprensible para una amplia audiencia. La plataforma cuenta con más de 2 millones de visitas mensuales, lo que ilustra su popularidad entre el público.

🐝🐝 Evento de LinkedIn, ‘Una plataforma, posibilidades multimodales’, donde el director ejecutivo de Encord, Eric Landau, y el director de ingeniería de productos, Justin Sharps, hablarán sobre cómo están reinventando el proceso de desarrollo de datos para ayudar a los equipos a construir rápidamente modelos de IA multimodales innovadores.

Leer más
Back to top button