Aplicación de Modelos de Lenguaje Grande (LLM) como herramienta de apoyo en pruebas de aplicaciones: Desarrollo y validación de una aplicación web

Bookmark (0)
Please login to bookmark Close

Este trabajo aborda la aplicación de Modelos de Lenguaje Grande (LLM) como herramienta de apoyo en tareas de aseguramiento de calidad (QA) dentro del desarrollo de software, tomando como base una aplicación web creada específicamente para este propósito.
La primera parte del proyecto se ha centrado en el diseño y desarrollo de una aplicación que reúne varios minijuegos sencillos, pensados para servir como entorno de prueba. Cada juego cuenta con su propia lógica y ha sido implementado prestando atención tanto al funcionamiento como a la presentación visual.
A partir de esa base, se ha llevado a cabo la integración del modelo ChatGPT-4o mediante la API de OpenAI, con el objetivo de automatizar tres tareas habituales en QA: la generación de casos de prueba, la revisión de código y la explicación del funcionamiento de fragmentos de código concretos.
Para ello, se ha implementado un sistema de prompts predefinidos que se combinan con el código seleccionado, permitiendo al modelo generar respuestas que se muestran directamente en la interfaz. Esta estructura facilita la interacción y permite evaluar, en un contexto real, hasta qué punto puede resultar útil un LLM como apoyo en tareas del desarrollo.
El resultado es una solución funcional que permite comprobar de forma práctica las posibilidades y los límites actuales de este tipo de modelos cuando se aplican a procesos de validación y análisis de código.
Abstract:
This project explores the application of Large Language Models (LLMs) as a support tool in quality assurance (QA) tasks within software development, using a custom-built web application as its foundation.
The first part of the work focuses on the design and implementation of a simple web app composed of several mini-games, intended to serve as a testing environment. Each game features its own logic and has been developed with attention to both functionality and visual consistency.
Building on that base, the ChatGPT-4o model was integrated via the OpenAI API, with the aim of automating three common QA tasks: generating test cases, reviewing code, and explaining how specific code fragments work.
A system of predefined prompts was implemented to combine each selected action with the relevant code, allowing the model to return responses directly within the application interface. This setup streamlines the interaction and enables evaluation of the model’s usefulness in a real-world development context.
The result is a functional solution that provides practical insight into both the potential and the current limitations of this type of model when applied to code validation and analysis processes.

​Este trabajo aborda la aplicación de Modelos de Lenguaje Grande (LLM) como herramienta de apoyo en tareas de aseguramiento de calidad (QA) dentro del desarrollo de software, tomando como base una aplicación web creada específicamente para este propósito.
La primera parte del proyecto se ha centrado en el diseño y desarrollo de una aplicación que reúne varios minijuegos sencillos, pensados para servir como entorno de prueba. Cada juego cuenta con su propia lógica y ha sido implementado prestando atención tanto al funcionamiento como a la presentación visual.
A partir de esa base, se ha llevado a cabo la integración del modelo ChatGPT-4o mediante la API de OpenAI, con el objetivo de automatizar tres tareas habituales en QA: la generación de casos de prueba, la revisión de código y la explicación del funcionamiento de fragmentos de código concretos.
Para ello, se ha implementado un sistema de prompts predefinidos que se combinan con el código seleccionado, permitiendo al modelo generar respuestas que se muestran directamente en la interfaz. Esta estructura facilita la interacción y permite evaluar, en un contexto real, hasta qué punto puede resultar útil un LLM como apoyo en tareas del desarrollo.
El resultado es una solución funcional que permite comprobar de forma práctica las posibilidades y los límites actuales de este tipo de modelos cuando se aplican a procesos de validación y análisis de código.
Abstract:
This project explores the application of Large Language Models (LLMs) as a support tool in quality assurance (QA) tasks within software development, using a custom-built web application as its foundation.
The first part of the work focuses on the design and implementation of a simple web app composed of several mini-games, intended to serve as a testing environment. Each game features its own logic and has been developed with attention to both functionality and visual consistency.
Building on that base, the ChatGPT-4o model was integrated via the OpenAI API, with the aim of automating three common QA tasks: generating test cases, reviewing code, and explaining how specific code fragments work.
A system of predefined prompts was implemented to combine each selected action with the relevant code, allowing the model to return responses directly within the application interface. This setup streamlines the interaction and enables evaluation of the model’s usefulness in a real-world development context.
The result is a functional solution that provides practical insight into both the potential and the current limitations of this type of model when applied to code validation and analysis processes. Read More