
Introducción a la Automatización del Front-End
Implementar diseños visuales de sitios web en código funcional representa un desafío considerable, ya que exige no solo comprender los elementos visuales y su disposición, sino también traducirlos en código estructurado. Esta dependencia de habilidades especializadas ha limitado a muchas personas, que, a pesar de tener ideas concretas para construir o diseñar aplicaciones web, no pueden llevarlas a cabo sin el conocimiento técnico necesario. Además, la necesidad de pericia específica en el dominio complica todo el proceso de producción de páginas web, requiriendo colaboración entre individuos de distintas áreas y, en ocasiones, generando discrepancias entre el diseño planeado y la implementación final. La generación automática efectiva de código funcional a partir de diseños visuales podría democratizar el desarrollo de aplicaciones front-end, permitiendo a los no expertos construir aplicaciones de manera fácil y rápida.
Mientras que la generación de código a partir de lenguaje natural ha avanzado rápidamente en años recientes, la generación de implementaciones de código a partir del diseño de interfaces de usuario (UI) no ha recibido tanta atención debido a los numerosos desafíos que presenta, como la diversidad en señales visuales y de texto en la interfaz de usuario y el vasto espacio de búsqueda en el código resultante. Sin embargo, el desarrollo de Modelos de Lenguaje Grande Multimodales (LLMs) ha introducido una nueva era en este campo, donde modelos preentrenados a gran escala pueden procesar entradas visuales y de texto y generar salidas de texto para diversas tareas visualmente fundamentadas.
Este artículo presenta el punto de referencia Design2Code, el primer punto de referencia del mundo real para la tarea de Diseño a Código, utilizando páginas web reales como ejemplos de prueba para reflejar casos de uso realistas. Mediante la curación manual de un conjunto de 484 páginas web diversas, desafiantes y de alta calidad, y el desarrollo de un conjunto de métricas de evaluación automáticas, se busca comprender hasta qué punto estamos de poder automatizar la ingeniería front-end utilizando los actuales modelos LLM multimodales. Este esfuerzo no solo destaca el potencial de estos modelos para transformar el diseño de UI en implementaciones de código, sino que también subraya las limitaciones actuales y abre caminos para futuras investigaciones en la automatización del desarrollo front-end.
El Punto de Referencia Design2Code
El enfoque principal del estudio radica en la creación del punto de referencia Design2Code, diseñado para evaluar la capacidad de los modelos de lenguaje grande multimodales (LLMs) en la tarea de convertir diseños visuales de páginas web en código HTML/CSS funcional. Este esfuerzo implica varios pasos cruciales, que detallaré a continuación:
- Curación y Procesamiento de Datos: El primer paso consistió en recopilar un amplio conjunto de datos de páginas web reales. Se extrajeron enlaces de sitios web del conjunto de validación C4 y se incrustó el código CSS en los archivos HTML para obtener un único archivo de implementación de código por cada página web. Este proceso resultó en 127.9k páginas web, las cuales fueron sometidas a filtrado y procesamiento adicional.
- Curación del Conjunto de Pruebas: El objetivo era obtener un conjunto de páginas web bien formadas que representaran casos de uso diversos y realistas. Se aplicaron filtros automáticos de longitud y diseño para excluir páginas web excesivamente largas o con diseños demasiado simplistas, como aquellas que consistían únicamente en imágenes o textos. Este filtrado dio como resultado 14k páginas web tras la eliminación de duplicados.
- Creación de Páginas Web Autónomas: Para asegurar la independencia de las páginas web del conjunto de pruebas, se eliminaron todas las dependencias de archivos externos, como imágenes, audios, videos, etc. Esto incluyó la eliminación de etiquetas como
<script>, <audio>, <iframe>, <map>, <svg>
, y otras que enlazaban a sitios externos o contenían archivos externos. - Curación Manual Final: Tras el procesamiento automático, se llevó a cabo una ronda final de curación manual para seleccionar páginas web que no dependieran de archivos externos y estuvieran bien formateadas, excluyendo aquellas que contenían información privada, sensible o potencialmente dañina. Este meticuloso proceso de curación manual fue realizado por los autores del estudio, asegurando la calidad y diversidad del conjunto final de 484 ejemplos de prueba utilizados para el punto de referencia.
- Métricas de Evaluación Automáticas: Para complementar la evaluación humana, se desarrollaron métricas automáticas que capturan tanto la similitud visual de alto nivel como la coincidencia de elementos de bajo nivel entre las páginas web generadas y las originales. Estas métricas permiten una evaluación eficiente y objetiva del rendimiento de los modelos en la tarea Design2Code.
Este punto de referencia no solo facilita una evaluación rigurosa de los modelos actuales de LLMs en la generación de código a partir de diseños visuales, sino que también establece una base sólida para futuras investigaciones en este campo emergente. La inclusión de páginas web reales en el conjunto de pruebas refleja de manera más precisa los desafíos y complejidades que los desarrolladores enfrentan en situaciones del mundo real, asegurando que los avances en este ámbito tengan aplicaciones prácticas y significativas.
Evaluación de Modelos de Lenguaje Grande Multimodales

La evaluación de los Modelos de Lenguaje Grande Multimodales (LLMs) se realizó mediante una combinación de métricas automáticas y evaluaciones humanas para proporcionar una comprensión completa de su capacidad para generar páginas web a partir de diseños visuales.
Métricas Automáticas
Se emplearon métricas automáticas detalladas para evaluar la similitud entre las páginas web generadas por la IA y las páginas web de referencia en varios aspectos, como la similitud de bloques, la similitud de texto, la similitud de posición, la similitud de color y la similitud visual de alto nivel con CLIP. Estas métricas permitieron una evaluación objetiva y cuantificable de la precisión con la que los modelos pudieron replicar los elementos visuales y de contenido de las páginas web originales.
- GPT-4V supera a otros modelos: En todas las dimensiones evaluadas, GPT-4V mostró el mejor rendimiento, excepto en la dimensión de color, donde WebSight VLM-8B lideró.
- Mejora con el prompting aumentado con texto: Tanto en GPT-4V como en Gemini Pro Vision, el uso de textos extraídos como parte del prompt aumentó la puntuación de coincidencia de bloques y la similitud del texto, lo que indica la utilidad de proporcionar elementos de texto extraídos a los modelos.
- Mejora menor con la auto-revisión: La técnica de auto-revisión mostró algunas mejoras menores en la coincidencia de bloques y la similitud de posición para GPT-4V, pero no trajo mejoras en Gemini Pro Vision, posiblemente debido a las capacidades limitadas de los LLM para realizar correcciones intrínsecas sin retroalimentación externa.
Evaluación Humana
Para complementar las métricas automáticas, se llevaron a cabo evaluaciones humanas detalladas, reclutando anotadores humanos que compararon las páginas web generadas con las originales en términos de similitud visual y calidad de diseño. Se pidió a los anotadores que juzgaran si las páginas web generadas por la IA podrían reemplazar a las originales y cuáles consideraban que estaban mejor diseñadas. Sorprendentemente, en un 49% de los casos, las páginas generadas por la IA se consideraron intercambiables con las referencias, y en un 64% de los casos, se prefirieron las páginas generadas por GPT-4V sobre las originales.
Comparación de modelos: Los evaluadores humanos encontraron que GPT-4V era sustancialmente mejor que otros modelos de referencia. El prompting aumentado con texto y la auto-revisión mejoraron aún más su rendimiento. Finetuning con gran cantidad de datos: WebSight VLM-8B, que se ajustó con una gran cantidad de datos, mostró un rendimiento superior al prompting directo de Gemini, lo que sugiere que el ajuste fino con grandes volúmenes de datos puede igualar a modelos comerciales en dominios específicos. Evaluación directa de la automatización del front-end: Se pidió a los evaluadores humanos que compararan cada página web de referencia con la mejor página web generada por IA usando GPT-4V con prompting de auto-revisión. Se encontró que el 49% de las páginas web generadas por IA se consideraban intercambiables con las referencias, y sorprendentemente, en el 64% de los casos, las páginas generadas por GPT-4V se preferían sobre las originales, sugiriendo que las páginas generadas por IA a veces eran consideradas mejor diseñadas que las referencias originales.
Resultados y Hallazgos Clave
Los resultados mostraron que GPT-4V superó sustancialmente a los demás modelos en casi todas las dimensiones evaluadas. Las técnicas de prompting, como el prompting aumentado con texto y la auto-revisión, mejoraron aún más el rendimiento de GPT-4V. Se observó que la finura en los modelos abiertos puede igualar a los modelos comerciales en dominios específicos, como demostró WebSight VLM-8B, que superó a Gemini en el prompting directo. Sin embargo, la evaluación directa reveló que aún estamos lejos de una automatización completa de la ingeniería front-end, aunque los avances son prometedores.
Esta evaluación integral de los modelos LLMs en la tarea de diseño a código subraya el progreso significativo en el campo, al tiempo que destaca las áreas que requieren mejoras y desarrollo adicional. Los hallazgos sugieren que, aunque los modelos LLM actuales muestran una capacidad notable para generar páginas web a partir de diseños visuales, todavía existen desafíos significativos en la automatización completa del proceso de desarrollo front-end que deben abordarse en investigaciones futuras.
Implicaciones y Potencial de la Automatización en el Desarrollo Front-End

El estudio presentado en este artículo subraya un punto de inflexión en el campo del desarrollo front-end, marcado por la incursión de la inteligencia artificial en la automatización de tareas que tradicionalmente requerían una considerable intervención humana. El punto de referencia Design2Code se erige como un testimonio de esta evolución, al ofrecer un marco riguroso para evaluar la competencia de los modelos de lenguaje grande multimodales (LLMs) en la traducción de diseños visuales a implementaciones de código.
Automatización y Eficiencia
La capacidad de los LLMs, particularmente de GPT-4V, para generar páginas web a partir de simples capturas de pantalla no solo augura un aumento significativo en la eficiencia del desarrollo de interfaces, sino que también promete reducir las barreras de entrada para los no especialistas en programación. Esta democratización del desarrollo web podría fomentar una era de innovación más inclusiva, donde la falta de habilidades técnicas no sea un obstáculo para la materialización de ideas.
Creatividad Potenciada por la IA
Más allá de la mera reproducción de diseños existentes, los resultados indican que en algunos casos, las páginas generadas por GPT-4V son consideradas no solo equivalentes, sino incluso superiores a las originales. Esto sugiere que la IA podría desempeñar un papel no solo como ejecutora de tareas, sino como una colaboradora creativa, capaz de sugerir mejoras y alternativas basadas en principios de diseño modernos y tendencias actuales.
Desafíos y Limitaciones
Sin embargo, la automatización del desarrollo front-end aún enfrenta desafíos significativos. La variabilidad y complejidad de los diseños web, junto con la necesidad de adaptarse a los estándares de accesibilidad y responsabilidad nsibilidad, plantean barreras que los modelos actuales aún están aprendiendo a superar. Además, la gestión de elementos dinámicos y la interactividad en las páginas web representan horizontes aún por explorar en profundidad.
Conclusión y Trabajo Futuro
E este estudio, presenta el punto de referencia Design2Code, que consiste en una colección diversa de páginas web reales utilizadas como ejemplos de prueba. Desarrolla métricas automáticas integrales y realizamos una serie de evaluaciones humanas para comparar varios modelos LLMs de código multimodal. Estas evaluaciones revelan que los modelos de código abierto ajustados pueden igualar a Gemini Pro Vision en términos de rendimiento de prompting, aunque todavía no alcanzan a GPT-4V. Además, los anotadores humanos encuentran que el 49% de las generaciones de GPT-4V son lo suficientemente buenas como para reemplazar las referencias originales, y sorprendentemente, el 64% son consideradas incluso mejor diseñadas que las originales.
Creo que Design2Code puede servir como un punto de referencia útil para impulsar muchas direcciones de investigación futuras. Destacamos algunas de ellas, incluyendo la mejora de las técnicas de prompting para LLMs multimodales, especialmente en el manejo de páginas web complejas, y la capacitación de LLMs multimodales abiertos con páginas web del mundo real. Nuestros experimentos preliminares mostraron la dificultad de entrenar directamente con páginas web reales debido a su longitud y ruido, lo que sugiere que el trabajo futuro podría explorar pipelines de limpieza de datos para estabilizar este entrenamiento. Además, se sugiere la expansión más allá de las entradas de capturas de pantalla, como la recolección de marcos de Figma o diseños de bocetos de diseñadores front-end como entrada de prueba, y la extensión para incluir páginas web dinámicas, lo que requeriría que las evaluaciones consideren funciones interactivas más allá de la similitud visual.
Este trabajo subraya la promesa y los desafíos actuales de la automatización en el desarrollo front-end utilizando LLMs y establece un camino claro para futuras investigaciones que podrían mejorar significativamente la accesibilidad y eficiencia en la creación de páginas web y aplicaciones.