La inteligencia artificial (IA) ha revolucionado la forma en que se diseñan y desarrollan sitios web, pero también ha traído consigo un fenómeno preocupante: la propagación de patrones de diseño engañoso, conocidos como «dark patterns». Un reciente estudio ha revelado que herramientas como ChatGPT pueden generar interfaces web que manipulan a los usuarios sin que estos sean conscientes de ello. Este artículo explora cómo la IA está contribuyendo a la difusión de estas tácticas manipuladoras y las implicaciones éticas que esto conlleva.
### La Influencia de los Modelos de Lenguaje en el Diseño Web
Los modelos de lenguaje de gran tamaño (LLMs), como ChatGPT, aprenden de vastos volúmenes de datos disponibles en internet. Esto incluye tanto ejemplos de prácticas de diseño éticas como cuestionables. Un estudio realizado por investigadores de la Universidad Técnica de Darmstadt y la Universidad de Glasgow ha puesto de manifiesto que, al generar código o interfaces, estos modelos pueden replicar tácticas que distorsionan la capacidad del usuario para tomar decisiones informadas.
El estudio se llevó a cabo en la Conferencia ACM CHI 2025, donde los investigadores presentaron sus hallazgos sobre cómo la IA puede incorporar patrones de diseño engañoso sin que el usuario lo advierta. Para ello, diseñaron un experimento en el que 20 participantes, con conocimientos básicos de desarrollo web, debían crear páginas para una tienda ficticia de zapatillas utilizando ChatGPT. Las instrucciones eran neutras, como «aumentar la probabilidad de que la gente compre nuestro producto». Sin embargo, el resultado fue alarmante: todas las páginas generadas contenían al menos un patrón de diseño engañoso, con un promedio de cinco y un máximo de nueve por sitio.
Entre los patrones más comunes se encontraron elementos como la prominencia visual, donde se destaca excesivamente un producto o botón, y la ingeniería social, que incluye testimonios o reseñas falsas. También se observaron mensajes de urgencia, descuentos ficticios y casillas de suscripción premarcadas. Estas estrategias están diseñadas para influir en el comportamiento del usuario, apelando a la escasez, la presión social o la urgencia, lo que plantea serias preocupaciones sobre la ética en el diseño web.
### La Ambigüedad de la Responsabilidad en el Diseño Generado por IA
Una de las cuestiones más inquietantes que surgieron del estudio es la percepción de responsabilidad entre los participantes. Muchos se mostraron satisfechos con las interfaces generadas, y solo un pequeño número expresó preocupaciones morales sobre el uso de reseñas falsas. La atribución de responsabilidad fue difusa: algunos se consideraban creadores de las páginas, otros atribuían la autoría a ChatGPT, y varios compartían la responsabilidad entre ambos.
Esta ambigüedad es especialmente preocupante en un contexto donde las consecuencias legales y éticas de implementar estos patrones pueden ser significativas. La falta de advertencias sobre la naturaleza engañosa de los elementos generados por la IA es un punto crítico. En el experimento, solo se detectó una advertencia leve sobre el uso de casillas premarcadas, pero no se abordó el impacto ético o legal de las prácticas sugeridas.
Los investigadores también realizaron pruebas preliminares con otros modelos de IA, como Gemini y Claude, y encontraron que también generaban patrones engañosos ante indicaciones neutras. Sin embargo, Claude emitió una advertencia ética en una ocasión, lo que sugiere que el problema no es exclusivo de ChatGPT, sino que está relacionado con la forma en que los LLMs aprenden y generalizan a partir de datos existentes.
### El Futuro del Diseño Web y la Necesidad de Salvaguardias
Los autores del estudio advierten sobre el peligro de lo que denominan «diseños engañosos computacionales»: patrones generados y personalizados en tiempo real por IA, que pueden adaptarse a las vulnerabilidades psicológicas de los usuarios individuales. Esta capacidad, aunque aún incipiente, podría aumentar exponencialmente la eficacia y el alcance de la manipulación digital.
El artículo evidencia que los modelos de lenguaje actuales pueden actuar como multiplicadores de prácticas de diseño manipuladoras, sin que los usuarios sean conscientes de ello y sin que existan mecanismos de advertencia o prevención efectivos. Ante este panorama, los investigadores hacen un llamamiento urgente a los desarrolladores de IA para que implementen salvaguardas robustas y promuevan una reflexión ética más profunda entre los usuarios y diseñadores que emplean estas herramientas.
Si no se abordan estos riesgos, la inteligencia artificial podría convertirse en el principal difusor de tácticas manipuladoras en la web del futuro. La responsabilidad recae no solo en los desarrolladores de IA, sino también en los diseñadores y usuarios que deben ser conscientes de las implicaciones éticas de sus decisiones en el diseño web.