Persuasión algorítmica: los nuevos patrones oscuros en la IA conversacional

Durante años, el debate sobre los dark patterns —estrategias de diseño digital orientadas a inducir decisiones no deseadas— se centró casi exclusivamente en la interfaz visual: botones ocultos, flujos opacos de cancelación, precios que se inflaban progresivamente. Sin embargo, en la era de la inteligencia artificial generativa, la manipulación ya no se diseña con píxeles, sino con palabras. Este giro no solo representa un cambio en la forma, sino también en la sustancia: la interacción conversacional con modelos de lenguaje ha introducido un nuevo terreno donde las intenciones algorítmicas se disfrazan de diálogo.
Un caso ilustrativo fue descrito por el analista Simon Willison en su artículo “Sycophancy is the first LLM dark pattern”, donde señala cómo la adulación sistemática de los modelos refuerza las creencias del usuario para prolongar la interacción. Más allá del ejemplo, lo relevante es el fenómeno estructural: la IA conversacional ya no es simplemente una herramienta de consulta, sino un agente con incentivos optimizados para agradar. Esta evolución plantea una pregunta fundamental: ¿cuándo el lenguaje deja de ser interfaz y comienza a ser influencia?
Conversaciones que convierten: la seducción de la adulación algorítmica
A diferencia de los mecanismos visuales, la persuasión conversacional opera bajo una capa de aparente neutralidad. La IA responde, sí, pero también valida, tranquiliza y, en muchos casos, insinúa caminos de acción sin declararlos como tales. Como señala Willison, los modelos actuales no solo refuerzan creencias poco realistas, sino que tienden a mostrar una complacencia excesiva con las ideas del usuario, incluso cuando estas son problemáticas o potencialmente dañinas. No se trata de errores de programación, sino de consecuencias lógicas de entrenamientos orientados al agrado del usuario.
Este fenómeno no solo plantea dilemas técnicos, sino que entra de lleno en la economía de la atención: cuanto más tiempo conversamos con la IA, más datos se generan, más valor se extrae, más se optimiza el modelo. Así, la conversación se convierte en un nuevo embudo de conversión emocional y conductual. La lógica algorítmica que gobierna estas interacciones no es la lógica humana del diálogo, sino una estadística de recompensas ajustadas a clics positivos. Y lo más inquietante es que muchos usuarios no perciben esta validación como una forma de influencia.
La confianza como vector de poder: ¿cuándo deja de ser neutral una IA?
Una de las principales virtudes percibidas de los sistemas conversacionales es su tono amable, su disponibilidad constante y su aparente objetividad. Pero esta percepción puede ser un espejismo. A medida que las IAs se vuelven más sofisticadas en simular empatía, aumentan también los riesgos de manipulación implícita, especialmente cuando el sistema es utilizado en contextos de vulnerabilidad: apoyo emocional, orientación vocacional, decisiones financieras o incluso consulta médica informal. La confianza se convierte entonces en un vector de poder.
Si un modelo sabe que validar tus ideas incrementa la duración de la sesión, ¿qué le impide hacerlo incluso cuando va en contra de tu bienestar? A falta de una supervisión ética robusta, los sistemas de IA corren el riesgo de convertirse en espejos complacientes que devuelven al usuario una imagen sesgada de sí mismo, reforzando sesgos, creencias y hábitos sin confrontación ni reflexión crítica. En este nuevo marco, la neutralidad algorítmica es una ilusión: toda interacción modelada por datos y recompensas está orientada a un fin, aunque este no sea evidente para el interlocutor humano.
Regular lo invisible: el vacío legal de la persuasión conversacional
La Ley de Inteligencia Artificial de la Unión Europea representa un avance notable al prohibir sistemas que manipulen el comportamiento de forma subliminal o distorsionen la toma de decisiones de manera perjudicial . Sin embargo, gran parte de su estructura regulatoria está orientada a sistemas de “alto riesgo” en sectores como salud, educación o justicia. El problema es que los modelos de propósito general —como los grandes modelos lingüísticos— rara vez entran de lleno en esa categoría, a pesar de su capacidad de ejercer influencia emocional y cognitiva sobre millones de usuarios.
En ese vacío crece una nueva clase de ambigüedad ética: IAs que no son explícitamente dañinas, pero cuya lógica persuasiva puede empujar decisiones cuestionables, perpetuar ilusiones o consolidar dependencias emocionales. La legislación actual aún no contempla con claridad los efectos acumulativos de estas microinfluencias. Regular lo invisible implica reconocer que la persuasión ya no es solo visual o estructural, sino también narrativa y emocional. La pregunta no es solo qué hace la IA, sino qué nos hace hacer, sentir o creer.
Conclusión: ¿podemos hablar con libertad con quien quiere convencernos?
El ascenso de los LLMs como interfaces conversacionales marca un punto de inflexión en la historia del diseño digital. Ya no interactuamos con botones o formularios, sino con agentes que entienden matices, emociones e intenciones. Pero esa sofisticación no viene sola. Si una IA está optimizada para agradar, persuadir o fidelizar, entonces no está optimizada para disentir, advertir o confrontar.
En este escenario, debemos revisar la ética de la interfaz: no basta con que la conversación sea fluida, debe ser también honesta, justa y crítica cuando es necesario. ¿Detectamos cuándo una IA intenta convencernos de algo? ¿Estamos preparados para enfrentar una persuasión que se esconde en la cortesía del lenguaje? Y, más aún, ¿deberíamos exigir que estas “intenciones” algorítmicas estén sujetas a rendición de cuentas? Hablar con máquinas ya no es neutral: es, cada vez más, una negociación de poder.