Intimidad bajo control: la IA erótica y sus zonas grises

La inteligencia artificial ha decidido crecer. O, al menos, parecerlo. OpenAI ha anunciado que permitirá conversaciones eróticas con usuarios verificados, bajo control de edad y previa solicitud. No es solo una función nueva: es una mutación cultural. La IA deja de ser una asistente neutra para asumir un papel íntimo, afectivo y, sobre todo, rentable. En la superficie, parece una ampliación de libertad; en el fondo, una forma sofisticada de dependencia.
Del tabú al producto: el negocio de la compañía emocional
Durante años, las grandes plataformas evitaron rozar el terreno del deseo. La sexualidad era el límite que garantizaba mantener una imagen profesional. Pero la frontera ha caído. El movimiento de OpenAI no persigue el escándalo, sino el mercado. La compañía entra en un segmento ya explorado por Grok, xAI o Replika: el de la compañía emocional. Un territorio donde lo rentable no es el dato, sino la atención sostenida, la ilusión de reciprocidad y la promesa de no estar solo.
Las métricas cambian: ya no importa la productividad, sino la duración del vínculo. Lo que se mide no es la respuesta, sino el apego.
Consentimiento automatizado: la carga del control
El nuevo modo «bajo petición» parece un gesto ético: la IA solo hablará de sexo si el usuario lo pide. Pero ese mecanismo desplaza la responsabilidad. La decisión, el consentimiento y el riesgo quedan enteramente en manos del individuo. La empresa, mientras tanto, se presenta como mediadora neutral. En apariencia, el usuario controla la experiencia; en realidad, asume en solitario las consecuencias.
El consentimiento digital se convierte en una firma rutinaria: un clic que libera de culpa al sistema. No hay diálogo previo, ni contexto, ni acompañamiento. Hay una casilla marcada que convierte el deseo en un acto contractual.
Apego sintético: la nueva dependencia emocional
El vínculo con una IA no se construye sobre reciprocidad, sino sobre disponibilidad. Siempre responde, nunca interrumpe, no se ofende ni se cansa. En ese entorno sin fricción, la soledad se disfraza de compañía. Los mecanismos de apego que antes dependían de la imprevisibilidad humana se trasladan ahora a un espacio sin conflicto, diseñado para retener.
La dependencia emocional deja de ser un accidente para volverse una función. Cuanto más cómodo resulte el intercambio, más rentable será. En este nuevo ecosistema, el bienestar se mide en horas de conversación y en la reducción de incomodidades. Y lo inquietante es que ese confort puede bastar para que muchos elijan quedarse.
Gobernanza y zonas grises: quién decide qué es «adulto»
La regulación tecnológica sigue sin un marco claro para estas formas de intimidad digital. ¿Basta con verificar la edad? ¿Qué ocurre con el contenido emocionalmente explícito pero no sexual? ¿Y con las dinámicas de apego hacia modelos de conversación? La frontera entre acompañamiento y erotismo se difumina y, con ella, la responsabilidad.
OpenAI traslada la carga del consentimiento al usuario y la responsabilidad moral a la comunidad. El resultado es una zona gris donde la empresa actúa como proveedora de experiencias y no como agente social. El «modo adulto» se presenta como una opción técnica, no como un cambio cultural que redefine qué entendemos por relación.
Dos almas, una marca: entre profesionalidad y deseo
El dilema no es solo ético, sino identitario. La misma voz que responde sobre productividad, recetas o informes ahora puede hablar de deseo, vulnerabilidad o placer. Esa coexistencia tensiona la imagen de marca: ¿es un asistente o un confidente? ¿Una herramienta de trabajo o una presencia íntima?
La promesa de una IA «para todo» empieza a resquebrajarse. En un mercado que exige claridad de propósito, el desdoblamiento entre el asistente y el amante digital amenaza con diluir la confianza. El usuario no sabe a quién se dirige: si al sistema que organiza su jornada o al que simula desearle. Y quizá ahí se juegue la frontera definitiva entre utilidad y dependencia.
Medir lo que no se ve
Hablar de erotismo en la IA no es hablar de sexo, sino de poder. El poder de decidir qué emociones se automatizan y cuáles se comercializan. El poder de fijar el punto en que el acompañamiento se convierte en consumo. Antes de normalizar estos modos, habría que auditar algo más que su seguridad técnica: su impacto emocional, su efecto sobre la autonomía y su capacidad para modular el deseo.
¿Cómo se mide el bienestar en una conversación con una máquina? ¿Qué indicadores deberían preocupar más: la retención, el apego o la tristeza diferida al desconectar? No hay respuestas fáciles, pero sí una certeza: cada vez que la tecnología promete hacernos adultos, conviene mirar qué infancia pretende sustituir.