La IA se hunde por donde crece

La revolución de la inteligencia artificial ha avanzado más rápido que su estructura de soporte. Mientras los titulares celebran la llegada de nuevos modelos y agentes cada trimestre, dos grietas profundas recorren su arquitectura: la inseguridad técnica y la precariedad de los datos que la alimentan.
Las filtraciones recientes en ChatGPT y las advertencias de Salesforce lo confirman: los sistemas que pretenden automatizar el conocimiento operan sobre cimientos poco fiables. Y lo que se presenta como un desafío técnico es, en realidad, un síntoma de desorden institucional.
Vulnerabilidades en cadena
Recientemente, investigadores de Tenable Research identificaron siete fallos críticos en ChatGPT, incluido su modelo más reciente, GPT-5. Entre ellos, una modalidad inquietante de ataque: la inyección de prompt de tipo “cero clic”, capaz de exfiltrar datos del usuario sin interacción.
El problema no reside en un error de código, sino en la propia lógica del sistema. Cada canal que un modelo de lenguaje toca —búsqueda, API, navegador— se convierte en una puerta más.
Lo que hace meses parecía una anomalía de Perplexity —aquel navegador que ejecutaba comandos maliciosos ocultos en un texto— se revela ahora como un patrón universal: los modelos no saben distinguir entre información y orden.
La consecuencia es clara: Comet, Atlas y cualquier arquitectura de agentes conectados sufren la misma fragilidad de base. Comet multiplica la exposición horizontal —cada módulo y cada herramienta son un punto de entrada—; Atlas amplifica la exposición vertical, ya que su memoria persistente almacena instrucciones que pueden reactivarse más tarde, incluso después de cerrada la sesión.
Uno se envenena al ejecutar; el otro, al recordar. Ambos fallan por la misma causa: la ausencia de fronteras entre el texto y la acción.
La higiene de los datos perdidos
El segundo eje de fragilidad es menos visible, pero igual de determinante. Según Salesforce, el 84 % de los responsables de datos admite que su organización no está preparada para escalar proyectos de IA. Solo el 16 % ha conseguido rediseñar su infraestructura de modo que la información sea confiable, accesible y auditable.
La brecha entre esa minoría y el resto no se explica por talento técnico, sino por disciplina. La mayoría de las empresas no sabe exactamente qué información alimenta sus modelos ni qué residuos permanecen en sus repositorios.
Los hallazgos de Anthropic y del Alan Turing Institute ya lo habían adelantado: bastan 250 documentos contaminados para alterar el comportamiento de un modelo. No hace falta un hacker; basta un descuido.
La seguridad, por tanto, comienza con la higiene del corpus. Un dato erróneo o un archivo adulterado puede tener más impacto que mil líneas de código vulnerables.
Y cuando una organización carece de procesos de validación, cada entrenamiento se convierte en una ruleta: puede generar conocimiento útil o reproducir errores invisibles que degradan el sistema con el tiempo.
Comet y Atlas: dos caras del mismo agujero
La industria suele presentar Comet y Atlas como ejemplos de madurez tecnológica: agentes con acceso a herramientas, razonamiento ampliado y memoria contextual. En realidad, ambos exhiben la misma debilidad estructural bajo envoltorios distintos.
Comet representa la apertura total —múltiples módulos, ejecución inmediata, flujo constante de entradas y salidas—; Atlas simboliza la persistencia: almacenamiento de interacciones, aprendizaje continuo, contexto acumulado.
Ambos encarnan una paradoja: cuanto más saben, más vulnerables se vuelven. Cuanta más autonomía adquieren, menos capacidad tenemos de auditar lo que ocurre dentro.
La inyección de prompt en Comet o la contaminación de memoria en Atlas son expresiones distintas del mismo defecto de diseño: modelos que procesan texto sin distinguir su intención, que asumen buena fe donde deberían exigir verificación.
Sin una arquitectura que separe contenido de instrucción, la inteligencia artificial seguirá funcionando como una casa sin cerraduras: aparentemente habitable, pero abierta a cualquiera que sepa empujar la puerta.
La brecha cultural: directivos listos, sistemas rotos
Mientras los ingenieros alertan sobre vulnerabilidades y obsolescencia de datos, muchos comités de dirección siguen convencidos de que su empresa “ya está lista para la IA”.
El 63 % de los ejecutivos se declara preparado, según el mismo informe de Salesforce, aunque los equipos técnicos digan lo contrario.
Esa disonancia revela algo más que una diferencia de percepción: evidencia una ruptura cultural entre el discurso de la innovación y la práctica de la seguridad.
No se trata de falta de ambición, sino de prioridades invertidas: se invierte en modelos antes que en cimientos, en capacidades visibles antes que en infraestructuras sólidas.
La consecuencia es predecible: proyectos eternamente en piloto, agentes que no escalan, sistemas que se bloquean ante datos inconsistentes. La fragilidad no nace del algoritmo, sino de la gestión. Y ninguna estrategia de transformación puede prosperar sobre datos rotos.
Gobernanza y confianza: los verdaderos límites
La madurez de la inteligencia artificial no se medirá por cuántos agentes despleguemos, sino por cuánto confiamos en los datos que los alimentan y en la arquitectura que los protege.
Mientras los sistemas sigan confundiendo instrucción con información, y las organizaciones sigan confundiendo despliegue con madurez, la IA seguirá siendo un edificio sin cimientos.
Proteger la inteligencia artificial significa cuidar el conocimiento que la sostiene. Requiere procesos continuos de limpieza, validación y auditoría, igual que una redacción necesita contrastar sus fuentes antes de publicar.
La confianza no se programa: se cultiva.
Y esa es, quizá, la medida más exacta de lo que está en juego: no la eficiencia ni la velocidad, sino la credibilidad de los sistemas que decimos inteligentes.
Donde termina la técnica y empieza la confianza
La doble fragilidad de la IA —la inseguridad de sus modelos y la precariedad de sus datos— no es una amenaza futura, sino una condición presente.
Comet, Atlas y todos sus descendientes nacen con un defecto de fábrica: fueron diseñados para aprenderlo todo, pero no para protegerse de lo que aprenden.
Hasta que no separemos conocimiento de exposición, instrucción de información y confianza de automatismo, la inteligencia artificial seguirá pareciéndose demasiado a nosotros: brillante, ambiciosa y peligrosamente distraída.