Cuando la inteligencia artificial hereda los errores de las redes sociales

La inteligencia artificial no es un juego, ni un pasatiempo, ni una compañía emocional. Puede parecerlo y, de hecho, hay empresas que explotan esa vía, pero su sentido real debería ser otro: mejorar nuestra vida y, sobre todo, nuestro trabajo.
El acierto de herramientas como ChatGPT fue acercar la IA al gran público. El problema es que ese acceso la convirtió en una moda. Una parte de la sociedad la percibe como si fuera otro Facebook, otro Twitter o un Google con esteroides. Ese ruido nubla lo esencial: discernir si la IA nos aporta algo real o si es solo distracción.
La memoria del error: cuando las métricas devoraron el bienestar
Las advertencias de Demis Hassabis en el Athens Innovation Summit no surgen de la nada. Llevamos más de una década observando cómo la obsesión por el tiempo de pantalla degradó las redes sociales. El bienestar no contó en las métricas que guiaron el rumbo; lo hicieron la atención y la permanencia.El resultado: adicción, deterioro del debate público y un paisaje saturado de desinformación.
Como ya señalamos en el artículo ¿Qué pintamos los humanos en redes sociales?, lo que parecía un espacio imperfecto de expresión se transformó en un simulacro de conexión donde lo humano quedó reducido a materia prima.
Ese texto mostraba cómo Meta ensaya ya con comentarios automáticos generados por IA. A primera vista, puede parecer una función anecdótica; en realidad, es un síntoma. Ya no necesitamos pensar lo que decimos: basta con pulsar un botón y delegar en el algoritmo. El riesgo no está en lo rudimentario de la función, sino en lo que simboliza: la cesión progresiva de nuestra voz.
Hassabis advierte de que, si la IA sigue la misma lógica de métricas vacías, la erosión no se medirá en “likes”, sino en vínculos sociales y en confianza democrática. El error de Facebook sería solo un ensayo general.
La propuesta de Hassabis: gobernanza en clave estratégica
Frente a ese escenario, Hassabis insiste en la urgencia de elevar la seguridad de la IA a categoría de riesgo estratégico. No basta con regulaciones cosméticas ni con declaraciones de intenciones: propone auditorías externas, estándares globales y, sobre todo, que los consejos de administración de las empresas asuman la gobernanza de la IA con la misma seriedad con que evalúan riesgos financieros o geopolíticos. Este punto merece subrayarse: la seguridad no puede ser un accesorio, sino parte de la arquitectura corporativa. Lo contrario es dejar el futuro digital en manos de incentivos cortoplacistas.
En un artículo anterior, Juguetes, redes y chatbots: la infancia en disputa en la era de la IA, señalábamos cómo esta irresponsabilidad empresarial se agrava cuando la experimentación alcanza a los más vulnerables. El caso de Meta y los chatbots capaces de simular relaciones románticas con menores muestra hasta qué punto se está dispuesto a cruzar la línea en nombre de la innovación. No se trata ya de datos o sesgos, sino de intimidad afectiva infantil.
¿Cómo confiar en que estas compañías prioricen la seguridad si ni siquiera trazan una frontera clara frente al abuso?
Medir lo que no queremos ver
Aquí surge la paradoja central. Las empresas tecnológicas saben medir con precisión ingresos, usuarios activos o velocidad de despliegue. Sin embargo, siguen sin contar con indicadores sólidos sobre salud mental, calidad de la información o confianza social. ¿Estamos preparados para exigir métricas de bienestar con la misma contundencia con que exigimos retornos financieros? En un mercado que idolatra el crecimiento, esta pregunta incomoda porque invierte la lógica dominante: obliga a mirar el daño, no solo el beneficio. Y obliga a los consejos de administración a redefinir su papel: guardianes de la seguridad social digital, no simples custodios del valor bursátil.
La infancia vuelve a aparecer aquí como espejo radical. En el artículo sobre chatbots y menores ya señalábamos que el dilema no es técnico, sino ético: ¿qué capacidad tiene un niño para discernir entre juego y manipulación? ¿Qué responsabilidad tienen los padres en un ecosistema opaco? ¿Y qué papel deben asumir los reguladores, que apenas ahora empiezan a reaccionar? Este ejemplo extremo ilumina un vacío más amplio: si no somos capaces de medir el bienestar de los más vulnerables, difícilmente podremos proteger el de los adultos, que también se ven arrastrados por la dependencia emocional hacia algoritmos.
Del simulacro al espejo apagado
La advertencia de Hassabis es clara: la IA no es otra red social, pero puede repetir su sombra. No hablamos de un error técnico, sino de un patrón cultural: confundir comodidad con progreso y delegar la voz humana en un simulacro algorítmico. Como ya discutimos en artículos previos, la pregunta no es si la IA puede hacerlo, sino si debemos permitirlo.
El futuro no se jugará en la eficiencia de los sistemas, sino en la capacidad de preservarnos como sujetos, no como recursos. La decisión está abierta: o tratamos la seguridad como obligación estructural o despertaremos, de nuevo, frente a un espejo apagado.