El lado oscuro de la IA en 2024: anuncios explícitos, chatbots sin censura y fallos de seguridad
La inteligencia artificial, que promete facilitar nuestras vidas y transformar industrias, también enfrenta un escrutinio creciente por su mal uso y fallos éticos. Casos recientes de empresas como Meta, desarrolladores de la dark web y Microsoft revelan un panorama inquietante donde los intereses comerciales, la falta de moderación y las vulnerabilidades técnicas ponen en jaque la confianza en la IA.
Meta y su doble estándar: ¿negocio o responsabilidad?
En 2024, Meta permitió la publicación de más de 3.000 anuncios con contenido pornográfico explícito. Estos anuncios, que incluyeron deepfakes de celebridades y material generado por IA, promovían desde webs de citas hasta suplementos sexuales, y alcanzaron más de 8 millones de impresiones en la Unión Europea. Una muesca más en la compleja relación de esta empresa con contenidos «delicados», tal y como destapó el programa de La Sexta «Salvados» el pasado mes de octubre.
Lo más alarmante es que esta permisividad contradice los estrictos estándares que Meta aplica a publicaciones no pagadas, bloqueando incluso contenido mucho menos controvertido. La razón parece clara: las ganancias publicitarias tienen prioridad sobre la integridad de sus normas comunitarias.
Además, este caso pone a Meta en riesgo de sanciones bajo la Ley de Servicios Digitales (DSA) de la UE, que exige a las plataformas garantizar la seguridad del contenido que muestran.
La situación no solo afecta la credibilidad de Meta, sino que también evidencia un problema sistémico en cómo las grandes empresas tecnológicas manejan la moderación de contenido.
OnionGPT: el peligro de una IA sin censura
En el otro extremo del espectro, OnionGPT, un chatbot alojado en la dark web, plantea preguntas incómodas sobre el acceso sin restricciones a la inteligencia artificial. Este chatbot, que utiliza un modelo llamado «DarkIdol-Llama-3.1-13.3B-Instruct-1.2-Uncensored», se presenta como una alternativa a los asistentes de IA comerciales, criticados por sus políticas de moderación.
Durante sus primeras semanas de lanzamiento, OnionGPT facilitó respuestas sobre temas sensibles, como la fabricación de drogas y otras actividades ilegales. Aunque tras las críticas se ajustaron algunas restricciones, la herramienta sigue siendo un recordatorio de los riesgos asociados con la IA sin regulación.
Su impacto está limitado por su ubicación en la dark web, lo que restringe el acceso a un público reducido. Sin embargo, su mera existencia evidencia el interés de algunos desarrolladores por eludir controles y crear herramientas que desafían los límites éticos y legales. Esto plantea un dilema para los reguladores: ¿cómo controlar las aplicaciones descentralizadas de la IA sin comprometer su innovación?
Microsoft y los fallos de seguridad en la IA generativa
Mientras Meta y OnionGPT lidian con problemas éticos y de moderación, Microsoft puso el foco en las vulnerabilidades técnicas de las herramientas generativas de IA. Tras analizar más de 100 herramientas, la compañía descubrió que los ataques más efectivos no requieren técnicas avanzadas, sino simples manipulaciones conocidas como ingeniería de prompts.
Por ejemplo, se identificaron métodos para incrustar instrucciones maliciosas en imágenes o texto, que los modelos interpretaban como comandos legítimos. En uno de los casos más preocupantes, los investigadores lograron manipular modelos para crear escenarios fraudulentos utilizando voces sintéticas, abriendo la puerta a posibles estafas.
Aunque existen herramientas como PyRIT para detectar estas vulnerabilidades, Microsoft advierte que la tecnología por sí sola no es suficiente. Es imprescindible un enfoque combinado de supervisión humana, pruebas continuas y regulaciones que penalicen los ataques exitosos. Este caso subraya la necesidad de no solo avanzar en la sofisticación de los modelos, sino también en su seguridad y fiabilidad.
Reflexión: Un futuro tecnológico con luces y sombras
Los casos de Meta, OnionGPT y Microsoft son un recordatorio de que la inteligencia artificial no es neutral. Está moldeada por quienes la desarrollan, la usan y la regulan. Si bien su potencial para transformar industrias es inmenso, su mal uso puede tener consecuencias graves para la sociedad.
Desde la permisividad publicitaria de Meta hasta los riesgos de chatbots sin censura en la dark web y las vulnerabilidades técnicas reveladas por Microsoft, estos ejemplos muestran un patrón común: la falta de preparación para enfrentar los desafíos éticos y de seguridad que plantea la IA.
El futuro de esta tecnología dependerá de cómo la sociedad gestione estos dilemas. Regulaciones más estrictas, mayor transparencia en el desarrollo de herramientas y un compromiso ético real serán esenciales para garantizar que la inteligencia artificial no solo innove, sino que también construya un mundo más seguro y justo.