Meta y la cultura tóxica que amenaza su IA

En un contexto donde las tecnológicas compiten por fichajes como si de un mercado deportivo se tratara, el caso de Meta ha evolucionado de táctica agresiva a síntoma estructural. Como ya contábamos hace unos días, la apuesta por talento millonario —con contratos que superan los 100 millones de dólares— ha sido entendida como una forma de compensar falta de dirección estratégica.
La reciente creación de Superintelligence Labs, con perfiles extraídos de OpenAI y Apple, refuerza esa tendencia. Sin embargo, el problema no es solo económico, sino organizacional: cada nuevo fichaje es un parche sobre una cultura corporativa que muchos describen como frágil, opaca y reactiva. El talento ya no basta si el entorno no lo sostiene.
El coste cultural de la presión por rendir
Tijmen Blankevoort, antiguo científico de IA en Meta, lo expresó sin ambages: “es como trabajar dentro de un cáncer metastásico”. La frase, demoledora, no apunta a la tecnología sino al entorno humano. La cultura de Meta, según su denuncia pública, estaría dominada por el miedo, alimentada por evaluaciones implacables y despidos recurrentes que impiden cualquier construcción colectiva. Esta presión por el rendimiento, a corto plazo y sin amortiguación psicológica, mina incluso al talento más brillante.
Así como en el fútbol los grandes jugadores fracasan en equipos sin cohesión, en IA los científicos estrella se diluyen si el marco organizacional asfixia la innovación. El precio real de esta guerra no es financiero: es cultural y, por tanto, estructural.
Altman, Blankevoort y la alerta sobre toxicidad sistémica
Sam Altman ya lo había advertido: los entornos de hiperexigencia sin valores claros acaban generando “problemas culturales profundos”. Su frase cobra nuevo sentido tras la salida de perfiles como Blankevoort o Jan Leike, ambos con críticas convergentes sobre la falta de visión ética en empresas que priorizan la carrera tecnológica sobre la integridad organizativa.
Esta toxicidad sistémica, muchas veces disfrazada de meritocracia, ha erosionado la confianza interna en compañías que lideran la inteligencia artificial. El caso de Meta, lejos de ser anecdótico, revela una fisura estructural: cuando la cultura organizacional se convierte en obstáculo para la misión tecnológica, lo que está en juego ya no es solo la retención de talento, sino la viabilidad ética del desarrollo en sí.
IA ética: ¿mito posible en entornos disfuncionales?
El dilema se vuelve entonces insoslayable: ¿puede una organización tóxica producir una inteligencia artificial ética? La gobernanza responsable de la IA necesita una cultura de supervisión, equidad y propósito social. Sin estos pilares, cualquier IA —por potente que sea— corre el riesgo de reproducir sesgos, amplificar desigualdades o tomar decisiones opacas.
La ética no se puede injertar a posteriori; debe emerger de las condiciones mismas en las que el sistema se diseña. En ese sentido, la cultura interna de las compañías no es un tema periférico, sino el terreno donde se define si la inteligencia será, o no, digna de confianza.
Visión sin cultura, inteligencia sin sentido
El artículo anterior ya lo planteaba con claridad: fichar estrellas sin un modelo de juego compartido no conduce al éxito. Esta segunda entrega extiende ese argumento: sin cultura organizacional sana, ni la visión más ambiciosa ni el talento más brillante pueden generar impacto sostenible. La batalla por la IA no se ganará solo con datos ni con algoritmos, sino con estructuras capaces de alinear propósito, personas y producto.
En tiempos donde el capital fluye pero la cohesión escasea, Meta se convierte en espejo de un dilema más amplio. Tal vez haya llegado el momento de dejar de mirar solo a los fichajes y empezar a evaluar las culturas que los reciben.