Renunció el jefe de seguridad de una de las principales empresas de IA y lanzó una fuerte advertencia

Mrinank Sharma, responsable de Salvaguardas en Anthropic, dejó una pregunta flotando: ¿qué tan seguros son realmente los modelos de IA que usamos a diario?

12 de febrero de 2026AA PRENSAAA PRENSA
un-referente-de-seguridad-en-inteligencia-artificial-lanzo-una-fuerte-advertencia-el-mundo-esta-en-peligro-gentileza-ndtv-V7FMKK2NT5EL5HCE4HFKVCKRIQ

Mrinank Sharma, quien hasta el 9 de febrero se desempeñaba como responsable de Salvaguardas en Anthropic, presentó su renuncia a través de una carta en la que destaca los desafíos éticos y la integridad dentro de las organizaciones tecnológicas y advierte: “El mundo está en peligro por la inteligencia artificial”

¿Qué es Anthropic?

Para entender el impacto de esta renuncia, es necesario precisar qué representa esta compañía en el mapa tecnológico actual. Anthropic es una empresa de seguridad e investigación en inteligencia artificial con sede en San Francisco, fundada en 2021 por exmiembros de OpenAI, los creadores de ChatGPT.

La firma nació con una misión específica: desarrollar sistemas de IA que sean confiables, interpretables y seguros. A diferencia de otros competidores, Anthropic se posicionó rápidamente como la opción ética del mercado, ya que promovía un método para entrenar modelos que se basaba en principios y valores humanos predefinidos. Su chatbot más conocido, Claude, es hoy el principal rival de ChatGPT y las herramientas de IA de Google y Microsoft.

“El mundo está en peligro”

En su carta de despedida, publicada en X, Sharma realizó un balance de sus dos años en la compañía, donde trabajó en áreas críticas como la detección de la adulación en la IA (cuando el sistema miente para complacer al usuario) y la creación de defensas contra el bioterrorismo asistido por algoritmos.

Sin embargo, el núcleo de su mensaje no es técnico, sino profundamente humano y filosófico. El investigador planteó una visión alarmante sobre el estado actual de la tecnología: “El mundo está en peligro. Y no solo por la IA o las armas biológicas, sino por una serie de crisis interconectadas que se desarrollan en este mismo momento”.

Según Sharma, la humanidad está alcanzando un umbral donde la sabiduría de las personas debe crecer en igual medida que la capacidad para afectar al mundo, y advirtió que, de no ser así, enfrentaremos consecuencias inevitables.

Uno de los puntos más críticos de su carta es la mención a las dificultades internas para mantener los valores en una industria que corre a contrarreloj. Sharma confesó haber visto, tanto en sí mismo como en la organización, las presiones constantes para dejar de lado lo que realmente importa en favor de otros objetivos.

Su proyecto final en la empresa fue, quizás, el más simbólico: una investigación sobre cómo los asistentes de inteligencia artificial podrían hacernos menos humanos o distorsionar nuestra humanidad.

Sobre su futuro, Sharma confesó que su intención es alejarse de las estructuras que lo sostuvieron estos años para explorar la verdad poética junto a la verdad científica.

Tras su salida, el investigador confirmó que regresará al Reino Unido para iniciar un período de bajo perfil y volverse invisible por un tiempo, enfocándose en el estudio de la poesía, la escritura y la construcción comunitaria.

Su renuncia deja una pregunta incómoda flotando en Silicon Valley: si el responsable de protegernos de la IA considera que el sistema actual no permite actuar con integridad, ¿qué tan seguros son realmente los modelos de inteligencia artifical que usamos a diario?

Últimas noticias
Ranking

Suscríbete al newsletter para recibir periódicamente las novedades en tu email