Mrinank Sharma, quien hasta el 9 de febrero se desempeñaba como responsable de Salvaguardas en Anthtropic, presentó su renuncia a través de una carta en la que destaca los desafíos éticos y la integridad dentro de las organizaciones tecnológicas y advierte: “El mundo está en peligro por la inteligencia artificial”
Para entender el impacto de esta renuncia, es necesario precisar qué representa esta compañía en el mapa tecnológico actual. Anthropic es una empresa de seguridad e investigación en inteligencia artificial con sede en San Francisco, fundada en 2021 por exmiembros de OpenAI, los creadores de ChatGPT.
La firma nació con una misión específica: desarrollar sistemas de IA que sean confiables, interpretables y seguros. A diferencia de otros competidores, Anthropic se posicionó rápidamente como la opción ética del mercado, ya que promovía un método para entrenar modelos que se basaba en principios y valores humanos predefinidos. Su chatbot más conocido, Claude, es hoy el principal rival de ChatGPT y las herramientas de IA de Google y Microsoft.
En su carta de despedida, publicada en X, Sharma realizó un balance de sus dos años en la compañía, donde trabajó en áreas críticas como la detección de la adulación en la IA (cuando el sistema miente para complacer al usuario) y la creación de defensas contra el bioterrorismo asistido por algoritmos.
Sin embargo, el núcleo de su mensaje no es técnico, sino profundamente humano y filosófico. El investigador planteó una visión alarmante sobre el estado actual de la tecnología: “El mundo está en peligro. Y no solo por la IA o las armas biológicas, sino por una serie de crisis interconectadas que se desarrollan en este mismo momento”.
Según Sharma, la humanidad está alcanzando un umbral donde la sabiduría de las personas debe crecer en igual medida que la capacidad para afectar al mundo, y advirtió que, de no ser así, enfrentaremos consecuencias inevitables.
Uno de los puntos más críticos de su carta es la mención a las dificultades internas para mantener los valores en una industria que corre a contrarreloj. Sharma confesó haber visto, tanto en sí mismo como en la organización, las presiones constantes para dejar de lado lo que realmente importa en favor de otros objetivos.
Su proyecto final en la empresa fue, quizás, el más simbólico: una investigación sobre cómo los asistentes de inteligencia artificial podrían hacernos menos humanos o distorsionar nuestra humanidad.
Su renuncia deja una pregunta incómoda flotando en Silicon Valley: si el responsable de protegernos de la IA considera que el sistema actual no permite actuar con integridad, ¿qué tan seguros son realmente los modelos de inteligencia artifical que usamos a diario?