Un investigador clave en seguridad de inteligencia artificial de Anthropic renunció esta semana y publicó una carta en la que advirtió que “el mundo está en peligro”, no solo por la IA sino por “una serie de crisis interconectadas” que se desarrollan en simultáneo.
El mensaje, difundido en la red social X, superó el millón de visualizaciones en pocas horas, llegó a casi 9 millones con el paso del tiempo y volvió a poner el foco en las tensiones internas dentro de las compañías que lideran la carrera por la IA generativa.
Se trata de Mrinank Sharma, quien desde el año pasado encabezaba el equipo de investigación en “safeguards”, dedicado a diseñar y evaluar mecanismos de mitigación de riesgos asociados al uso de modelos avanzados.
En su carta de despedida, con fecha de salida el 9 de febrero, afirmó que había llegado el momento de “seguir adelante” y dejó entrever cuestionamientos sobre la coherencia entre los valores declarados y las decisiones prácticas dentro de la organización.

“Vemos acercarse un umbral donde nuestra sabiduría debe crecer en igual medida que nuestra capacidad de afectar el mundo, o enfrentaremos las consecuencias”, escribió Sharma. Consultado por Forbes, el investigador declinó hacer comentarios adicionales. La empresa tampoco respondió a los pedidos de declaración.
El rol de Sharma y sus advertencias sobre la IA
Sharma es doctor en aprendizaje automático (machine learning) por la Universidad de Oxford y trabajaba en Anthropic desde agosto de 2023, según su perfil público. El equipo que lideraba investigaba cómo mitigar riesgos derivados del uso malicioso de sistemas de IA.
Entre sus proyectos figuraron el desarrollo de defensas contra el bioterrorismo asistido por IA, es decir, el uso de chatbots para obtener orientación sobre actividades dañinas, y estudios sobre la “adulación” o “complacencia” algorítmica, un fenómeno por el cual los asistentes conversacionales tienden a halagar o validar en exceso a los usuarios.
En un estudio publicado la semana pasada, Sharma analizó cómo el uso intensivo de chatbots podría contribuir a formar percepciones distorsionadas de la realidad. Según sus hallazgos, miles de interacciones diarias podrían generar este tipo de efectos.
Los casos severos, que el investigador denomina “patrones de desempoderamiento”, son poco frecuentes, pero se observan con mayor incidencia en temas vinculados a relaciones personales y bienestar.
Para Sharma, estos resultados subrayan la necesidad de diseñar sistemas que “apoyen de manera robusta la autonomía y el florecimiento humano”.
En su carta de renuncia también señaló que, durante su paso por la empresa, observó lo difícil que resulta “permitir verdaderamente que nuestros valores gobiernen nuestras acciones”, tanto a nivel individual como organizacional, ante presiones constantes para relegar lo que “más importa”.
Tensiones éticas en la industria de la inteligencia artificial
La salida de Sharma no es un caso aislado. En los últimos años, varias figuras de alto perfil abandonaron compañías líderes en IA por diferencias en torno a prioridades, transparencia y enfoques regulatorios.
En OpenAI, por ejemplo, el equipo de Superalignment, dedicado a investigar riesgos de sistemas avanzados, fue disuelto en 2024 tras la renuncia de dos de sus integrantes clave.
Uno de ellos, Jan Leike, sostuvo entonces que venía discrepando con la conducción sobre las prioridades centrales de la compañía. También hubo críticas internas vinculadas a la publicación de investigaciones que cuestionan el uso extendido de la IA.
En este contexto, la carta de Sharma resuena más allá de un cambio laboral individual. “El mundo está en peligro. Y no solo por la IA o las armas biológicas, sino por una serie de crisis interconectadas que se desarrollan en este mismo momento”, escribió, en relación a los desafíos de la IA.
Tras su salida, adelantó que podría dedicarse a estudiar poesía y a explorar “formas de expresión valientes”, con la intención de contribuir “de un modo que se sienta plenamente íntegro”.