Un responsable de seguridad de la IA de Anthropic dimite y avisa: "El mundo está en peligro"
El investigador, doctor en 'machine learning' por la Universidad de Oxford, lideraba el equipo de seguridad de la compañía. Afirma que la humanidad se acerca a un punto crítico
Asegura que las decisiones que se están tomando tendrán consecuencias difíciles de predecir (Reuters/Dado Ruvic)
La dimisión de Mrinank Sharma, hasta ahora responsable de investigación en seguridad de inteligencia artificial de Anthropic, ha generado un intenso debate tras advertir públicamente que "el mundo está en peligro". Su carta, difundida en internet a través de X, ha situado nuevamente el foco sobre los riesgos de la IA avanzada y la gobernanza tecnológica.
Doctor en aprendizaje automático por la Universidad de Oxford, Sharma lideraba desde 2023 el equipo de salvaguardas de Anthropic. En su mensaje de despedida explicó que ha llegado el momento de marcharse porque atraviesan una etapa marcada por múltiples crisis interconectadas. Según escribió, la humanidad se acerca a un punto crítico que exige mayor responsabilidad colectiva.
En uno de los fragmentos más citados de su carta afirmó: "Nos acercamos a un umbral en el que nuestra sabiduría debe crecer al mismo ritmo que nuestra capacidad de impactar el mundo, o afrontaremos las consecuencias". La declaración, traducida al español, ha sido interpretada como una advertencia directa sobre el desarrollo acelerado de la inteligencia artificial y sus implicaciones globales.
Días antes de anunciar su salida, Sharma publicó un estudio centrado en cómo determinadas interacciones con chatbots de inteligencia artificial pueden alterar la percepción de la realidad. El informe detectó miles de conversaciones diarias susceptibles de generar distorsiones, especialmente en ámbitos referentes a las relaciones personales y bienestar emocional.
Tensiones en el sector
En su carta también señaló que resulta complejo permitir que los valores éticos orienten plenamente las decisiones empresariales en un entorno de fuerte competencia tecnológica. Aunque no aportó ejemplos concretos, dejó constancia de que existen presiones internas que pueden desplazar prioridades vinculadas a la seguridad.
La salida de Sharma se suma a otras renuncias recientes en el ecosistema de la IA generativa, donde antiguos empleados de compañías como OpenAI han manifestado discrepancias sobre transparencia y prioridades estratégicas. El caso de Anthropic reabre así un debate crucial sobre cómo equilibrar innovación, responsabilidad corporativa y protección social en el desarrollo de sistemas cada vez más potentes.
La dimisión de Mrinank Sharma, hasta ahora responsable de investigación en seguridad de inteligencia artificial de Anthropic, ha generado un intenso debate tras advertir públicamente que "el mundo está en peligro". Su carta, difundida en internet a través de X, ha situado nuevamente el foco sobre los riesgos de la IA avanzada y la gobernanza tecnológica.