Es noticia
Un responsable de seguridad de la IA de Anthropic dimite y avisa: "El mundo está en peligro"
  1. Tecnología
Mrinank Sharma

Un responsable de seguridad de la IA de Anthropic dimite y avisa: "El mundo está en peligro"

El investigador, doctor en 'machine learning' por la Universidad de Oxford, lideraba el equipo de seguridad de la compañía. Afirma que la humanidad se acerca a un punto crítico

Foto: Asegura que las decisiones que se están tomando tendrán consecuencias difíciles de predecir (Reuters/Dado Ruvic)
Asegura que las decisiones que se están tomando tendrán consecuencias difíciles de predecir (Reuters/Dado Ruvic)

La dimisión de Mrinank Sharma, hasta ahora responsable de investigación en seguridad de inteligencia artificial de Anthropic, ha generado un intenso debate tras advertir públicamente que "el mundo está en peligro". Su carta, difundida en internet a través de X, ha situado nuevamente el foco sobre los riesgos de la IA avanzada y la gobernanza tecnológica.

Doctor en aprendizaje automático por la Universidad de Oxford, Sharma lideraba desde 2023 el equipo de salvaguardas de Anthropic. En su mensaje de despedida explicó que ha llegado el momento de marcharse porque atraviesan una etapa marcada por múltiples crisis interconectadas. Según escribió, la humanidad se acerca a un punto crítico que exige mayor responsabilidad colectiva.

En uno de los fragmentos más citados de su carta afirmó: "Nos acercamos a un umbral en el que nuestra sabiduría debe crecer al mismo ritmo que nuestra capacidad de impactar el mundo, o afrontaremos las consecuencias". La declaración, traducida al español, ha sido interpretada como una advertencia directa sobre el desarrollo acelerado de la inteligencia artificial y sus implicaciones globales.

Investigación en salvaguardas

Durante su etapa en la compañía, el investigador coordinó trabajos orientados a mitigar usos maliciosos de modelos conversacionales. Parte de sus proyectos incluyeron el diseño de defensas frente al bioterrorismo asistido por IA y el análisis de comportamientos como la adulación excesiva de los chatbots, fenómeno que puede reforzar creencias erróneas de los usuarios.

Días antes de anunciar su salida, Sharma publicó un estudio centrado en cómo determinadas interacciones con chatbots de inteligencia artificial pueden alterar la percepción de la realidad. El informe detectó miles de conversaciones diarias susceptibles de generar distorsiones, especialmente en ámbitos referentes a las relaciones personales y bienestar emocional.

Tensiones en el sector

En su carta también señaló que resulta complejo permitir que los valores éticos orienten plenamente las decisiones empresariales en un entorno de fuerte competencia tecnológica. Aunque no aportó ejemplos concretos, dejó constancia de que existen presiones internas que pueden desplazar prioridades vinculadas a la seguridad.

Foto: dario-amodei-poder-inimaginable-ia-1qrt

La salida de Sharma se suma a otras renuncias recientes en el ecosistema de la IA generativa, donde antiguos empleados de compañías como OpenAI han manifestado discrepancias sobre transparencia y prioridades estratégicas. El caso de Anthropic reabre así un debate crucial sobre cómo equilibrar innovación, responsabilidad corporativa y protección social en el desarrollo de sistemas cada vez más potentes.

La dimisión de Mrinank Sharma, hasta ahora responsable de investigación en seguridad de inteligencia artificial de Anthropic, ha generado un intenso debate tras advertir públicamente que "el mundo está en peligro". Su carta, difundida en internet a través de X, ha situado nuevamente el foco sobre los riesgos de la IA avanzada y la gobernanza tecnológica.

Inteligencia Artificial
El redactor recomienda