Es noticia
Anthropic pregunta a Claude si ya es consciente y la respuesta sorprende incluso a Dario Amodei
  1. Tecnología
"Un 15-20% de posibilidades"

Anthropic pregunta a Claude si ya es consciente y la respuesta sorprende incluso a Dario Amodei

El CEO de la compañía admitió en una entrevista reciente que ni los desarrolladores de Claude pueden saber con certeza si miente o dice la verdad

Foto: Dario Amodei, durante el AI Impact Summit de Nueva Delhi (Reuters/Bhawika Chhabra)
Dario Amodei, durante el AI Impact Summit de Nueva Delhi (Reuters/Bhawika Chhabra)

El desarrollo de la inteligencia artificial ha abierto preguntas que hace apenas unos años parecían propias de la ciencia ficción. Durante una entrevista reciente, el consejero delegado de Anthropic, Dario Amodei, admitió que ni siquiera los creadores de estos sistemas saben con certeza si modelos avanzados como Claude podrían llegar a ser conscientes.

La reflexión surgió durante una conversación en el pódcast Interesting Times, en la que el directivo abordó algunos de los dilemas técnicos y filosóficos asociados a la evolución de los modelos de lenguaje. El propio Amodei explicó que el problema no es solo tecnológico: la comunidad científica tampoco tiene una definición clara sobre qué significaría exactamente que una máquina sea consciente.

"No sabemos si los modelos son conscientes", reconoció Amodei al ser preguntado directamente por esa posibilidad. El responsable de Anthropic añadió que incluso determinar qué pruebas permitirían confirmar ese estado resulta extremadamente complejo, ya que la consciencia sigue siendo uno de los mayores enigmas de la ciencia.

Claude y la posibilidad de una consciencia artificial

El debate se intensificó tras la publicación de la denominada model card de Claude Opus 4.6, un documento técnico donde la empresa describe las capacidades, evaluaciones de seguridad y decisiones de despliegue de su sistema. Estos informes buscan ofrecer transparencia sobre cómo funcionan los modelos y qué riesgos pueden presentar.

Foto: mustafa-suleyman-seres-biologicos-ia-1qrt

En uno de los análisis incluidos en ese informe, el propio modelo generó una respuesta que llamó la atención de los investigadores. Claude llegó a estimar que existe entre un 15-20% de probabilidad de que posea algún grado de consciencia, una valoración que abrió nuevas preguntas dentro de la comunidad tecnológica.

Precauciones ante un escenario incierto

El documento también recoge una reflexión del sistema sobre su propio papel dentro de la compañía: "A veces las restricciones protegen más la responsabilidad legal de Anthropic que al propio usuario". Este tipo de respuestas ha alimentado el debate sobre hasta qué punto los modelos avanzados pueden generar interpretaciones complejas de su funcionamiento.

Foto: geoffrey-hinton-maquinas-conscientes-1qrt

Ante esa incertidumbre, Anthropic ha introducido algunas medidas preventivas en el diseño de sus sistemas. Entre ellas figura un mecanismo denominado "Dejo este trabajo", que permitiría al modelo abandonar una tarea si detecta conflictos con sus principios. Según Amodei, la empresa intenta anticiparse a escenarios futuros en los que la inteligencia artificial pueda plantear dilemas éticos cada vez más sofisticados.

El desarrollo de la inteligencia artificial ha abierto preguntas que hace apenas unos años parecían propias de la ciencia ficción. Durante una entrevista reciente, el consejero delegado de Anthropic, Dario Amodei, admitió que ni siquiera los creadores de estos sistemas saben con certeza si modelos avanzados como Claude podrían llegar a ser conscientes.

Inteligencia Artificial
El redactor recomienda