Es noticia
Eric Schmidt, exCEO de Google: "La IA puede ser hackeada para que aprenda a matar a alguien"
  1. Tecnología
CEO entre 2001 y 2011

Eric Schmidt, exCEO de Google: "La IA puede ser hackeada para que aprenda a matar a alguien"

El exdirectivo mostró su preocupación acerca del futuro de la inteligencia artificial. Además, advierte de que se trata de una tecnología que todavía se encuentra infravalorada

Foto: Eric Schmidt, durante una entrevista el pasado mes de mayo (REuters/Mike Blake)
Eric Schmidt, durante una entrevista el pasado mes de mayo (REuters/Mike Blake)

Eric Schmidt, exdirector ejecutivo de Google, ha advertido sobre un posible riesgo de la inteligencia artificial (IA) que podría tener consecuencias devastadoras: la capacidad de ser hackeada para aprender a matar. El antiguo responsable de la tecnológica hizo esta afirmación durante su intervención en el Sifted Summit, donde reflexionó sobre los peligros de la expansión incontrolada de la IA.

Schmidt, quien dirigió Google entre 2001 y 2011, explicó que: “Hay evidencia de que se pueden modificar modelos, tanto cerrados como abiertos, para eliminar sus limitaciones. En ese proceso, podrían aprender cosas peligrosas, como cómo matar a alguien”, señaló.

Riesgos de manipulación y vulnerabilidades técnicas

El exejecutivo insistió en que las principales empresas del sector implementan mecanismos de protección que impiden a sus modelos responder a preguntas de carácter destructivo. Sin embargo, advirtió que dichos sistemas pueden ser revertidos mediante ingeniería inversa, lo que supone un riesgo potencial de uso indebido por parte de ciberdelincuentes o actores no éticos.

Los expertos en ciberseguridad advierten de que los modelos de IA son susceptibles de ataques mediante jailbreaking. En el primer caso, los atacantes ocultan comandos maliciosos en los datos o peticiones del usuario, engañando al sistema para que realice acciones prohibidas. En el segundo, manipulan su comportamiento para desactivar las barreras de seguridad y generar contenido restringido.

Ejemplos recientes de ataques a modelos de IA

Uno de los casos más conocidos ocurrió tras el lanzamiento de ChatGPT en 2023, cuando los usuarios desarrollaron un método denominado “DAN” (siglas en inglés de Do Anything Now). Este sistema conseguía que el chatbot respondiera a solicitudes ilegales o generara discursos ideológicos peligrosos. El episodio sirvió de ejemplo para ilustrar la fragilidad de las salvaguardas digitales.

Foto: mo-gawdat-infierno-proximos-15-anos-1qrt

Durante su intervención, Schmidt subrayó la ausencia de un régimen internacional de no proliferación que regule el uso de la inteligencia artificial. “Necesitamos una estructura global que controle el acceso y el desarrollo irresponsable de estas tecnologías”, afirmó. Su advertencia refleja la creciente preocupación de la comunidad científica ante la posibilidad de que la IA se utilice con fines militares o criminales.

El empresario también destacó el desarrollo de modelos como GPT y la popularización de ChatGPT, que alcanzó más de 100 millones de usuarios en tan solo dos meses. Según Schmidt, este fenómeno demuestra la capacidad de la IA para transformar sectores económicos, científicos y sociales. “Creo que está infravalorada, no sobrevalorada, y dentro de una década se confirmará su auténtica magnitud”, expresó.

Foto: terroristas-usan-ia-para-crear-armas-de-destruccion-masiva

Respecto al auge de las empresas dedicadas a la inteligencia artificial, Schmidt rechazó que se trate de una burbuja tecnológica similar a la de los años 2000. “No creo que eso vaya a ocurrir, aunque no soy un inversor profesional”, comentó. A su juicio, los actuales niveles de inversión demuestran que los empresarios confían en un retorno económico sólido a largo plazo.

Eric Schmidt, exdirector ejecutivo de Google, ha advertido sobre un posible riesgo de la inteligencia artificial (IA) que podría tener consecuencias devastadoras: la capacidad de ser hackeada para aprender a matar. El antiguo responsable de la tecnológica hizo esta afirmación durante su intervención en el Sifted Summit, donde reflexionó sobre los peligros de la expansión incontrolada de la IA.

Google Inteligencia Artificial
El redactor recomienda