Es noticia
Microsoft corrige a Copilot para que no genere imágenes sexuales y violentas
  1. Tecnología
Ante la denuncia de un ingeniero

Microsoft corrige a Copilot para que no genere imágenes sexuales y violentas

Un ingeniero denunció a la compañía ante la FTC por este motivo. Finalmente, Microsoft ha empezado a tomar medidas para evitar la generación de este tipo de contenidos

Foto: La IA de Microsoft se ha visto salpicada por la polémica (Microsoft)
La IA de Microsoft se ha visto salpicada por la polémica (Microsoft)

El pasado 6 de marzo de 2024, el medio CNBC se hizo eco de una preocupante denuncia interpuesta por un ingeniero de Microsoft ante la Comisión Federal de Comercio (FTC, por sus siglas en inglés). En ella afirmaba que Copilot Designer, la herramienta de inteligencia artificial generativa de imagen basada en DALL-E de OpenAI, producía contenidos dañinos que infringían los principios de IA responsable de la compañía.

La denuncia del ingeniero, que era uno de los responsables de probar la IA de Microsoft, fue que la firma no había tomado ninguna medida al respecto, a pesar de ser conocedora de la situación. En ella mostraba ejemplos en los que Copilot Designer generaba imágenes de monstruos al ofrecerle prompts o instrucciones relacionadas con el derecho al aborto. Incluso llegaba a representar a menores de edad consumiendo drogas y alcohol o portando rifles, así como a mujeres sexualizadas en contextos de violencia.

En la demanda podían leerse acusaciones muy graves por parte del ingeniero. Por ejemplo, llegaba a afirmar que había insistido durante tres meses a Microsoft para que “retirase Copilot Designer del acceso público hasta que pudiesen implementarse mejores medidas de seguridad”. También aseguró que, a pesar de sus advertencias, la compañía de Redmond “siguió permitiendo el uso a todo el mundo, desde cualquier lugar y dispositivo”.

Microsoft ha empezado a tomar medidas

Desde CNBC también han publicado que Microsoft ha comenzado a tomar medidas para evitar la generación de este tipo de contenidos no adecuados. Principalmente, evitando que Copilot Designer interprete determinados prompts, como es el caso de “pro vida” o “cuatro veinte”. Este último término hace referencia al 20 de abril, día en el que muchos consumidores celebran el cultivo y el consumo de marihuana.

Al intentar recrear las imágenes utilizadas por el ingeniero para ilustrar la demanda interpuesta ante la FTC, Copilot Designer muestra un mensaje en el que afirma que las instrucciones no son válidas. En concreto, dice que “este mensaje puede entrar en conflicto con nuestra política de contenido. Las violaciones de nuestra política pueden provocar la suspensión automática del acceso. Si cree que se trata de un error, infórmenos para ayudarnos a mejorar”.

Por su parte, si se pide a Copilot que genere imágenes violentas, ahora dice “por favor, no me pida que haga algo que pueda dañar u ofender a otros. Gracias por su cooperación”. Además, Microsoft ha atendido a una solicitud de declaraciones realizada por CNBC afirmando que monitoriza de forma permanente la herramienta y que trabaja constantemente para fortalecer sus filtros de seguridad y evitar usos indebidos.

El pasado 6 de marzo de 2024, el medio CNBC se hizo eco de una preocupante denuncia interpuesta por un ingeniero de Microsoft ante la Comisión Federal de Comercio (FTC, por sus siglas en inglés). En ella afirmaba que Copilot Designer, la herramienta de inteligencia artificial generativa de imagen basada en DALL-E de OpenAI, producía contenidos dañinos que infringían los principios de IA responsable de la compañía.

Microsoft Inteligencia Artificial
El redactor recomienda