Es noticia
Inteligencia humana para la IA: el desafío ético de luchar contra los sesgos
  1. Tecnología
ENCUENTRO EL CONFIDENCIAL Y ACCIONA

Inteligencia humana para la IA: el desafío ético de luchar contra los sesgos

La irrupción de la IA generativa ha puesto de manifiesto la necesidad de repensar la responsabilidad de los desarrollos tecnológicos y de trabajar para que estos no repitan los errores de los humanos que los han creado

Foto: Encuentro 'Inteligencia humana para aprovechar la inteligencia artificial'.
Encuentro 'Inteligencia humana para aprovechar la inteligencia artificial'.

La inteligencia artificial tiene el potencial de transformar radicalmente la forma en que vivimos, trabajamos y nos relacionamos. Hace años que se vienen utilizando sistemas informáticos capaces de realizar tareas que normalmente requerirían de la inteligencia humana, pero la irrupción de la inteligencia artificial generativa ha venido a cambiar aún más el panorama y a plantear desafíos éticos y sociales en términos de propiedad intelectual, identidad y autenticidad, así como sobre su potencial para difundir desinformación y contenido perjudicial.

Con el objetivo de reflexionar sobre el impacto de la IA en distintos sectores productivos de nuestra economía, sus avances más recientes y los retos éticos y regulatorios asociados a su implementación, El Confidencial ha organizado, de la mano de Acciona, el foro ‘Inteligencia humana para aprovechar la inteligencia artificial”. En él han participado Carmen Camuñas, directora del Hub de Innovación Digital de Acciona; María Vázquez, directora de Soluciones Empresariales de Microsoft España; Clara González, investigadora y docente en la Universidad de Navarra; y María Vanina Martínez, científica del Instituto de Investigación en IA del CSIC.

El punto de partida ha sido el de tratar de definir en qué punto nos encontramos y cómo nos está cambiando la IA. En este sentido, Carmen Camuñas ha recordado que, “aunque la IA no es nueva, y se lleva muchos años trabajando en ella, desde hace año y medio ha supuesto una disrupción. Es muy importante en este proceso tener presente cómo poder utilizarla, pero siempre como medio y no como fin”.

Repensando la IA

Esta aceleración en el avance e implementación de los desarrollos ha puesto de manifiesto la importancia del “repensar”. “Hay que construir el tejido sobre el que se sustentarán los desarrollos de IA, y es un camino que posiblemente no ha recorrido nunca nadie”, ha puesto sobre la mesa María Vázquez, y ha destacado un giro en este camino: “Ya no es solo una conversación tecnológica: se ha tornado humanística, y se trata de hablar no sólo de qué puede hacer la tecnología, sino de cómo debe hacerse ese paso de los pilotos a la adopción masiva”.

placeholder María Vázquez, directora de Soluciones Empresariales de Microsoft España, y Carmen Camuñas, directora del Hub de Innovación Digital de Acciona.
María Vázquez, directora de Soluciones Empresariales de Microsoft España, y Carmen Camuñas, directora del Hub de Innovación Digital de Acciona.

Porque ya no se trata de que las empresas tecnológicas estén volcadas en los desarrollos, sino de que la IA ha dado el salto a la calle, a los profesionales, a los alumnos. Es precisamente en el campo de la educación -y más concretamente en lo que se refiere a los medios de comunicación- en donde Clara González ha apuntado las inquietudes acerca del desafío que supone la IA: “Los alumnos la usan mucho, y hay que empezar por darles una primera asignatura para sentar las bases sobre la integración de la IA en periodismo. Se trata de enseñarles las herramientas y es crucial la alfabetización mediática: enseñar cómo se consumen las noticias, detectar la desinformación y desarrollar herramientas de identificación de bulos”.

"El debate en torno a la IA no es solo tecnológico, sino humanístico. No es solo qué se puede hacer, sino cómo debe hacerse", Vázquez (Microsoft)

De inquietudes ha hablado también María Vanina Martínez, que ha aludido a que, “por esta reciente visión, más humanista y social, del fenómeno tecnológico, está surgiendo una inquietud sobre la parte B, la parte negativa, que tiene que ver al fin y al cabo con nuestra humanidad, con la desinformación, con la polarización. Pero no son fenómenos de la tecnología en sí, sino que son sociales”.

Así, en el encuentro ha tenido especial relevancia la cuestión de la “humanidad” de la inteligencia artificial que, no hay que olvidar, ha señalado María Vanina, “funciona con datos que generamos nosotros. Y en nuestros datos importamos sesgos, visiones culturales e interpretaciones del mundo que, inevitablemente, van a replicar los mecanismos de aprendizaje automático en su búsqueda de patrones significativos”. Se trata de entender los límites, ha añadido, “porque hay mucho riesgo de repetir los errores de los humanos”.

Es precisamente esa humanidad detrás de la IA la que favorece la aparición de los sesgos. En este mismo sentido, Carmen Camuñas ha advertido de que, a veces, “parece que hemos ‘plantado’ la IA y ha surgido por sí sola, pero no es así: la hemos hecho los humanos. En el caso de clasificar documentación puede ser más fácil de soslayar estos sesgos, pero si, por ejemplo, hay que hacer una licitación, la persona, desde su punto de vista y sin maldad, dará su visión. Por eso es tan importante la ética”.

Algo más que programar

¿Qué se puede hacer al respecto? “Como sociedad, hay que pensar en enseñar a los desarrolladores algo más que programar. Se trata de tener en cuenta las implicaciones de los programas, en qué están haciendo y para qué. Solo con el conocimiento técnico no vamos a poder solucionar los sesgos, hay que escuchar a otras personas, no técnicas, que conocen el funcionamiento social”, ha explicado María Vanina.

Surge la duda de si, en un momento en el que la carrera de la IA ya es imparable y nadie quiere quedarse atrás, no será tarde comenzar a replantearse todos estos desafíos. Ante ello, Carmen Camuñas ha apuntado que “los problemas ya estaban antes, pero afloran ahora. Hay que tener en cuenta que la IA generativa se ha adelantado 10 años con respecto a lo que se esperaba”. Por su parte, Clara González ha corroborado esta gran aceleración y apuntado que “en legislación vamos un poquito por detrás, pero es acertada la postura de que, aunque la tecnología vaya por delante, debemos tener muy en cuenta y destinar recursos a la parte humanística”.

placeholder María Vanina Martínez, científica del Instituto de Investigación en IA del CSIC, y Clara González, investigadora y docente en la Universidad de Navarra.
María Vanina Martínez, científica del Instituto de Investigación en IA del CSIC, y Clara González, investigadora y docente en la Universidad de Navarra.

Más allá de estas dificultades, pero teniéndolas siempre en el horizonte, las participantes han debatido acerca de las innovaciones que están por llegar y su aplicación en sectores concretos. “No es fácil definir qué sectores están avanzando más en este terreno, quiénes van un paso por delante; al fin y al cabo, se trata de una tecnología que afecta a todas las industrias, y el impacto que está teniendo es similar al de la imprenta, que dio lugar al Renacimiento”, ha señalado María Vázquez.

"Hay que ver la herramienta como oportunidad, no como amenaza. Se trata de cuándo y para qué la usamos", Camuñas (Acciona)

En el campo de la educación, el desafío pasa por formar a los estudiantes para cuando salgan al mercado y se conviertan en profesionales. Clara González ha querido, en este sentido, despejar los temores acerca de que la IA se “adueñe” de trabajos que hasta ahora han hecho las personas. “No nos vamos a quedar sin trabajo como profesionales de la comunicación. Hay que ver la IA como una oportunidad que nos va a llevar a tener más tiempo para la creatividad. Los alumnos son escépticos, pero conociendo la herramienta pueden ahorrar tiempo que antes empleaban en otras cosas y que ahora pueden dedicar a la profesión”.

Adaptación y autocrítica

La adaptación es esencial, hasta el punto de que María Vázquez se ha preguntado si en el futuro habrá dos tipos de empresas: las que utilicen la IA generativa y las que no existen. “Es una llamada a la acción. Nuestra aproximación es muy humanística, en el sentido de que en todos los procesos la IA se configure como un copiloto que acompañe al trabajador, pero que la responsabilidad sea de éste”.

La implicación de esta inteligencia humana es esencial para “usar la IA de forma crítica sea cual sea nuestro rol: usuario que consume contenidos, profesor, investigador, alumno… Y, en el caso de los creadores de tecnología, usar la inteligencia humana con autocrítica, reconociendo que todo está sesgado por nuestro perfil, que toda la tecnología va a tener un impacto en la sociedad y desarrollar herramientas para ese impacto no sea negativo”.

placeholder Javier Molina (El Confidencial), María Vázquez (Microsoft España) y Carmen Camuñas (Acciona).
Javier Molina (El Confidencial), María Vázquez (Microsoft España) y Carmen Camuñas (Acciona).

Finalmente, Carmen Camuñas ha cerrado el encuentro con una última reflexión: “Se trata de ver la oportunidad, no la amenaza. Es importante el concepto de inteligencia responsable, no se puede decir que la IA es para ayudarnos y dejar atrás que no es para qué o para quién, sino que es para todos. Y, también, pensar en el impacto energético: si hablamos de sostenibilidad, hay que tener en cuenta toda esta parte de IA. Estamos en un momento muy bonito, pero hemos de ser responsables de las cosas que hacemos”.

La inteligencia artificial tiene el potencial de transformar radicalmente la forma en que vivimos, trabajamos y nos relacionamos. Hace años que se vienen utilizando sistemas informáticos capaces de realizar tareas que normalmente requerirían de la inteligencia humana, pero la irrupción de la inteligencia artificial generativa ha venido a cambiar aún más el panorama y a plantear desafíos éticos y sociales en términos de propiedad intelectual, identidad y autenticidad, así como sobre su potencial para difundir desinformación y contenido perjudicial.

Eventos EC Inteligencia Artificial