Es noticia
Formación y regulación para reducir los riesgos de la IA y explotar su potencial
  1. Tecnología
ENCUENTRO EL CONFIDENCIAL

Formación y regulación para reducir los riesgos de la IA y explotar su potencial

Perder el miedo a utilizar grandes modelos de lenguaje basados en IA como ChatGPT pasa, según los expertos, por empoderar a las personas a través de la formación y el fomento del pensamiento crítico

Foto: Mesa redonda 'Tecnología con propósito: IA Generativa, ChatGPT y su impacto en las profesiones'.
Mesa redonda 'Tecnología con propósito: IA Generativa, ChatGPT y su impacto en las profesiones'.

En el último medio año, han corrido ríos de tinta sobre ChatGPT, el potencial de la inteligencia artificial (IA) generativa, cómo afectará a las profesiones y la educación, o cuáles deben ser sus limitaciones desde el punto de vista ético. El tema da mucho de sí, y las voces acreditadas lo equiparan a otras grandes revoluciones tecnológicas de la humanidad. En medio de este maremágnum de información y con la Unión Europea trabajando contra reloj para legislar al respecto, las compañías y los centros de formación de todo el mundo se han lanzado en tropel a probar su potencial.

Para entender cómo se debe afrontar la convivencia entre la IA y los profesionales humanos, El Confidencial organizó un encuentro titulado Tecnología con propósito: IA Generativa, ChatGPT y su impacto en las profesiones, con el objetivo de arrojar luz sobre la materia. La mesa redonda encargada de debatir sobre la cuestión estuvo moderada por el especialista en estrategia y desarrollo de negocios digitales Pepe Cerezo y contó con la participación de Isabel Fernández, rectora de la Universidad Alfonso X El Sabio y experta en inteligencia artificial; Jesús García-Foncillas, director del instituto de oncología OncoHealth del Departamento de Oncología del Hospital Universitario Fundación Jiménez Díaz y la División de Oncología Traslacional del Instituto de Investigación Sanitaria FJD-UAM; José Manuel de la Chica, director de Tecnología e Innovación de Santander Universidades & Universia; Luis Miguel Olivas, director de Empleabilidad e Innovación Educativa en Fundación Telefónica, y Gonzalo Díe, managing director de Accenture.

La primera en romper el hielo fue Isabel Fernández, quien destacó que “la IA generativa es una herramienta tecnológica que permitirá un salto cualitativo sin precedentes en casi todos los empleos. Precisamente, por esta razón, requiere formación específica y reciclaje profesional”. No obstante, “en todo momento hay que impregnar esa base formativa de un espíritu crítico que minimice sus riesgos desde el propio punto de partida. Al mismo tiempo, la mayoría de los conflictos que entraña se pueden resolver con planteamientos técnicos-regulatorios y no tanto desde un punto de vista ético o filosófico”. A modo de ejemplo, reivindicó que “los algoritmos deberían construirse ateniéndose a unas reglas concretas, al igual que lo hace un arquitecto: nadie puede edificar una vivienda por su cuenta sin cumplir con los requisitos y controles establecidos. Con la IA tendría que ocurrir lo mismo”.

Con ella coincidió Jesús García-Foncillas cuando enfatizó que “hay que superar el miedo que nace del desconocimiento”. En este caso, la receta del doctor “pasa por la educación”. Bajo su perspectiva, “es necesario empoderar al ciudadano a través de la formación para desmitificar el uso de la IA. Hay que crear nuevos itinerarios educativos, ser transgresor en este sentido y garantizar la equidad en el acceso”, incidió. En consonancia también se mostró Luis Miguel Olivas al concretar que “la IA generativa del tipo ChatGPT evidencia que en educación necesitamos un cambio profundo”. “El docente debe tener las habilidades y el poder para cambiar su rol. Es decir, en lugar de conocer al dedillo el contenido, debe ser un facilitador de la enseñanza y generar experiencias de aprendizaje”, aclaró.

"Es necesario empoderar al ciudadano a través de la formación para desmitificar el uso de la IA", Jesús García-Foncillas (Fundación Jiménez Díaz)

Gonzalo Díe reveló que, según los datos que maneja Accenture, “el 40% de las horas laborales podrían verse afectadas por grandes modelos de lenguaje, como ChatGPT en los próximos años”. Eso sí, especificó que “hay y habrá tareas directamente afectadas —aquellas con procesos más automatizables—, mientras otras serán solo asistidas”. El impacto en cada industria será diferente, pero aumentará la productividad en general. Entre las razones para que “ahora haya más personas interesadas por esta tecnología” se encuentran “su democratización de acceso” y el hecho de que “en 2022 se alcanzara la denominada paridad hombre-máquina”, según apuntó el experto.

Por su parte, José Manuel de la Chica remarcó que “estas herramientas amplían la actividad humana, facilitan las tareas rutinarias y permiten aportar mayor valor añadido. Son asistentes que eliminan el trabajo repetitivo”. Además, el director de Tecnología e Innovación de Santander Universidades & Universia quiso incidir en una cuestión tan relevante como el carácter público de la IA: “Su capa colectiva unifica todo el conocimiento humano. Al menos, aquel que está en internet accesible a todo el mundo. Por lo tanto, se puede hablar de que, utilizando determinadas IA generativas, accedemos a una verdadera inteligencia global”, precisó.

placeholder Isabel Fernández (UAX) y José Manuel de la Chica (Santander).
Isabel Fernández (UAX) y José Manuel de la Chica (Santander).

El reto de regular una tecnología transversal

El carácter transversal de esta tecnología implica, desde el punto de vista de la rectora de la Universidad Alfonso X El Sabio, que “deba ser incorporada a las competencias en materia de educación y formación, pero también es necesario regular al respecto”. En este sentido, Isabel Fernández subrayó que “no puede pasar un minuto más sin que los usuarios finales sepan si un servicio o un producto procede de una máquina, una persona o la colaboración entre ambos. La Unión Europea ya trabaja en esta cuestión”. Sin embargo, José Manuel de la Chica puntualizó que, “debido a que existen determinados aspectos de esta tecnología que son extremadamente complejos, la regulación no es capaz de estar a la altura: no se puede legislar sobre aquello que no se entiende”, admitió.

"Si sabemos que el regulador llegará tarde en materia de IA, seamos nosotros responsables desde el principio", Gonzalo Díe (Accenture)

En una línea similar, el managing director de Accenture confirmó que, “efectivamente, el regulador va más lento que la propia tecnología. Por eso es necesario aplicar los principios éticos sobre una base de responsabilidad inicial. Sabemos que el regulador llegará tarde, pues seamos nosotros responsables desde el principio, no solo en el uso y diseño de algoritmos, sino, asimismo, en otros aspectos de mayor alcance como es la brecha digital”, aseguró. Recogió el guante el director de Empleabilidad e Innovación Educativa en Fundación Telefónica, quien explicó que “existen investigaciones que apuntan a que el 40% de los algoritmos que circulan por la nube son negativos. Esto nos obliga a ir mucho más rápido. Necesitamos leyes y generalizar la ética digital, una suerte de constitución, para generar estabilidad en su uso”. “Ante la posición europea, en medio de la guerra tecnológica entre Estados Unidos y China —continuó el experto—, las propias empresas debemos tomar la iniciativa con manuales que recojan recomendaciones éticas y realizar evaluaciones sobre el impacto. Recordemos, por ejemplo, que los algoritmos son creados partiendo de los sesgos de sus creadores”, señaló.

placeholder Gonzalo Díe (Accenture) y Luis Miguel Olivas (Telefónica).
Gonzalo Díe (Accenture) y Luis Miguel Olivas (Telefónica).

Para cerrar la tertulia, Jesús García-Foncillas quiso lanzar un mensaje optimista y evidenciar con hechos reales lo que puede aportar la IA a la sociedad. “El éxito de esta tecnología es achacable a diferentes causas, no obstante, la clave es que su uso reporta un beneficio, no lo olvidemos”. A modo de ejemplo y desde su posición de director del instituto de oncología de la Fundación Jiménez Díaz y la División de Oncología Traslacional del Instituto de Investigación Sanitaria FJD-UAM, indicó que “la IA nos está permitiendo avanzar mucho en la investigación contra el cáncer seleccionando moléculas de éxito, pero también nos ayuda en nuestra labor formativa desde la universidad o con el manejo clínico de los pacientes en el día a día”. “La IA enriquece aquellas profesiones que trabajan con grandes cantidades de datos porque, al final, debe existir un filtro humano que depure y aporte el valor”, concluyó.

En el último medio año, han corrido ríos de tinta sobre ChatGPT, el potencial de la inteligencia artificial (IA) generativa, cómo afectará a las profesiones y la educación, o cuáles deben ser sus limitaciones desde el punto de vista ético. El tema da mucho de sí, y las voces acreditadas lo equiparan a otras grandes revoluciones tecnológicas de la humanidad. En medio de este maremágnum de información y con la Unión Europea trabajando contra reloj para legislar al respecto, las compañías y los centros de formación de todo el mundo se han lanzado en tropel a probar su potencial.

Inteligencia Artificial Eventos EC
El redactor recomienda