Jesús López Fidalgo: “La inteligencia artificial no tiene ética, solo el ser humano la tiene”

El director del Instituto de Ciencia de los Datos de la Universidad de Navarra explica los debates y desafíos que plantea la IA

La inteligencia artificial está cada día más presente en nuestras vidas. Desde los asistentes virtuales como Siri o Alexa, a las recomendaciones que nos aparecen en plataformas como Spotify o Netflix, o los que crean textos a partir de unas indicaciones, o las mejoras en el cuerpo humano desde una perspectiva trashumanista. La potencialidad de la IA es inmensa. Para el bien y para el mal. Con el objetivo de conocer los desafíos y riesgos que plantea, Mundo Cristiano ha hablado con un experto, Jesús Lopez Fidalgo, catedrático de Estadística en la Universidad de Navarra y director del Instituto de Ciencia de los Datos e Inteligencia Artificial.
Este profesor ha participado en la Jornada teológico-didáctica “Ciencia, fe y desafíos de la IA”, organizada por el Instituto Superior de Ciencias Religiosas en el campus de Madrid de la Universidad de Navarra.
En la conversación, López Fidalgo cuenta un caso real: “Sugerí a mi madre, por pasar el tiempo, que preguntásemos a Chat GPT (un modelo de inteligencia artificial para conversar) por su pueblo. Empezó a decir una serie de cosas. Algunas, sí, pero luego otras eran mentira. La IA se lo estaba inventando, porque es un pueblo minúsculo. El programa, cuando no sabe de algo, se lo inventa y te dice cosas bonitas. Luego se me ocurrió preguntarle cosas de mi hermano (que no tiene presencia en internet). Pasó lo mismo: empezó a decir cosas bonitas y… todo inventado. Me asustó”.

—¿El cambio de la inteligencia artificial (IA) es comparable a lo que supuso para el ser humano la invención de la rueda o la revolución industrial?
—Claramente sí. Lo está siendo. Creo que ya se ha demostrado que esto está ocurriendo. Está revolucionando no solo la industria y el mundo de los negocios, sino también el personal. Incluso la comunicación entre los seres humanos. La vida acompañada de la inteligencia artificial se manifiesta especialmente en el smartphone, en el móvil. Muchas de las aplicaciones que usamos continuamente podrían caer dentro de esa categoría de inteligencia artificial, que es un término muy difuso.
—¿Qué entiende por inteligencia artificial?
—La definición que más me gusta es la de “la máquina pensando como el hombre”. Pero ya sabemos que no es así, especialmente los que la utilizamos más.
—Porque, ¿se puede decir propiamente que la máquina piensa?
—No. Lo primero es definir qué entendemos por pensar. Y cuando me preguntan si va a llegar a superar a la mente humana, mi respuesta fácil es que conocemos tan poco de la mente humana y de la inteligencia como para atrevernos a decir si va a llegar a ser algo que no conocemos. Y si encima lo pregunta alguien que tampoco sabe muy bien cómo funciona lo que llamamos inteligencia artificial, pues ya estamos hablando de entelequias.
—¿Qué es lo que cambia con la inteligencia artificial? Porque el avance tecnológico ha existido desde la historia.
—El germen de todo esto es de principios de los 50. Aunque las redes neuronales que están en la base de la IA moderna arrancan de los años 40. ¿Por qué desde los 40 hasta ahora las redes neuronales no han estado de moda o no se han utilizado masivamente? ¿O por qué la inteligencia artificial, que está ahí desde entonces, no ha explotado antes?
En mi opinión, es porque ha avanzado tanto la electrónica, en concreto los computadores, que nos ha permitido avanzar en comunicaciones y, en particular, en Internet de tal manera que somos capaces de recoger muchísimos datos, grandes cantidades de datos. De hecho, todo esto empezó con el Big Data. La inteligencia artificial da el salto porque tenemos Big Data, porque tenemos esa cantidad de datos que me atrevería a decir que a veces suplen la calidad. Entonces, con gran cantidad de datos, aunque no sean de gran calidad, conseguimos resultados muy buenos. A veces también matando moscas a cañonazos.
—¿En qué sentido?
—En el sentido de que utilizamos algoritmos superpotentes y tal cantidad de datos que no es estrictamente necesario. Y eso supone un coste computacional muy alto, que es a la vez un coste de energía muy alto. Nada despreciable.
—Además de las implicaciones éticas de la IA, también hay que contar con el inmenso coste de energía que supone. ¿No?
—Yo no tengo datos espectaculares, pero lo cierto es que todo el mundo tiene la idea de que todo está en la nube y que la nube es gratis, y no es verdad. Las nubes en realidad son unos grandes edificios, unos servidores monstruosos que hay en Canadá, en países nórdicos, y dentro de poco en Zaragoza. Eso es la nube y eso tiene un coste energético brutal.
—¿Por qué? ¿Para refrigerarse?
—Efectivamente estos computadores necesitan una energía tremenda para refrigerarse. Cuando ponemos una película, por ejemplo, se calienta. O cuando hacemos una videoconferencia se calienta porque ahí se están ejecutando muchos cálculos y eso consume mucha energía. Hay estudios de esto porque no es fácil de medir cuál es el consumo energético propiamente dicho.
Conozco grupos de investigación que están tratando de medirlo. Una gran línea de investigación es precisamente esa: cómo ahorrar energía en estos procesos. Lo que se llaman los algoritmos verdes, que no son algoritmos para el medio ambiente, sino algoritmos de bajo consumo. Que no necesitan tantos cálculos como otros para llegar a la misma solución.

Los algoritmos

—Ahora que menciona los algoritmos, ¿están en la base de toda la inteligencia artificial?
—Sí. Yo lo explico de manera un poco simplista, pero válida. Cuando tenemos un problema real y tratamos de resolverlo, por ejemplo, comprar un coche, lo que hacemos es modelizarlo en un lenguaje matemático. Ese lenguaje matemático, que es una aproximación al problema real, si podemos lo resolvemos matemáticamente con las herramientas habituales de la matemática. Pero cuando el problema es más complejo no puede resolverse tan fácilmente con las herramientas matemáticas exactas.
Entonces, lo que hacemos, y ahí está la gran aportación de Turing, es buscar un algoritmo que me ayuda a encontrar una solución aproximada de ese problema matemático o modelo. Una vez que tengo el algoritmo, ya lo puedo programar computacionalmente, utilizar el ordenador para resolver el problema matemático del problema real. Ese es el proceso simplificado.
—¿Y eso quiere decir que un problema real puede tener varios modelos matemáticos?
—Exactamente, porque depende de las variables que utilices. Puede tener varios algoritmos para solucionarlo e incluso distintas maneras de programarlo para resolverlo. Y en todo ese proceso hay mucha investigación continua.
—Todo esto se basa en el “si esto es A, el resultado sería B”.
—Sí, ese es el paradigma. Por eso es muy importante que a los niños, al mismo tiempo que se les enseñan matemáticas, que les forma la mente, también se les enseñase programación.
En la programación, una de las bases es la condición: si pasa esto voy por aquí, si pasa esto otro voy por allá. Y la otra es el ciclo. Un algoritmo es algo que se repite muchas veces. No es solo algo que tiene unos pasos (que es la definición de algoritmo de la Real Academia, y es correcta), pero el algoritmo que entendemos nosotros es como una parte de esos algoritmos. O sea, según la descripción de la RAE una receta de cocina es un algoritmo. Pero lo que entendemos nosotros es una acción que se repite una y otra vez, la misma, mejorando la solución en cada paso. Esto es más o menos cómo funciona un algoritmo y eso está en la base.

En qué afecta

—Al final, los mecanismos básicos de la programación son la base de la IA, ¿no?
—Sí. La base de la inteligencia artificial no es más que programación. Lo que pasa es que ahora se está programando de otra manera, se utiliza programación automática y las redes neuronales ya no requieren que el programador decida explícitamente cada paso.
—De los inmensos campos donde se aplica la inteligencia artificial, ¿cuál es el que más nos va a afectar en la vida diaria?
—Salud, muy principalmente, aunque no solo, claro.
—¿Esto implica los diagnósticos, la desaparición de los médicos?
—No, ¡eso no! Está en la prevención, en el diagnóstico y en la curación del problema. Se está aplicando en cirugía.
—¿Y en las relaciones personales?
—Mire, el otro día me contó una señora la conversación que su hija, que unos 10 años, había tenido con ChatGPT. Y era una conversación como si fuera con una amiga, y de niña de esa edad y eso asusta.
Hay que tener formación, formación y formación en estas cosas.
—¿Podemos llegar con la inteligencia artificial en que un robot o una máquina sustituya al hombre -por el propio bien del hombre- en la toma de decisiones?
—Aquí debo decir que tengo más miedo a la ingeniería genética que a la inteligencia artificial. Mucho más miedo. No sé si es porque de ingeniería genética sé poco y de inteligencia artificial sé algo más. Uno tiene miedo a lo que desconoce.
También podría ocurrir que la intersección de ambas pueda llegar a producir auténticos monstruos.
Pero siempre empiezo las charlas que doy de esto con la ciencia ficción del siglo XX, que iba por la colonización de otros universos. Y pongo el ejemplo de la Guerra de las Galaxias, en la que los protagonistas viajan a la luz del sonido, pasan de un universo a otro con una facilidad increíble, y luego las comunicaciones son muy malas entre ellos. Y ni saben dónde están unos y otros.
Si no somos capaces de predecir lo que va a pasar en pocos años…
Suelo poner también una imagen de un autómata del siglo XVII, que da miedo. Un autómata que tiene un mecanismo -es todo mecánico- para escribir cartas. Escribe varias versiones de cartas e incluso tiene un aspecto humano. Estoy seguro de que los del siglo XVII que veían eso, pensarían: “de aquí a que se levante y empiece a darnos mamporros a todos, cuestión de meses”. O sea, es un miedo que el hombre ha tenido de siempre.
—¿Hasta qué punto se podrá delegar lo humano en la IA en la toma de decisiones?
—El ser humano nunca debe perder el control, sobre todo en las decisiones esenciales. El ser humano tiene que estar ahí. Y en caso de que se retrasan las decisiones, no pasa nada porque es mejor esperar y optar por la decisión adecuada, en vez de una automatizada, basada en unos datos que ha recibido.
—¿Cree que no hay que tener miedo a la inteligencia artificial?
—Debemos tenernos miedo a nosotros mismos. En cómo la utilizamos.
Hay un libro que recomiendo mucho es Céntrate de Cal Newport, que aunque no se refiere propiamente a la IA, sí al uso de la tecnología. Y recuerda que es algo para el hombre y no el hombre para eso.
Entonces tenemos que no perder nunca el control de la tecnología. Y perder el control es ponerse a ver noticias a mitad de mañana cuando uno tiene que estar trabajando. O leer el correo electrónico mientras estás comiendo con tu familia…
—Al hablar de la reflexión ética sobre la inteligencia artificial, ¿el mayor desafío es estar prevenido y no dejar que las máquinas tomen decisiones por nosotros?
—Lo primero es que la inteligencia artificial no tiene ética, solo el ser humano la tiene y es el uso que nosotros le demos el que hace que eso sea ético o no.
¿Que hay algoritmos sesgados? Mentira, los algoritmos no sesgan, lo que ocurre es que les damos datos sesgados, porque la sociedad es sesgada. Si alimentas la IA con datos sesgados así dará los resultados.
Ahí está la labor en parte nuestra, en parte también de filósofos o gente que se dedica a la ética, de ayudar a corregir esos sesgos. La IA puede incluso ser beneficiosa para eso, pero no solo la IA, porque necesitamos a alguien que diga qué es lo que hay que corregir. Necesitamos humanistas que digan hasta dónde tengo que corregir, hasta dónde puedo llegar, pues si un grupo social está poco representado, también puede ser por razones ajenas a una discriminación. Pero me interesa potenciar que ese grupo esté más representado, podemos pedir al algoritmo que le dé un trato de favor a ese grupo. Pero eso lo tiene que decir alguien.

En el mercado laboral

—¿Cómo va a afectar la IA al mercado laboral? En educación, por ejemplo. Eso preocupa a mucha gente.
—Bueno, está claro que los maestros hacen falta…
A mí me sorprende mucho, por ejemplo, la radio. Cuando empezó la televisión se pensó que la radio había muerto. Y no solo no ha muerto, sino que es más potente ahora mismo que la televisión.
Entonces volvemos otra vez a predecir… Es que es muy difícil. ¡Claro que esto va a cambiar el mercado laboral! Ya lo está haciendo.
Esto ha venido como muy rápido, sí, pero los cambios tendrán que ir haciéndose poco a poco.
Con estos cambios es bueno recordar que, cuando empezaron los ordenadores personales todo el mundo tenía uno. Era típico ir con un disquete de esos pequeños y presumir de que ahí tenía ¡tres libros! Y nunca desde entonces hemos impreso más papel. Las impresoras son uno de los mayores gastos en nuestra universidad. En toner tenemos un gasto increíble. Incluso con la tablet, que lees más sano, y sin embargo estamos imprimiendo más que nunca.
—Volviendo al mercado laboral, muchas personas ven que pueden perder su puesto de trabajo.
—Queramos o no, la IA va a impactar ahí. No sé si habrá profesiones que desaparezcan, pero ya lo hemos visto con las oficinas de los bancos. Desaparecerán esos puestos de trabajo, pero se requerirá más una formación cada vez más profunda.
Hace años decíamos que en España sobraban universidades y que la gente estaba sobrecualificada. Pues ahora quizá resulta que van a faltar y necesitamos formar a todo el mundo. A mí me preocupa la formación. Si conseguimos formar a ese cuyo puesto peligra y conseguimos que se recicle para que haga el trabajo de otra manera u otro trabajo, eso será más suave y menos traumático.

Ética y leyes

—¿Cuál es la clave ética a la hora de abordar cualquier tema de IA?
—Lo primero es el respeto a la dignidad de la persona. Eso tiene que estar siempre.
—¿Y cómo regularla adecuadamente?
—Es un gran dilema porque se suele decir que los europeos -probablemente por ese bagaje de cultura cristiana que tenemos- estamos como obsesionados en regularla y en fijarnos en la ética de todo esto. Europa aquí ha sido la que ha ido en vanguardia, mientras que China es el extremo contrario: hacen lo que les da la gana, sin ninguna limitación ni en esto ni en nada. Entre medias, Estados Unidos, que tiene unas ciertas normas éticas.
A veces he oído críticas, y en parte las comparto, de que Europa está como demasiado obsesionada en regular y por eso no avanza y está dejando que avancen otros.
Es un equilibrio difícil de encontrar. Es importante cuidar los aspectos éticos y estar prevenido contra los sesgos, y al final eso trae mayor beneficio que olvidarse de la ética y decir que aquí el fin justifica los medios. Eso no. Pero he oído a alguien que sabe de esto decir: tenemos que producir algoritmos, si no los producimos no habrá ni sesgo.
Podemos acabar como con la anterior ley de protección de datos, cuya consecuencia es que nuestros mensajes de correo electrónico tengan una retahíla de texto que nadie lee, que no sirve absolutamente para nada y que es energía porque eso, repetido, es un gasto de energía terrible. Eso es Europa.
—¿Y la nueva normativa sobre la IA?
—No se sabe cómo aplicarla. Están surgiendo empresas, que quieren ganar mucho dinero, para garantizar a las empresas que aplican esta ley…
No hay una respuesta sencilla. Hay que regular, obviamente. Pero quizá a lo mejor hacen falta equipos interdisciplinares que establezcan las reglas. No puede ser que un jurista diga que no entiende una normativa como esta, y un técnico diga que tampoco, porque utiliza un lenguaje muy jurídico. Ahí falla algo. A lo mejor es que tiene que entrar un equipo interdisciplinar que sea capaz de poner eso de una manera comprensible relativamente sencilla.
Muchas cosas son de sentido común y una vez más, la formación. Aquí, formación ética.
Al final una normativa deja muchas cosas fuera y no se puede normativizar todo. Hay muchas cosas que sabemos que están mal pero que no son delito. Tenemos un sentido ético de cosas muy elementales y en esto también.

Compartir:

Otros artículos de interés