“Un buen sistema de inteligencia artificial anticiparía en dos o tres semanas la eclosión de una nueva pandemia”
- Entrevista
- Mayo 20
- 20 mins
Ramón López de Mántaras
La inteligencia artificial (IA), un término acuñado a finales de los años cincuenta del siglo pasado, es una cuestión frecuente cuando se habla del futuro del trabajo o de las ciudades. Las posibilidades de aplicación de la IA son infinitas, pero, al mismo tiempo, plantean retos éticos sobre la privacidad y el derecho a la intimidad. López de Mántaras vive en la primera línea de este ámbito de conocimiento desde mediados de los años setenta. Es un pionero en España y, de hecho, con Luc Steels, ha sido impulsor de la Declaración de Barcelona, un manifiesto que propone un uso adecuado de la IA en Europa. Conversamos sobre el porqué del protagonismo actual de la IA, los mitos que la acompañan, los peligros que supone para la privacidad y cómo puede ayudar a planificar ciudades inteligentes y sostenibles.
Ramón López de Mántaras es profesor de Investigación del Consejo Superior de Investigaciones Científicas y fundador y exdirector del Instituto de Investigación en Inteligencia Artificial (IIIA). Doctor en Física por la Universidad Paul Sabatier de Tolosa (Francia), Maestría en Ciencias en Ingeniería Informática por la Universidad de California-Berkeley y doctor en Informática por la Universidad Politécnica de Cataluña. Ha sido editor jefe de la revista AI Communications y editor asociado de Artificial Intelligence, la publicación de referencia en el ámbito de la IA. Es miembro de los consejos de redacción de seis revistas internacionales. Autor de casi trescientos artículos sobre ciencia, en 1982 recibió el Premio Ciudad de Barcelona de Investigación y, en 2018, el Premio Nacional de Investigación Julio Rey Pastor que otorga el gobierno español, entre muchas otras distinciones. Su investigación actual se centra en cómo lograr que los ordenadores y los robots humanoides aprendan a partir de la experiencia, y en la inteligencia artificial aplicada a la música.
¿Qué explica el entusiasmo y la gran presencia mediática de la inteligencia artificial (IA) en los últimos años?
La historia arranca en 2012. Aquel año se dieron a conocer unos resultados sorprendentes acerca del aprendizaje profundo (deep learning, en inglés), una de las especialidades de la IA. Un grupo de investigadores canadienses desarrolló una red neuronal artificial de muchas capas capaz de reconocer a gran velocidad objetos de una base de datos de imágenes. ImageNet es una base de datos que cuenta con 14 millones de objetos de categorías distintas en la que cada imagen está etiquetada. Se entrenó a la red neuronal con 150.000 de estas imágenes, correspondientes a mil categorías de objetos. Una vez entrenada, se le presentaban imágenes que pertenecían a estas mil categorías pero que eran distintas de las imágenes de entrenamiento, y las reconocía con un acierto del 85%.
Hasta entonces, los mejores algoritmos alcanzaban un 70 % como máximo. En los años posteriores a la aparición de esta red neuronal, otros grupos alcanzaron un 95 % de acierto. The Guardian publicó una noticia que dio la vuelta al mundo: “A las máquinas se les da mejor reconocer objetos que a las personas”, afirmaba el titular.
Más allá de la enorme exageración del titular, lo cierto es que en poco tiempo se había dado un gran salto en la capacidad de las redes neuronales de generalizar, hacer abstracciones y captar la esencia de los objetos que se les presentaban.
¿La gran cantidad de datos introducidos en el sistema explica el secreto de este hito de la IA?
Lo explica la gran cantidad de datos de la base ImageNet y también que los algoritmos se implantaron en máquinas potentísimas, de altísimas prestaciones y con una gran velocidad de cálculo. Una base de datos inmensa y un hardware muy potente explican que un algoritmo de dos décadas de vida obtuviera un protagonismo global. Los primeros en darse cuenta de las posibilidades económicas de este salto de la IA fueron los gigantes tecnológicos (Facebook, Google, Baidu…) y desde entonces apuestan a fondo por el aprendizaje profundo. Tuvieron muy claro que disponían del material más valioso —datos infinitos para entrenar a los algoritmos— y destinan muchos recursos a la investigación de vanguardia en este campo. Por ejemplo, Google adquirió enseguida la empresa DeepMind y convirtió en multimillonarios a un grupo de jóvenes emprendedores. El entusiasmo actual por la IA tiene fundamentos sólidos.
¿Son este momento tan “caliente” y el interés de los gigantes tecnológicos en la IA buenas noticias para los investigadores? ¿Queda espacio para una investigación orientada hacia el bien común?
El interés actual por la IA supone que haya más recursos para la investigación, ya que ha pasado a ser un área prioritaria de investigación en Estados Unidos y en la Unión Europea. Pero debemos procurar no generar falsas expectativas y ser prudentes acerca de la capacidad de la IA de resolver problemas sociales complejos. El mundo académico tiene muchas menos posibilidades de disponer de grandes cantidades de datos y de acceder a enormes capacidades de cálculo. No tenemos ni los recursos ni los sueldos que ofrecen los gigantes tecnológicos a las mentes más brillantes de las universidades.
Sin embargo, el mundo de la IA es muy amplio y quedan nichos para el tipo de investigación que no busca únicamente el beneficio económico. El aprendizaje profundo es una de las muchas ramas de la IA. Hay muchos otros ámbitos de investigación que interesan poco a Facebook, Google y Baidu, entre otras empresas. El combustible del aprendizaje profundo son los datos, pero también hay aspectos que centran la atención en el conocimiento. Así, se abre un espacio para desarrollar sistemas de razonamiento, crear híbridos entre conocimientos y datos o desarrollar sistemas multiagentes que podrían ser útiles en muchos ámbitos.
El creciente interés por la IA ha difundido una serie de mitos que, seguramente, sea necesario matizar. Así pues, le propongo un ejercicio de desmitificación de la IA. Primer mito: la inteligencia artificial trabaja de una forma muy similar al cerebro humano. ¿Es cierto?
Es falso. En la actualidad, los sistemas de redes neuronales profundas, que algunos equiparan al funcionamiento del cerebro humano, en realidad modelizan un aspecto ínfimo del procesamiento de la información en un cerebro. Hoy sabemos que cuando la neurona se dispara y emite una señal, esta no es solo de naturaleza eléctrica. De hecho, hay mucha información que el cerebro procesa y que es de naturaleza química. La neurociencia ha demostrado que las células gliales, que forman parte del sistema nervioso, desempeñan un papel clave en el procesamiento de información cerebral. Y eso no se incorpora en ningún modelo neuronal artificial. Por lo tanto, afirmar que las redes neuronales artificiales son similares al cerebro humano es inexacto. En realidad, hasta la fecha, la IA ha logrado desarrollar modelos matemáticos simples y poco precisos de la neurona biológica.
Por lo tanto, ¿la denominación “inteligencia artificial” es una exageración, en el sentido de que está lejos de la capacidad de la inteligencia humana?
“La IA no siempre ha gozado de la buena imagen que tiene ahora, a causa de las expectativas que generaron algunos científicos y tecnólogos.”
No hay duda de que el nombre ha triunfado. Y seguirá entre nosotros. De hecho, el término “inteligencia artificial” tiene su historia. A principios de los años cincuenta se utilizaba el término “cibernética”, formulado por Norbert Wiener. Pero Wiener, considerado el padre de la cibernética, y otro especialista, John McCarthy, no tenían buena química personal. En 1957, McCarthy organizó un seminario en la Universidad de Dartmouth, una de las más antiguas de Estados Unidos, y no quiso invitar a Wiener. Fue allí donde se inventó el término “inteligencia artificial” como si se tratara de una área de conocimiento nueva.
La nueva denominación de la cibernética ha cuajado, pero no siempre ha gozado de la buena imagen que tiene ahora, en gran parte a causa de las expectativas que generaron algunos científicos y tecnólogos. A mediados de los años noventa, la IA tenía demasiada mala prensa. En 1997, el software Deep Blue de IBM ganó una partida de ajedrez a Garri Kaspárov. Cuando preguntaban a los directivos de IBM si Deep Blue era un ejemplo de IA, lo negaban. Les daba miedo asustar a sus clientes. Hoy, el término se ha puesto de moda, pero si exageramos las expectativas, podríamos volver a vivir un nuevo "invierno" de la IA.
Segundo mito: las máquinas inteligentes aprenden por sí solas.
Es una afirmación muy exagerada. En primer lugar, el software no tiene ni objetivo ni intencionalidad. No aprende por sí mismo, sino que se lo programa. Y esta programación es muy costosa —en cuanto a recursos, profesionales cualificados, recopilación de datos y definición de la tarea específica del sistema— y requiere ajustar millones de parámetros, y todas estas tareas las llevan a cabo programadores humanos. Una inteligencia artificial no deja de ser un programa de ordenador.
Tercer mito: la inteligencia artificial puede llegar a ser 100 % objetiva. Carece de sesgos. ¿Es así?
Claramente, no es así. Un sistema de este tipo necesita ejemplos para ser entrenado; las decisiones que debe tomar (clasificar una imagen, conducir un coche autónomo) se aprenden a partir de datos generados por humanos. Es el caso de una máquina que lleva a cabo diagnósticos médicos: los médicos generan datos sobre una enfermedad que son las que condicionan los resultados. La realidad es que los datos pueden estar sesgados. Es el caso, por ejemplo, del sistema que se implementó en Estados Unidos que aconsejaba conceder o no la libertad condicional a los presos en función de la probabilidad de reincidencia. Detrás había un algoritmo que se demostró que discriminaba a los afroamericanos. ¿Por qué? Porque los datos que entrenaron al sistema presentaban sesgos que discriminaban a este colectivo. Un preso afroamericano que no estaba conforme con la decisión apeló y pidió que le explicaran los argumentos de la denegación de la libertad condicional, y no pudieron hacerlo. El juez, para ahorrarse trabajo, no fue más allá del “consejo” de la máquina. El preso ganó la apelación y se puso en cuestión todo el sistema. No soy contrario a utilizar estos sistemas para ayudar a tomar decisiones, pero antes se debe llevar a cabo un análisis de los posibles sesgos, determinar cuáles son y si se pueden corregir. Estos sistemas no se pueden sacar al mercado de forma precipitada; antes deberían pasar una especie de ITV para algoritmos.
Cuarto mito: la inteligencia artificial sustituye a los humanos únicamente en las tareas más simples. ¿Es una idea que debe matizarse?
No es exactamente así. Hay trabajos sencillos que no puede llevarlas a cabo una máquina, dado que requieren de destrezas manuales inalcanzables para un aparato. Por ejemplo, algunas tareas que hace un electricista o muchas tareas domésticas (limpiar o poner una lavadora). Son tareas que parecen sencillas pero que exigen bastante destreza.
También hay trabajos intelectuales que podría llevar a cabo una máquina. Por ejemplo, la tarea de un abogado cuando prepara una defensa judicial mediante la consulta de bases de datos o la redacción de un artículo periodístico estándar… ¿Esto lo puede hacer una máquina?
Sí, puede. Y puede incluso imitar un determinado estilo periodístico, siempre que disponga de suficientes textos para construir patrones. Una máquina puede analizar rápidamente un cuerpo de datos extenso. Pero debemos ir con cuidado: más datos no equivale a más inteligencia. La clave reside en la calidad de los datos. Tomar buenas o malas decisiones no depende únicamente de la cantidad, sino principalmente de la calidad de los datos. Los datos incoherentes, que incorporan ruido, lo que hacen es empeorar las decisiones. Así pues, la inteligencia artificial puede sustituir las tareas rutinarias, tanto manuales como intelectuales, más que las tareas simples. Sin embargo, si nos encontramos frente a situaciones imprevistas, inciertas, indeterminadas y que no responden a patrones, las máquinas no pueden hacer gran cosa. En cambio, los humanos sí sabemos responder, mejor o peor, a las situaciones imprevistas.
El último mito: la persona que trabaja en el sector primario, la agricultura o la ganadería, y que afirma que eso de la inteligencia artificial no le afecta, ¿se equivoca?
La inteligencia artificial es muy horizontal. Pensemos en un empresario agrícola que deba gestionar mucha información y utilice drones para controlar la cosecha o para tener en cuenta datos del mercado, o incluso variables climáticas para tomar mejores decisiones. De la IA no se escapa ni el mundo del arte.
¿Quiere decir que hay máquinas a las que se programa para que sean creativas?
Hasta cierto punto, pueden serlo. La creatividad no es una actividad dual, sino que tiene grados. Está claro que las máquinas actuales no pueden romper reglas e inventar un nuevo estilo musical o pictórico como hicieron los cubistas o los inventores de la música atonal. En cambio, a partir de un análisis exhaustivo de un estilo musical o pictórico, los sistemas de aprendizaje profundo pueden extraer los patrones del estilo de un pinto como Rembrandt, de un músico como Bach o de cualquier otro artista. En cuanto la máquina ha captado el modelo, es capaz de generar cuadros o composiciones nuevas. Esto ya se ha hecho. ¿Se puede afirmar que esto es creatividad? Muchas personas defienden que esto no es creativo, pero realmente se trata de obras originales y valiosas. Yo creo que es indiscutible que tienen, como mínimo, cierto valor artístico.
Desarrollar algoritmos tiene un aspecto creativo, pero al mismo tiempo despierta reticencias por los sesgos que puede incorporar. De hecho, usted es uno de los impulsores de la Declaración de Barcelona que establece el terreno de juego ético cuando se trata de desarrollar algoritmos. ¿Cuáles deberían ser los principios éticos en lo referente al desarrollo de la inteligencia artificial?
En primer lugar, la prudencia. Por ejemplo, no desplegar aplicaciones antes de determinar los sesgos que presenta. En segundo lugar, la obligación de rendir cuentas. Los sistemas no pueden ser cajas negras y los procesos establecidos para justificar las decisiones deberían ser transparentes. Y, en especial, no olvidar al ser humano, es decir, no sustituir una máquina por una persona basándose únicamente en criterios de rentabilidad. Además, se ha demostrado que de la colaboración persona-máquina surgen mejores decisiones que de una máquina sola. Esto lo hemos visto en el campo de la medicina. Aunque es cierto que, en otros ámbitos, tiene todo el sentido del mundo implementar una sustitución radical. Es el caso del coche autónomo de nivel 5 que, cuando sea mayoritario —todavía tardará—, ahorrará miles de muertos en las carreteras. En este caso, el beneficio para el conjunto de la sociedad es indiscutible.
¿Se puede evaluar si los algoritmos están limpios de sesgos?
No siempre es fácil, pero se puede hacer. Lo más aconsejable sería verificarlos y hacer pruebas antes de desplegarlos. El sesgo puede estar presente no solo en los datos sino también en el propio algoritmo. Los programadores del algoritmo pueden haber introducido el sesgo deliberadamente o mientras escribían el código que programa el algoritmo. Si el código es complicado, no es fácil de descifrar. Además, cuando el algoritmo presenta mucha complejidad y requiere miles o incluso millones de líneas de código, la programación es un trabajo de equipo, a menudo de muchas personas, que va integrando, paso a paso, los distintos componentes del programa que se ha hecho coralmente.
¿Ve factible acordar una ética global sobre la inteligencia artificial?
No lo creo. Excepto en cuestiones muy básicas, no podemos hablar de una ética universal independiente de los países y de las culturas. Si tuviera la solución al problema de la ética en la IA, saldría en la portada de la revista Time. Hay propuesta interesantes, como la que plantea el profesor Stuart Russell, de la Universidad de Berkeley, en su libro Human Compatible, aunque su propuesta para garantizar el control de las máquinas futuras, por muy inteligentes que sean, es casi ciencia ficción.
En última instancia, la responsabilidad es de los diseñadores y de los programadores, así como de los usuarios. Es aquí donde debemos centrar la atención y el control. Y, asimismo, deberían incorporarse más contenidos de ética en los estudios científicos y de ingeniería. De hecho, la ética tendrá presencia en los nuevos grados de inteligencia artificial que preparan las universidades catalanas. Serán grados técnicos en los que los aspectos humanísticos y éticos serán fundamentales. Llegamos tarde, pero por fin nos estamos poniendo manos a la obra.
¿Cree que la inteligencia artificial y la robótica son fundamentales si queremos preservar el Estado del bienestar?
La inteligencia artificial tiene un potencial extraordinario para mejorar el bienestar de nuestras sociedades. De hecho, muchas aplicaciones ya ayudan a los médicos a tomar decisiones. Si seguimos o no por este camino dependerá de la voluntad política y de invertir los recursos necesarios.
Y en el caso de la COVID-19, ¿qué se podría haber hecho con IA que no se haya hecho?
“Aún estamos a tiempo de que la IA resulte útil para diagnosticar y tratar la COVID-19 y, especialmente, para encontrar una vacuna.”
Al contrario de lo que hemos leído en algunas noticias, la IA no llevó a cabo una detección mejor que la de los especialistas humanos. Pero aún estamos a tiempo de que resulte útil para diagnosticar casos y tratamientos y, especialmente, para ayudar y acelerar el desarrollo de una vacuna. De hecho, hay muchos grupos en todo el mundo que trabajan con el apoyo de la IA.
En un futuro, en otro caso de pandemia, se podría detectar y anticipar que algo extraño está ocurriendo. Si se disponen de muchos datos de gran calidad —comentarios de fuentes fiables en las redes sociales e informaciones verdaderas procedentes de centros médicos— se podrían detectar patrones que no se corresponden con patrones normales de comportamiento. Ello permitiría una detección precoz de episodios como el de la COVID-19. El siguiente paso sería la interpretación por parte de los expertos de los datos proporcionados por el software y la confirmación de un comportamiento anormal y su gravedad. Se podrían ganar incluso dos semanas antes de la eclosión.
Pero esta monitorización masiva tiene un lado oscuro: la amenaza a la privacidad.
Ese sería el peligro. En principio, haría falta recibir la información de los móviles de los ciudadanos. Nos dicen que hay sistemas que trabajan en base a información agregada y anonimizada pero, de hecho, la información agregada sobre grupos de población se obtiene a partir de información de cada dispositivo móvil individual e incluye el lugar en el que se encuentran las personas. El problema deriva del hecho de que esto se hace de forma centralizada y presenta riesgos, como que quien reciba la información la utilice con fines de vigilancia o comerciales. La alternativa sería crear un sistema descentralizado que recogiera la información de forma que cada individuo gestionara sus datos. Este sistema podría monitorizar si se presenta algún síntoma de la enfermedad y, también, gracias al bluetooth, si se ha estado cerca de otras personas con síntomas. Finalmente, la persona decide voluntariamente descargar sus datos e incorporarlas al sistema de seguimiento de la propagación de la epidemia.
De la salud a las ciudades. ¿Cuál es el potencial de la inteligencia artificial para mejorar la vida en las ciudades?
No hay duda de que la inteligencia artificial tiene un gran potencial para mejorar las ciudades. Pero hace falta una condición previa: sensores por todas partes. Deberíamos instalar sensores en el espacio público para detectar comportamientos, lo que choca de nuevo con los derechos y las libertades. Si la finalidad es, por ejemplo, disponer de información sobre movilidad tanto de vehículos como de peatones, bastaría con sensores que respetan completamente la privacidad. En este caso, se trataría de descartar los sistemas de visión por computadora que leen las matrículas y que llegan incluso a detectar rostros.
La movilidad, la energía y la seguridad son los tres grandes ámbitos para implantar la IA en ciudades como Barcelona. El denominador común de la inteligencia artificial es desarrollar algoritmos que optimicen decisiones. De hecho, la IA, a partir de datos y/o conocimientos, trata de tomar mejores decisiones de una forma flexible y dinámica. Algunos ejemplos serían: regular mejor los semáforos en función del volumen de tráfico, ajustar la intensidad de los autobuses, fomentar el aparcamiento inteligente o regular la iluminación de las calles. Y lo que cambiará radicalmente la movilidad en las ciudades a medio plazo serán los coches autónomos. Si lo gestionamos bien, aumentará la eficiencia, ahorraremos energía y disminuirán las emisiones de gases de efecto invernadero.
¿Puede la inteligencia artificial mejorar el gobierno de las ciudades y fortalecer la participación de los agentes sociales en la toma de decisiones?
De nuevo, el potencial existe, pero es necesario que haya voluntad política y recursos. Se podrían diseñar sistemas multiagentes y agregadores de opiniones basados en argumentos y contraargumentos. El sistema de IA se podría añadir a un simulador que desplegara distintos escenarios en función de las decisiones tomadas. Sería una forma de hacer más atractiva la participación a los ciudadanos; se podría incluso incentivar la participación mediante recompensas, como rebajas impositivas a las personas que participen activamente.
¿En qué estado de salud se encuentra la investigación en inteligencia artificial en Cataluña y en España?
“Tenemos grupos de investigación excelentes. Formamos parte del club de los quince países más competitivos en IA a escala global.”
Hay mucha masa crítica. Tenemos grupos de investigación excelentes que publican en las mejores revistas, tanto sobre IA como sobre visión por computador. A escala europea, diría que solo nos superan claramente Gran Bretaña, Alemania, Francia, Países Bajos e Italia, y por otro lado nos supera Israel. Si nos fijamos en el mundo entero, hay unos cinco o seis países más que nos superan. Formamos parte del club de los quince países más competitivos en IA a escala global.
¿Y en cuanto a empresas?
No estamos nada mal. Un estudio francés reciente sitúa a España como el cuarto país europeo en cuanto a la creación de nuevas empresas centradas en IA. Está surgiendo una gran cantidad de start-ups, sobre todo en Cataluña. Esperemos que muchas de ellas se consoliden.
Para terminar: hoy en día, ¿la inteligencia artificial está más orientada al beneficio o al bien común?
En los últimos tiempos, el gran motor de la IA es, sin duda, el beneficio. La prioridad de las grandes empresas tecnológicas es ganar dinero, aunque digan que su prioridad es desarrollar la IA para construir un mundo mejor. Por otro lado, los poderes públicos y el mundo académico tienen un gran abanico de oportunidades para hacer muchas cosas por el bien común.
El boletín
Suscríbete a nuestro boletín para estar informado de las novedades de Barcelona Metròpolis