La ignorancia de los algoritmos y las nuevas realidades sintéticas
Impactos de la inteligencia artificial
- Dosier
- Jul 23
- 13 mins
Las tecnologías de inteligencia artificial son una expresión de lo que somos. Cuando todo es posible, ¿qué decidimos hacer? Tenemos en nuestras manos herramientas perfectas tanto para la creación como para el control, que aumentan y perpetúan las desigualdades sociales, pero que, al mismo tiempo, nos permiten enfrentarnos al reto contemporáneo de revisar las formas de mirar el mundo.
La oportunidad de un nuevo monstruo
En 1818 se publicó la novela Frankenstein o el moderno Prometeo de Mary Shelley, que describe la gestación de una creación extraordinaria, una promesa con un potencial infinito que primero se vive desde la esperanza y, luego, desde el horror. El monstruo se hace presente en el momento en que su creador lo ve despertar y se siente responsable de aquello a lo que acaba de dar vida.
Esta historia es muy similar a lo que estamos viviendo actualmente con el uso más extendido y popular de los modelos generativos de inteligencia artificial (IA), en que, frente a la integración de estas herramientas en espacios tanto laborales como domésticos, surgen muchas preguntas: ¿Qué hemos creado? ¿Qué potencial y qué impacto tiene? ¿Es realmente inteligente? Y, si lo es, ¿es realmente inteligencia humana?
Estos interrogantes llenan debates y espacios en medios de comunicación, y generan investigación en varias universidades, lo que crea espacios de opinión profundamente polarizados. El investigador del Massachusetts Institute of Technology (MIT) Max Tegmark publicó el pasado mes de marzo una carta firmada por personalidades clave del sector tecnológico (entre ellas, Yoshua Bengio, ganador del Turing Prize; Elon Musk, CEO de Tesla; o Steve Wozniak, cofundador de Apple), en la que pedían a las principales empresas desarrolladoras de IA que detuvieran cualquier desarrollo relacionado con los sistemas de IA que fueran superiores, en dimensión, a los existentes. El objetivo principal de esta demanda era proporcionar espacio a los legisladores, a los políticos y a la sociedad en general para integrar estas tecnologías a una velocidad asumible. Hoy en día, la carta, que ya ha recibido más de 27.000 apoyos, no ha trascendido más allá de los medios, y estas empresas no han frenado ninguno de sus proyectos de desarrollo.
Además, las preocupaciones de todo tipo expresadas por creadores —por ejemplo, que la aparición de la IA generativa devaluará su trabajo— han sido perfectamente expuestas por periodistas y autores como Yuval Noah Harari o Dani Di Placido. Esta nueva ola de modelos algorítmicos generativos ha puesto en cuestión espacios y técnicas que, hasta hace poco, pensábamos que eran seguros y muy difíciles de automatizar, tales como la escritura y los lenguajes visuales. Ahora, más que nunca, nos planteamos qué valor tiene lo que hacemos como humanos, qué impacto tiene y en qué se diferencia nuestra inteligencia de la de una máquina.
Recientemente, la Oficina de Derechos de Autor de los Estados Unidos ha dictaminado que las imágenes generadas por IA “no son producto de la autoría humana” y, por tanto, no pueden ser objeto de derechos de autor. Los autores están desarrollando herramientas para proteger su trabajo, pero de ahora en adelante será una nueva lucha constante en el espacio de la creación. Hace poco, la revista de ciencia ficción y fantasía Clarkesworld Magazine tuvo que cerrar temporalmente las inscripciones después de recibir una avalancha de historias escritas con ChatGPT. ¿Cómo sabremos si el 100% de las cosas que leemos y vemos en las redes sociales las ha escrito una persona? De momento, es imposible, porque no tenemos herramientas para averiguarlo, y aquí tenemos un gran peligro y una gran oportunidad.
Hoy, las herramientas políticas y legales que tenemos para la defensa de ciertos colectivos e intereses sociales necesitan caminos más lentos, para que se puedan pensar y legislar de manera justa las capacidades de las empresas que están detrás de estas tecnologías. Este desequilibrio entre la velocidad a la que desarrollamos herramientas de forma privada y las maneras de entender el efecto que tienen sobre nosotros, sobre la sociedad y sobre el planeta es decisivo para averiguar si lo que estamos creando es el monstruo de Mary Shelley o una herramienta llena de potencial.
Bajo la alfombra artificial
Un aspecto de esta tecnología que se debe tener en cuenta es que, como en la mayoría de estos avances, existe cierto nivel de alienación. La IA puede parecer una fuerza etérea, que reside en las nubes, limpia y un punto sobrenatural, pero está formada por cantidades enormes de recursos naturales, combustibles fósiles, trabajo humano e infraestructuras masivas. Herramientas como ChatGPT pueden dar la sensación de ser ligeras y estar desconectadas de cualquier realidad material, pero de hecho requieren cantidades masivas de potencia de cálculo y recursos extractivos para funcionar[1].
La IA puede parecer una fuerza etérea, que reside en las nubes, pero está formada por cantidades enormes de recursos naturales, combustibles fósiles, trabajo humano e infraestructuras masivas.
Algunos personajes públicos, como el Dr. Sean Holden, profesor asociado a la Universidad de Cambridge, o el reconocido lingüista Noam Chomsky[2] explican muy bien los límites de la inteligencia artificial y las razones por las que esta tecnología queda lejos de ser perfecta. Por eso aquí utilizamos el concepto de ignorancia artificial para referirnos a todos estos fenómenos generalmente entendidos como errores o espacios de estupidez que vienen determinados por la tecnología algorítmica. A continuación se presentan dos ejemplos: en octubre de 2021, Imane, una madre migrante marroquí de 44 años, divorciada, era interrogada en Rotterdam mientras se recuperaba de una cirugía abdominal. Las ayudas públicas que le permitían pagar el alquiler y comprar comida para sus tres hijos estaban en peligro, y no solo eso, cabía la posibilidad de que la acusaran de fraude. Tenía que demostrar su inocencia en un proceso burocrático difícil y costoso porque un algoritmo la consideraba “de alto riesgo” para cometer fraude en la obtención de ayudas sociales.
Este no es un caso aislado, sino que forma parte de un patrón global en el que los gobiernos y las empresas utilizan algoritmos para reducir costes y aumentar la eficiencia. Como Imane, en Rotterdam, más de 20.000 familias han sido falsamente acusadas por un algoritmo[3] de recibir ayudas públicas de manera fraudulenta. A menudo estos sistemas no funcionan como se prevé y pueden reproducir sesgos preocupantes, lo que a veces afecta de forma irrecuperable a comunidades que precisamente son las que necesitan más ayudas.
Otro ejemplo más popular es el algoritmo que Amazon utilizaba en 2015 para hacer la selección de personal y realizar recomendaciones de incrementos salariales. El objetivo de este sistema era que, por cada mil currículums introducidos, se indicara a qué cinco se debía contratar o a quién se debía subir el sueldo. El problema es que los datos que se habían utilizado para entrenar al algoritmo provenían de los diez años anteriores en una empresa que ya tenía, de base, un sesgo que daba mucha más preferencia a hombres que a mujeres. En consecuencia, el sistema empezó a descartar y a penalizar todos los currículums de los que se pudiera extraer cualquier inferencia de género femenino, reproduciendo exactamente un modelo injusto que, de no haber sido por el evidente desequilibrio de género, habría pasado absolutamente inadvertido[4].
De nuevo, la raíz del problema de este algoritmo es que basa todas sus respuestas en modelos estadísticos. Estas tecnologías no distinguen entre la verdad y la mentira; únicamente buscan patrones. Los algoritmos predictivos actuales son máquinas increíblemente útiles, pero que pueden generar resultados erróneos profundamente desconectados de la realidad. Una IA tendrá un margen de error mucho más pequeño que una persona experta en meteorología para prever si mañana lloverá, pero nunca entenderá qué significa que llueva, ni por qué llueve, ni lo que ello puede suponer para una cultura o un pueblo. No existe conocimiento del porqué, solo del qué, y este carácter desvinculado y descontextualizado es especialmente peligroso cuando se actúa en espacios sociales en los que los prejuicios suelen perpetuarse, y los individuos y las instituciones pueden justificar ciertos comportamientos con la sencilla respuesta de “el algoritmo lo recomienda”.
Cuando la coral canta, yo bailo
Cuando uno se da cuenta de que la mayoría de los usos actuales de estas tecnologías en la esfera pública están vinculados al control, la optimización y la supervisión de la ciudadanía y los recursos, se pone de manifiesto que existe una profunda falta de imaginación en los espacios de uso de la inteligencia artificial generativa. Si queremos revertirlo, debemos pensar en cómo utilizarla respondiendo a preguntas diferentes.
Uno de los ejercicios que utilizaba a menudo con estudiantes en el aula era el de comprar cuatro periódicos de perspectivas políticas muy diferentes. Con los alumnos encontrábamos la misma noticia y analizábamos cómo la explicaba cada medio. En el reconocimiento de esta pluralidad de versiones siempre emergían debates críticos mucho más fundamentados, y desaparecían las perspectivas únicas y las posiciones enrocadas. Uno de los futuros que vemos en el uso de las IA lo encontramos, precisamente, en su capacidad de ser plurales. Actualmente, uno de los proyectos en desarrollo en el que estamos trabajando es una integración para navegadores que permita ofrecer una versión automatizada de cualquier noticia, en la que se den diversas lecturas críticas alternativas sobre los mismos hechos. Una nueva forma de entender la actualidad a través de muchos otros ojos, todos ellos con su propio sesgo.
Lo contrario de un sesgo no es su eliminación, no es la neutralidad absoluta; es la transparencia, es levantar la alfombra y entender cómo es el sesgo y en qué afecta. Un sesgo puede ser positivo, puede dar una perspectiva concreta sobre una comunidad no representada, ya que la neutralidad nunca existe del todo, siempre hay una mirada, un conocimiento situado[5]. El conflicto aparece cuando se utiliza una herramienta de la que no se es consciente que tiene una mirada predefinida con la que se representan los intereses de unos pocos, que suelen ser poderosos. Si somos capaces de invertir el sesgo y utilizar esta herramienta de forma transparente, esta tecnología nos puede proporcionar un nuevo espacio donde podremos visualizar la tensión entre ideas diferentes y estar más expuestos a perspectivas plurales.
Necesitamos máquinas que nos proporcionen espacio para la reconsideración. Pero es difícil: requiere valentía. Una máquina que nos ayude a negarnos la comodidad de ser siempre la misma persona, la que llegó a una respuesta fija hace tiempo y nunca ha tenido ningún motivo para dudar de ella. Una máquina que, en otras palabras, nos ayude a mantenernos abiertos.
Como dijo F. Scott Fitzgerald, “la prueba de una inteligencia de primera categoría es la capacidad de mantener dos ideas opuestas en mente al mismo tiempo y, aun así, conservar la capacidad de operar el mundo”[6]. La voluntad de cambiar de opinión es un superpoder en la era moderna, y estas tecnologías nos pueden ayudar, en un momento de máxima polarización, a variar el rumbo y estar más abiertos a ideas diferentes.
Las realidades sintéticas
Desde febrero de 2022, en Domestic Data Streamers hemos estado desarrollando un programa de experimentación, formación y debate sobre las posibles aplicaciones de las tecnologías de inteligencia artificial generativa. El proyecto principal en el que hemos trabajado ha sido el desarrollo de herramientas para la recreación de memorias sintéticas a través de la generación de imágenes. La principal diferencia con otros softwares de edición de imágenes es que la IA tiene la capacidad de crear imágenes directamente desde la descripción de una escena, y con cierto entrenamiento se pueden conseguir resultados de mucha calidad a una velocidad de cinco a diez segundos. Esto hace que sea accesible y que podamos iterar rápidamente, condiciones fundamentales para trabajar con un gran número de colectivos e individuos.
Las aplicaciones son muy extensas. Ya estamos actuando con trabajadores sociales, psicólogos y expertos médicos en demencia y psiconeurología para entender el impacto positivo que pueden tener las memorias sintéticas durante el acompañamiento en el progreso de enfermedades degenerativas como el alzhéimer o la demencia senil. Los primeros resultados están siendo especialmente emocionantes y, próximamente, los publicaremos documentados.
Esta tecnología y estos procesos también los estamos llevando a otros espacios, como la reconstrucción de la memoria histórica de comunidades de refugiados en Atenas o de los supervivientes de Hiroshima y Nagasaki, en Japón. Son comunidades que, por diversos motivos, han perdido documentación visual sobre momentos personales, a menudo de un gran interés histórico; memorias borradas del espacio de la cultura visual que ahora tenemos la posibilidad de evocar con una tecnología más asequible, desde las comunidades protagonistas, que generalmente quedan excluidas del acceso a las últimas tecnologías, como son la gente mayor, las personas migrantes o los pacientes de enfermedades mentales. Estas herramientas nos pueden permitir entendernos tanto a nosotros como a las comunidades pertenecientes a otros tiempos y realidades sociales. Debemos ser capaces de acercarnos de forma transparente, responsable y colaborativa a todo el mundo; la realidad sintética puede ser un espacio entre la ficción y la realidad, un espacio intermedio donde podamos encontrarnos.
Reimaginar la ciudad
Esta misma tecnología abre nuevas posibilidades en el proceso de codiseño del espacio público. En los últimos meses, hemos trabajado en diversas sesiones con estudios de arquitectura internacionales para entender cómo se pueden incorporar estas herramientas en los procesos de diseño y qué impacto pueden llegar a tener de cara a integrar a vecinos, comercios y otros agentes en el desarrollo de las propuestas de urbanismo y arquitectura. Con estas tecnologías se facilita el acceso a la visualización de alternativas urbanas de forma muy asequible: se pueden repensar calles, edificios y usos del espacio público en cuestión de segundos. El mayor límite, generalmente, es la imaginación de uno mismo.
Las imágenes, por descontado, tienen un aspecto extraño y poco detallado, no son rivales para el trabajo de un arquitecto experimentado, pero permiten visualizar resultados con suficiente detalle como para hacerse una idea de las posibilidades de la arquitectura alternativa. Es una herramienta más para avanzar muy rápidamente en la visualización del cambio y, por consiguiente, permite a vecinos y habitantes de la ciudad comprender mejor y apoyar las alternativas urbanísticas que más les interesen. El peligro reside en el hecho de que los resultados de estas herramientas, al ser tan visuales, atractivos y asequibles, pueden acabar pasando por encima de otros factores importantes, como pueden ser las observaciones de uso, los datos demográficos o las diversas necesidades sociales de cada espacio. La visualización del cambio es una gran herramienta para las comunidades, pero se debe utilizar de forma responsable e informada.
Los puntos de las preguntas
Cuando observo cómo estas tecnologías se despliegan sobre la sociedad, se hace evidente que aún estamos muy lejos de tener una perspectiva plural y humanista. Parece que las conversaciones en todos los medios están enfocadas en la tecnología en sí misma, en el fenómeno casi mágico que parece contener. Pocas personas describirían el funcionamiento de un coche, un correo electrónico o un audio de WhatsApp como una herramienta mágica, pero la primera vez que estuvimos expuestos a estas tecnologías nos lo parecían. En el caso de la inteligencia artificial generativa también sucede un fenómeno similar. Y este hecho nos distrae de lo que realmente es importante: ¿Qué impacto queremos que tengan estas herramientas en nuestra sociedad? ¿Por qué las estamos desarrollando? ¿Quién tiene acceso a ellas? ¿A quién benefician? ¿A qué intereses responden y cómo lo hacemos para que operen bajo una serie de valores?
Si la inteligencia artificial es la respuesta, ¿cuál es la pregunta?
[1] Katz, Y. “Noam Chomsky on Where Artificial Intelligence Went Wrong”.The Atlantic, 2012. http://ow.ly/58Qv50NW6vi
[2] Burgess, M., Schot, E. y Geiger, G. “This Algorithm Could Ruin Your Life”. Wired. 2023. http://ow.ly/zrkF50NW6Gu
[3] Larson, E. “Amazon is Sued for Alleged Racial and Gender Discrimination”. Bloomberg. 2021. http://ow.ly/mG3950NW6rT
[4] Haraway, D. “Situated Knowledges: The Science Question in Feminism and the Privilege of Partial Perspective”. Feminist Studies, 14(3), 575-599. 1988. https://doi.org/10.2307/3178066
[5] Cita original: “The test of a first-rate intelligence is the ability to hold two opposed ideas in mind at the same time and still retain the ability to function”.
Del número
N127 - Jul 23 Índice
El boletín
Suscríbete a nuestro boletín para estar informado de las novedades de Barcelona Metròpolis