Si discrimina, esta no es mi IA – III Jornadas sobre Pensar la Justicia Digital Global
Todo el proceso de diseño, desarrollo e implementación de la IA aparece marcado por dinámicas profundamente discriminatorias. La transversalidad de los ámbitos de aplicación de estas tecnologías obliga a abordar la complejidad del fenómeno. Por este motivo, esta jornada está formada por dos piezas, una con formato de diálogo y otra con formato de mesa redonda con dos enfoques diferentes.
La primera parte es un diálogo entre expertas que adoptará una aproximación global y discutirá sobre la influencia de los desequilibrios entre el norte y el sur globales en la consolidación de un modelo de desarrollo de la IA, que lleva implícita la discriminación desde su concepción. El modelo económico hegemónico, el papel de las grandes empresas del sector, los desequilibrios en las condiciones técnicas entre las geografías e incluso los marcos construidos por las regulaciones imprimen en los desarrollos de los sistemas de IA un carácter discriminatorio de origen.
Por otro lado, en la segunda parte, planteada como una mesa redonda entre expertas, se reflexionará sobre los vectores de discriminación articulados por los usos concretos de la IA, desde los recursos y los conjuntos de datos de entrenamiento, hasta los ámbitos de implantación de sistemas basados en IA, pasando por el propio diseño de los algoritmos. Las expertas expondrán cómo los artefactos tecnosociales que son las herramientas basadas en IA agravan el racismo institucional y la discriminación basada en el género, en el acceso a los servicios públicos, en la gestión del espacio público o en los mecanismos de control de la movilidad humana, por ejemplo.
Ambos espacios pretenden incluir también un carácter propositivo que muestre que el actual modelo hegemónico no es el único posible y cómo debería ser una IA que no nutra el racismo y el resto de formas de discriminación.
- Idiomas
- Inglés
- Castellano
- Organiza
- Coste
Gratis