El tango entre la inteligencia artificial y las humanidades
El Foro de Humanismo Tecnológico de Esade analiza las proyecciones futuras de la inteligencia artificial y el papel de la cultura para reducir sus desigualdades automatizadas.
Artículo
Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).
COLABORA2020
Artículo
El artista estadounidense Trevor Paglen se propuso colgar un espejo en el espacio y en el verano de 2019 consiguió cumplir con su proyecto más ambicioso: el lanzamiento al espacio del Orbital Reflector, una obra de mylar con forma de diamante, visible desde la Tierra, enviada para reflejar y delatar a todos y cada uno de los satélites que nos ven desde el cielo. La obra de arte, que llegó a costar un millón y medio de dólares, se acabó perdiendo en el Universo pero abrió en nuestro planeta un importante debate sobre los límites de la inteligencia artificial y la tecnología: ¿cuántos satélites orbitan sobre nosotros cada día y qué tipo de información pueden llegar a recoger? Paglen –quien asegura que Facebook «es más peligroso que la NSA» y vive en el antiguo piso de Laura Poitras, una de las primeras personas que ayudó a Snowden a difundir el material clasificado–, ha sido parte del hilo conductor de las conversaciones organizadas por el Foro de Humanismo Tecnológico de Esade sobre Proyecciones futuras de la inteligencia artificial, una mesa redonda para intentar responder a la eterna pregunta sobre los peligros de la inteligencia artificial y encontrar la receta para que «en lugar de ser una losa sobre nosotros se convierta en una oportunidad de abordar los problemas actuales de desigualdad», en palabras de José María Lasalle, director del Foro de Humanismo Tecnológico y moderador del encuentro online que contó con la presencia de media docena de expertos, desde la catedrática emérita Victoria Camps hasta la directora de artes del CERN, Mónica Bello, o el director de Humanidades de la Universidad Católica de Uruguay Facundo Ponce de León.
«¿Hasta qué punto la inteligencia artificial es una dominación arbitraria?», plantea Victoria Camps mientras hace referencia a la corriente del concepto liberal de la libertad y su limitación a la autodeterminación del individuo. «Las plataformas digitales son minas de datos y, cuantos más datos tienen, más crecen sus beneficios. Pero el mercado utiliza estos datos para su propio interés, aunque responda como servicio al resto de usuarios», sostiene la filósofa. Esta adaptación del medio digital es para Camps una cierta limitación de la libertad puesto que tanto plataformas digitales como redes sociales nos están diciendo, en mayor o menor medida, cómo debemos actuar.
Lo cierto es que toda red social tiene una arquitectura específica dirige nuestra comunicación de una forma u otra. Instagram a través de imágenes perfectas. TikTok a través de vídeos musicales de 60 segundos. Facebook con posts extensos y reacciones con emojis. Toda plataforma tiene su forma de comunicación, y no es arbitraria. «Un buen ejemplo ejemplo es Twitter, que pone un límite de caracteres con el que no se puede entrar a reflexionar ni profundizar en los debates. Twitter está hecho para otro tipo de comunicación, más instantánea, que tiene múltiples efectos en muchos campos», añade la catedrática. «La polarización política que se está produciendo hoy en día ha sido muy facilitada por plataformas como esta, que obligan al mensaje rápido, más extremista y morboso y, a su vez, más viral».
Victoria Camps: «¿Hasta qué punto la inteligencia artificial es una dominación arbitraria?»
«La inteligencia artificial ha penetrado en la totalidad de las esferas humanas, desde la sanidad hasta la seguridad, pero en el contexto en el que se encuentra ahora mismo no hace más que extremar las desigualdades», añade en este encuentro José Ramón López, diplomático y funcionario público mexicano. El algoritmo, sin humanismo, no puede funcionar. Por eso, concuerdan todos los expertos, la cultura y las humanidades tienen, si no la responsabilidad, la capacidad suficiente para humanizar la inteligencia digital a través de la crítica constructiva y hacer que esta responda a las necesidades sociales. Algo como lo que lleva a cabo Paglen con su arte, igual que tantos otros de su profesión. La cuestión está en cómo hacerlo.
Las educación en el centro de la conversación
La ciencia, la tecnología y el arte se cimientan sobre lo mismo: la naturaleza. Y, precisamente por eso, las tres pueden aprender de ellas. Esa es la idea que lanza Mónica Bello, quien dirige Arts at CERN y se ocupa de organizar residencias artísticas orientadas a la investigación para reflexionar sobre las conversaciones entre artistas y físicos de partículas. «La ciencia del CERN es muy próxima a la creatividad artística. Unir la ciencia y el arte es importantísimo. Marshall McLuhan afirmó que el artista siempre es el primero que percibe los cambios de la estructura humana y esto enlaza muy bien con la responsabilidad que tenemos, como usuarios, de autoregularnos en la cantidad de datos que le damos al algoritmo y el uso que hacemos de la inteligencia artificial», explica Bello.
El pasado 20 de octubre el Parlamento Europeo aprobó las primeras recomendaciones sobre las normas que orientarán a la inteligencia artificial respondiendo a cuestiones éticas, de responsabilidad civil y de derechos de propiedad intelectual. Con esta resolución se pavimenta el camino hacia la elaboración de un marco ético para la implantación de la inteligencia artificial, la robótica y otras tecnologías del campo. «El momento tecnológico se da en una cultura de hipercomunicación donde el contraste de pareceres existe y, sin embargo, no se está hablando lo suficiente de la diversidad en la discusión sobre inteligencia artificial y su desarrollo con relación al beneficio general», apunta el director del centro de Estudios Mexicanos de la Universidad Autónoma de México en España, Andrés Ordóñez.
Juan Verde: «Tenemos que asegurarnos de que esa revolución digital logre crear más ganadores que perdedores»
En Estados Unidos, cuna de la inteligencia artificial, la preocupación también es creciente. Tal y como indica Juan Verde, consultor y asesor de la campaña electoral de Joe Biden, una de las grandes preocupaciones del presidente electo es el reto de la digitalización de la sociedad y, particularmente, de la economía: «Biden ha asegurado en numerosas ocasiones que, a medida que las nuevas tecnologías rediseñan nuestra economía y sociedad, debemos asegurarnos que esos motores estén sujetos a un marco legal más fuerte que nos proteja a todos. Tenemos que asegurarnos de que esa revolución digital logre crear más ganadores que perdedores a través de una tecnología más inclusiva».
La lucha contra las fake news, el control a los gigantes tecnológicos en materia de privacidad y la minimización de la brecha digital son el denominador común que compartimos todos los países. En una realidad donde la tecnología es el eje conductor, es necesaria una educación digital que fortalezca la convivencia comunitaria y convierta al algoritmo en la herramienta definitiva para luchar contra la desigualdad. En este sentido, las humanidades son el vector educativo básico ya que, en palabras de Judit Carrera, directora del Centro de Cultura Contemporánea de Barcelona: «Cuanto más fuerte sea la educación mejor gestionaremos los miedos que surgen a partir de estas transformaciones. El rol de las humanidades no es solo criticar a la inteligencia artificial, sino encontrar la esperanza en un mundo que se oscurece».
Para que el sentido de la inteligencia artificial sea humano, necesitamos que conviva con la dimensión de lo público en lugar de centrarse únicamente en los intereses privados. Para ello es clave abrir la conversación a toda la sociedad, haciendo la teoría de este tipo de tecnología completamente inclusiva. Las instituciones públicas, como parte responsable, tienen el deber de escuchar lo que la cultura tiene que contar, interiorizando la inteligencia artificial como una experiencia humana hasta que identificemos los parámetros morales que, como indica Trinidad Zaldívar de la División de Asuntos Culturales del BID, «nos hagan abrazarla, entenderla y bailar con ella».
COMENTARIOS