Siglo XXI

«Estamos empezando una relación estable con la tecnología»

¿QUIERES COLABORAR CON ETHIC?

Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).

COLABORA
23
diciembre
2022

Para Gemma Galdon Clavell (Mataró, 1976) la tecnología puede ser una gran aliada o la peor de nuestras pesadillas. La analista de políticas públicas es una reconocida experta en ética tecnológica y responsabilidad algorítmica. Fundadora y directora ejecutiva de Eticas, su experiencia multidisciplinar en el impacto social, ético y legal de la tecnología intensiva de datos le permite diseñar e implementar soluciones prácticas para los desafíos de protección de datos, ética, explicabilidad y sesgo en IA.


Recientemente participó en la Green Digital Conference, donde se abordó el impacto de la tecnología en el consumo de recursos y energía. Es importante destacar que el 5% de las emisiones de CO2 a nivel global proviene de la tecnología digital. ¿Se presta la suficiente atención al impacto ambiental de la digitalización?

Para nada. Todos los discursos son celebratorios en cuanto a las posibilidades de la tecnología para reducir impacto ambiental. Se transmite que todos los procesos de datos pueden mejorarlo y estamos viendo que realmente es al revés: cuanto más invertimos en digitalización más centros de datos se crean, y se produce un mayor uso de electricidad, más consumo de agua…

¿Qué deberíamos hacer para continuar con la digitalización y, a la vez, cuidar el medio ambiente?

Lo primero de todo es calcular cuál es el impacto de la digitalización. El problema es que nadie se ha puesto a ello. Además, los cálculos existen pero divergen de metodologías, con lo cual, no sabemos cómo hacerlo. Por ello, hay que empezar a abordar estos retos técnicos y después invertir en métodos de mitigación; en otras palabras, cómo hacer que esos procesos de datos consuman menos y provoquen un impacto menor. Y, en tercer lugar, plantear que, en algunos casos, ciertos aspectos de la digitalización no son sostenibles. De la misma forma que retiramos coches de las calles porque su impacto ambiental es superior al impacto social positivo que dan, seguramente haya procesos de datos –por ejemplo, las criptomonedas– que cabe plantear si compensan el impacto ambiental con lo que aportan.

«Con la tecnología siempre seguimos el mismo ciclo: hay en una etapa de euforia en la que todo resulta innovador pero, cuando vemos los primeros errores, empezamos a valorar si es verdaderamente positiva»

Su trabajo, precisamente, quiere desmantelar las creencias populares en torno a la tecnología. ¿Estamos demasiado enamorados de de ella como para ver sus defectos?

Si y no. Aunque no estamos desenamorándonos, sí que estamos empezando una relación estable con la tecnología. Venimos de unos años de mucho enamoramiento, uno de esos que ciega, donde hemos sido muy acríticos. Ahora esto empieza a cambiar. Lo que pasa es que tendemos a desmitificar ciertos aspectos, pero cada vez nos reseducen con cosas nuevas, con lo cual el enamoramiento se va reproduciendo con diferentes aplicaciones de la inteligencia artificial. Al final el ciclo siempre es el mismo: hay en una etapa de euforia en la que todo lo que es innovador y disruptivo nos encanta, reduciendo la capacidad crítica. Cuando lo experimentamos y vemos que comete errores, que produce daños individuales o sociales, entramos en esa fase de relación estable de «me aportas muchas cosas, pero también me quitas; vamos a ver cómo lo negociamos».

¿En qué consiste la auditoría algorítmica en la que está trabajando y por qué es importante?

Es la última milla del cumplimiento legal de cualquier sistema de inteligencia artificial. En los últimos años hemos tenido una explosión de aplicaciones de inteligencia artificial vinculadas con internet que utilizan datos personales y que han entrado en el mercado sin ningún tipo de control. Es como si inmunizamos a la gente con vacunas que no pasan un ensayo clínico. Así, la auditoría nos permite entrar en esos sistemas y ver cómo funcionan para que el político o la sociedad decidan si esa tecnología está lista para utilizarse. Esto nos permite ver si hay casos de sesgos e ineficiencias, si se han utilizado datos de entrenamiento que no son los que se tenían que utilizar, si en la interacción humano-máquina estamos tomando decisiones desiguales… No es más que un proceso de inspección de todo el ciclo de vida de cada algoritmo.

¿Ha llegado el momento de regular los algoritmos?

Totalmente. En realidad ya lo están, lo que pasa es que la regulación no se implementa. El Reglamento Europeo de Protección de Datos fue ya muy innovador en 2016 hablando de las decisiones automatizadas y en plantear el principio de explicabilidad, pero no se ha cumplido nada, seguramente porque es una industria muy centrada en Estados Unidos, donde no existe esta regulación. Por ello se ha creado un espacio de impunidad, que en realidad es un espacio de ilegalidad, porque no se está cumpliendo la misma ley.

«Para bien o para mal, las máquinas son muy constantes en sus aciertos y en sus errores»

En España, por ejemplo, el régimen jurídico de la función pública establece que cualquier sistema de decisión automatizada como parte de instituciones públicas tendrá que ser auditado. Es una norma española de 2015, pero ninguna institución ha auditado sus algoritmos. Uno de los retos principales que tiene el regulador son las siete leyes que se están aprobando ahora mismo a nivel europeo para abordar temas digitales. El desafío principal es cómo asegurar que no se quede en papel mojado y que realmente se conviertan en mecanismos eficientes de implementación. Y ahí la auditoría juega un papel fundamental. Permite ver cuáles son las dinámicas de ese algoritmo.

Existe la idea de que una máquina siempre va a ser más objetiva que una persona. ¿Hasta qué punto pueden los algoritmos ser parciales?

Lo son tanto como las personas que los diseñan los entrenan. Es decir, la neutralidad no existe. Algo que sí tienen los algoritmos es que son auditables, mientras que la mente humana no lo es. Con lo cual, cuando el algoritmo toma decisiones sesgadas podemos saber que lo hace, mientras que es mucho más difícil entender las dinámicas de un humano. Para bien o para mal, las máquinas son muy constantes en sus aciertos y en sus errores. Yo tengo mucha fe en los algoritmos porque creo que abren una era de una gran transparencia en la que cualquier proceso en el que intervengan será de por sí auditable. Con eso creo que ganamos todos.

En el caso de Cambridge Analytica vimos cómo los algoritmos nos pueden manipular. ¿La tecnología está afectando a la calidad democrática?

Muchísimo, pero no tanto por la tecnología, sino quienes se han colocado detrás de ella y el poder que les hemos dejado acumular. Ahora mismo las infraestructuras tecnológicas del mundo son de empresas privadas y los sistemas que utilizamos para comunicarnos y guardar nuestra historia son repositorios privados. La erosión de la democracia está, precisamente, en dejar que algunas empresas acumulen un nivel brutal de control sobre los datos personales de la gente que permite hacer cosas como Cambridge Analytica.

«El mercado se puede permitir el lujo de ignorar la regulación porque es tan poderoso que le sale más a cuenta pagar multas»

En este sentido, no es tanto que la tecnología de por sí impacte o erosione la democracia, sino que los monopolios tecnológicos son lo que están erosionando nuestra capacidad de tomar decisiones porque, básicamente, los Estados deciden regular, pero el mercado se puede permitir el lujo de ignorarlos porque es tan grande y poderoso que ni siquiera los mecanismos tradicionales del Estado sirven para sancionar y desincentivar malas prácticas. Les sale más a cuenta pagar multas que cambiar prácticas.

En plena pandemia, de hecho, hubo polémica en cuanto a la privacidad por la aplicación Radar COVID, aunque realmente damos acceso a datos personales a muchas otras apps. ¿Pecamos de exceso de confianza en algunos aspectos tecnológicos o somos desconfiados selectivamente?

Somos hiperconfiados por ese proceso del que hablamos de enamoramiento que he mencionado antes. Nos encanta todo lo nuevo. Tenemos una tendencia natural a dejarnos seducir por estos sistemas, y eso nos lleva a una relajación de nuestro espíritu crítico y a una cierta incapacidad de hacer las preguntas relevantes cuando aún estamos a tiempo. Nos despertamos muy tarde y, cuando estos sistemas ya están tan incorporados en nuestra cotidianidad, es muy difícil cambiar esa realidad.

¿La privacidad y la desconexión van a ser un lujo para algunos e imposible para otros?

Ya lo son. No obstante, eso no quiere decir que sea así para siempre. Podría haber algún tipo de shock que nos hiciera cambiar, como un robo masivo de datos a nivel mundial por parte de actores con muy malas intenciones. Igual que la pandemia nos ha hecho cambiar nuestros hábitos de higiene o cómo nos comportamos en público, podría ocurrir que la gente se despertara y de repente tuviera mucho más cuidado. Hay sucesos traumáticos a nivel social que pueden llevar a cambiar actitudes. Esperemos que no tengamos que llegar a ese punto, pero es verdad que no es descartable teniendo en cuenta que, ahora mismo, nuestros datos se encuentran en estos sistemas tan privados y frágiles. Insisto, la tecnología nos aporta cosas muy buenas. Si no tenemos los mecanismos para discernir entre la buena tecnología y la mala tecnología al final estaremos rodeados de la mala, y llevamos muchos años con mala tecnología a nuestro alrededor.

ARTÍCULOS RELACIONADOS

COMENTARIOS

SUSCRÍBETE A NUESTRA NEWSLETTER

Suscríbete a nuestro boletín semanal y recibe en tu email nuestras novedades, noticias y entrevistas

SUSCRIBIRME