Siglo XXI

«Una democracia tecnológica no es mucho más imperfecta que la actual»

¿QUIERES COLABORAR CON ETHIC?

Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).

COLABORA
15
junio
2022

Apasionado de la tecnología y altamente comprometido en la lucha contra la desigualdad social, Ricardo Baeza-Yates es uno de los científicos más prolíficos que lideran el debate sobre los límites éticos de la tecnología y la ciencia. Doctor en Ciencia de la Computación y director de investigación del Instituto de Inteligencia Artificial Experiencial en Northeastern University, en el campus Silicon Valley –además de catedrático a tiempo parcial en la Universitat Pompeu Fabra–, Baeza-Yates reflexiona sobre el futuro de los derechos humanos en esta nueva realidad digital.


Teniendo en cuenta la desigualdad de acceso a la tecnología según la categoría socioeconómica o las diferencias de alfabetización digital entre jóvenes y personas mayores, así como los retos que afrontan algunos colectivos para fomentar espacios seguros en la red o el aumento de la ciberdelincuencia… ¿Cree que estamos preparados, como sociedad, para un mundo completamente digitalizado?

No, porque esto supondría que todo el mundo pudiera ser digital. A veces digo –con cierta intención de bromear– que el primer derecho es ser digital y el segundo es no serlo. Yo tengo que permitir que haya personas que no quieran ser digitales. Vivir sin internet (o no) no puede ser decisión de un Gobierno, a no ser que planteemos un referéndum para ello. Recuerdo un ejemplo reciente, en el aeropuerto de Barcelona, cuando estaba en la fila para solicitar una tarjeta de embarque y a una señora muy mayor le dijeron que, si no tenía un formulario digital para la covid, no podía viajar. Ella era canadiense y estaba volviendo a su país, pero como no tenía móvil no podía cumplir con el requisito exigido. Al final se lo hice yo, pero me tomó un tiempo y aún tuve dificultades con su hermano, que también tenía el mismo problema. Y claro, cuando llegaron al destino se debieron de encontrar con el mismo problema de nuevo. Si esto le pasa a personas mayores de un país desarrollado, imagina a quienes viven en zonas del mundo con mucho menos recursos.

¿Está aumentando la brecha digital conforme nos vamos digitalizando? 

No está necesariamente aumentando el número de personas afectadas por la brecha, pero sí que creo que cuanto más crece la transformación digital, menos cosas pueden hacer las personas que no están digitalizadas. Es decir, es una brecha menos ancha pero más profunda. El problema de la brecha digital es que no todo el mundo va a tener las mismas oportunidades, y los más avanzados van a tener más oportunidades que los menos avanzados. Esto supone un descenso de la calidad del servicio. Y esto se añade a otras brechas, como la económica, la educativa, la de género, la cognitiva… Hay gente que incluso tiene una brecha de tiempo, porque si tienes tiempo libre te puedes formar más.

«Harari siempre dijo que las personas más manipulables son las que creen que no pueden serlo»

Y en las brechas de información, ¿puede tomarse una decisión libre? ¿Funciona la democracia en un escenario de desinformación digital?

Suponiendo que existe la posibilidad de decidir libremente, creo que hay una brecha educativa de hasta qué punto entendemos lo que estamos decidiendo o no. Una democracia tecnológica no es mucho más imperfecta que una democracia como la que tenemos actualmente, por lo que debemos tener en cuenta retos complicados ya persistentes, como la información falsa. Yuval Noah Harari postula en Veintiuna lecciones para el siglo veintiuno que las personas más fáciles de manipular son las que creen que no pueden ser manipuladas. Puede que la democracia sea perfecta, pero siempre habrá manipulación que puede tener influencia en sus procesos. En la actualidad, hay tanto caos informacional que uno ya no sabe qué creer. Y la realidad siempre es mucho más complicada de lo que te hacen pensar.

¿Cuáles son los peligros más serios de un sistema donde no toda la ciudadanía comprende cómo funciona realmente el mundo?

En estos dos últimos años hemos aprendido mucho para poder responder a esta pregunta. Creo que todas las decisiones humanas deben estar pensadas con base en la ciencia, pero hay cosas que no sabemos todavía y de las que no tenemos certeza que la ciencia comparta. Por ejemplo, muchas de las preguntas que se formula la religión. Y las religiones existen: dan respuestas a preguntas en las que cuesta aceptar que, tal vez, no vamos a poder responder nunca por vía científica (o, al menos, no durante nuestra vida). Esto influye mucho porque la gente tiende a ser arrogante, pero debemos seguir cuestionando lo que ya sabemos y no dar nada por sentado. Aunque, por otro lado, no podemos tomar posiciones claramente radicales como creer que la Tierra es plana o que las vacunas no sirven para nada.

Precisamente desde el inicio de la pandemia se ha detectado una mayor población enfrentada a la comunidad científica. ¿Cuáles son las causas de esta desafección social? ¿Qué problemas puede traer esta desconexión entre ciudadanos y ciencia?

No tengo claro si es algo nuevo o no. Creo que siempre ha existido, pero con la pandemia se dio un motivo para que aflorara y, en las redes sociales, estos colectivos vieron las herramientas para tener voz con la percepción equivocada de que son más personas de lo que son. Es una amplificación de un sesgo. Y muchos científicos, de hecho, alimentaron esta tendencia. No obstante, hay algo que hay que tener en cuenta: la pandemia también nos mostró que la resiliencia es más importante que la eficiencia. Los tecnólogos nos hemos preocupado demasiado por ser eficientes y no hemos reforzado nuestra capacidad de adaptación como especie animal a cambios ambientales de todo tipo.

Como científico, siempre se ha mostrado proclive a la divulgación y a la participación en espacios de reflexión sobre el rol que la tecnología tiene o debería tener en la sociedad, ¿Por qué es importante esta comunicación entre tecnología y ciudadanos? ¿La ciencia o la academia se encuentran distantes de la opinión pública?

Están un poco distantes. Pero no solo porque no se hace la divulgación necesaria, sino también porque estamos en un periodo de mayor ignorancia, ya que en muchos países –empezando por Estados Unidos– la educación ha decaído, principalmente por motivos políticos y económicos. Es bien sabido que es más fácil manipular cuando abunda la ignorancia. A esto hay que agregarle el efecto amplificador antes mencionado y su uso electoral en casi todo el mundo. Por eso, la ciencia debería estar presente en los mecanismos de decisión de cada país y los políticos deben de tener un conocimiento mínimo de ella. Y uso el género masculino intencionalmente: no es casualidad que los líderes de Brasil, Estados Unidos o el Reino Unido contrajeran el virus dudando de su existencia.

«A veces no tenemos a las personas correctas en la mesa para poder llegar a las decisiones más justas»

Con esto quiero decir que necesitamos una toma de decisiones políticas más multidisciplinaria, considerar todas las voces y escuchar a un consejo de sabios como lo hacen algunas culturas milenarias, que cuente con personas que están ahí por la experiencia que aportan, incluso sin derecho a voto –pero con derecho a palabra– para dar a conocer puntos de vista que quizás nadie se ha planteado antes. Esto sería altamente gratificante no solamente por los procesos de decisión, si no también por su carácter inclusivo. A veces no tenemos a las personas correctas en la mesa para llegar a decisiones más justas, que respeten la autonomía de las personas y a la vez contribuyan a la búsqueda del bienestar global. Hacerlo generaría una meritocracia distinta que nos permitiría involucrar conocimiento y toma de decisiones con bases sólidas. Nos podemos equivocar en este proceso, por supuesto, pero equivocarse con todo es difícil. Lo positivo es que estos procesos serían públicos. Por ejemplo, en Google armaron un consejo de ética que a la semana tuvo que disolverse por la crítica pública de haber escogido miembros poco éticos. Por todo lo anterior, debería haber más diálogo, más divulgación, aunque lamentablemente divulgar no cuenta mucho cuando llega el momento de una evaluación de resultados en la academia. Es decir, también tenemos que valorar la divulgación como una actividad tan importante como publicar un artículo de investigación o la enseñanza de nuevos profesionales.

La nueva Artificial Intelligence Act de la Comisión Europea representa un esfuerzo regulatorio sin precedentes en el mundo. Buscar una forma de ordenar la transición digital es imprescindible, pero las críticas también han apuntado algunos fallos a nivel de garantía de derechos básicos de la ciudadanía. ¿Cómo deberíamos delimitar las normas de juego de la inteligencia artificial en su uso en sociedad?

El modelo propuesto me supone un problema en su enfoque, aunque es un precedente muy importante para todo el mundo. Creo que la regulación correcta sería regular un sector en particular, como alimentación o salud, independientemente de la tecnología que se use. Porque regular el uso de la tecnología es como regular los usos de un martillo: lo puedo usar para matar a una persona o para clavar un clavo, pero no debería optar por matar a una persona porque existen los derechos humanos. Un buen ejemplo de lo que digo es la directiva europea de protección de datos (GDPR) que regula un problema, pero también te dice lo que puedes hacer y no lo que no puedes hacer, y siempre es más fácil tener libertad de hacer.

«La pandemia también nos ha demostrado que la resiliencia es más importante que la eficiencia»

El segundo problema de la propuesta es que utiliza el riesgo como unidad de medida y divide el mundo en cuatro categorías cuando el riesgo es una variable continua: no existen estas categorías en la realidad, y por esto medir el riesgo es una cuestión complicada, si no imposible. El tercer problema es la viabilidad de hacer cumplir estas normas. Por ejemplo, si tomamos el artículo 5, que dice que está prohibido el daño psicológico o físico de las personas con publicidad, ¿cómo evitamos que no se muestre una publicidad dañina a una persona con obesidad mórbida o diabética? Es muy difícil de cumplir. Pasa igual con la ley del derecho al olvido. El último problema es que estamos utilizando el mismo molde para todo el mundo. La ley de protección de datos, por ejemplo, se aplica igual a una multinacional que a una pyme, pero sus efectos no son los mismos. Lo mismo pasa con la inteligencia artificial, cuando solo las multinacionales pueden tener datos masivos. Espero que se revise un poco más y se valore la regulación, porque a día de hoy creo que va a generar más problemas que beneficios.

La regulación global de tecnologías como la inteligencia artificial no es uniforme. Se han distinguido dos grandes modelos, el americano y el chino, y se entiende el europeo como un fronterizo que busca una unión entre la libertad de mercado y el control del estado. ¿Está Europa preparada para liderar este nuevo paradigma?

Más que en medio, pondría el ejemplo europeo por encima del chino y del americano, porque los copia en algunas cosas y en otras los mezcla. Sería como un triángulo. Europa está a la cabeza, pero con los dos otros por detrás. Si uno tiene en cuenta todas las posibilidades, yo diría que no debería liderar este nuevo paradigma porque el modelo europeo tiene muchos sesgos no resueltos. Es un modelo un poco más heterogéneo, pero como los otros dos modelos son más homogéneos, en cierto sentido son más simples. Esto le impide pensar en una forma más amplia a Europa, porque está condicionada por cargas individualistas o de rastros del colonialismo y sexismo que le encierra en la concepción occidental del mundo y no le permite pensar en términos de toda la humanidad. Además, las diferencias de poder e ideas entre países también dificultan este avance. Necesitamos más Ubuntu y menos kantismo.

Si pudiera resolver una gran crisis de la humanidad, ¿cuál sería?

Lo más urgente es acabar con la desigualdad. Hoy el 1% más rico tiene casi la mitad de la riqueza del planeta mientras que el 55% más pobre tiene poco más del 1% de la riqueza. ¿Cómo cambiaría el mundo si las grandes fortunas invirtieran el dinero que no necesitan en acabar con conflictos o retos globales? Un gesto tan simple como mejorar la infraestructura de servicios básicos podría mejorar mucho la vida de las personas en muchos países. Pero también necesitamos una mejor gestión de la política, ya que la pobreza induce a la corrupción. Y también, que haya gente con muchas capacidades que no puede acceder a una mejor educación, es algo que también debe cambiar. Hay demasiados problemas, vivimos en una desigualdad social brutal.

ARTÍCULOS RELACIONADOS

El amor en tiempos de Instagram

Guadalupe Bécares

Los psicólogos advierten: la sobreexposición en redes tiene consecuencias -y riesgos- para las relaciones de pareja.

COMENTARIOS

SUSCRÍBETE A NUESTRA NEWSLETTER

Suscríbete a nuestro boletín semanal y recibe en tu email nuestras novedades, noticias y entrevistas

SUSCRIBIRME