ENTREVISTAS

«Debemos defender nuestra privacidad para proteger la democracia»

Fotografía

Fran Monks
¿QUIERES COLABORAR CON ETHIC?

Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 5 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).

COLABORA
30
Dic
2021
privacidad

Fotografía

Fran Monks

Cada vez que enviamos un ‘e-mail’, hacemos una videollamada o publicamos una fotografía en Instagram, nuestros datos personales se desvanecen en el mundo ‘online’. Olvidamos haberlos facilitado, pero existe toda una industria encargada de recopilarlos y venderlos al mejor postor. Es lo que la filósofa hispanomexicana Carissa Véliz llama «la economía de datos», un sistema que ha acabado con nuestra privacidad. Recuperarla es, para esta profesora en la Facultad de Filosofía y el Instituto para la Ética en Inteligencia Artificial de la Universidad de Oxford, la única manera de garantizar la supervivencia de los sistemas democráticos. Hablamos con ella a través de Zoom en una conversación que, nos pide, no quede grabada en la plataforma.


«Nos vigilan. Saben que estoy escribiendo estas palabras. Saben que las estás leyendo. Gobiernos y empresas nos espían: a ti, a mí y a todos nuestros conocidos». Con esta advertencia das comienzo a tu libro Privacidad es poder. ¿Qué interés pueden tener en escuchar una conversación como la que estamos teniendo en este momento?

Todas nuestras conversaciones incluyen información sensible. Solemos hablar de todos los aspectos de nuestra vida –desde enfermedades hasta posiciones políticas–, y esa información, fuera de la esfera privada, nos hace vulnerables. Eso no quiere decir que empresas como Facebook escuchen directamente lo que decimos a través del micrófono del ordenador. Al menos no existen evidencias de ello. Lo que sí se ha demostrado es que, por ejemplo, algunos televisores inteligentes captan palabras para hacernos sugerencias. Incluso hay compañías que analizan los e-mails de los empleados para identificar a aquellos que no están contentos.

¿Para qué se utiliza esa información?

Depende de quién la utilice. Existen brókeres de datos que poseen archivos sobre todos los usuarios de internet, en los que puedes encontrar lo que buscas online, lo que publicas en Twitter, tus préstamos o tu historial de salud. Estos datos se venden a aseguradoras, bancos, gobiernos o, simplemente, a quien quiera comprarlos. Algunos se utilizarán de manera legítima y otros no, aunque tú no te enterarás nunca, claro. Hay empresas que, por ejemplo, deciden las contrataciones de sus empleados en función de los datos: si se enteran de que estás intentando tener un hijo o de que padeces alguna enfermedad, elegirán a otro candidato y tú jamás sabrás cuál ha sido el criterio utilizado para tomar la decisión. Mientras las empresas tengan acceso a los datos, nunca estaremos al 100% seguros de que no los van a utilizar para mal, porque no existe una policía de datos que vigile. La información sensible crea vulnerabilidad en el sujeto de los datos, pero también en toda la sociedad. La privacidad no es solo una cuestión individual, sino colectiva. El caso más claro es el de Cambridge Analytica, en el que 270.000 personas compartieron sus datos y estos acabaron utilizándose para manipular la democracia.

«Existen brókeres de datos que poseen archivos sobre todos los usuarios de internet»

Dices que vivimos en el capitalismo de la vigilancia. ¿Cómo hemos llegado a vivir en una sociedad en la que los datos personales son una moneda de cambio?

Creo que podríamos fijar el inicio en el año 2001, cuando la Federal Trade Commission de Estados Unidos recomendó al Congreso regular la economía de datos por miedo a que se descontrolara. Muchas de aquellas recomendaciones se parecían a lo que luego ha quedado regulado en el Reglamento General de Protección de Datos europeo: que la gente debería tener derecho a la protección de sus datos, a pedir que sean borrados, a que se corrijan si hay algún error, etc. El problema es que, después de esa petición, llegó el 11-S y lo cambió todo. El Gobierno estadounidense se sintió culpable de no haber prevenido los ataques y decidió hacer lo que fuese necesario con tal de evitar otro atentado. Una de las medidas que se tomaron en nombre de la seguridad nacional fue la de hacer una copia de todos los datos recopilados por las empresas. Desafortunadamente, el big data ha demostrado no ser un método adecuado para prevenir el terrorismo: este es muy bueno cuando tenemos muchísimos datos sobre algo concreto, como los productos que la gente compra por internet, pero no para cuestiones generales. El problema fue que se permitió que las empresas recolectasen la mayor cantidad de datos posibles a cambio de algo que en realidad no funcionó. Además, nunca se les preguntó a los ciudadanos ni se sometió esa decisión a un escrutinio público. Al final, acabamos enterándonos de cómo funcionaba el mundo una década más tarde. Son situaciones como esa las que nos hacen pensar que vivimos en una sociedad que se rige bajo unas reglas que desconocemos por completo.

Sostienes que el big data no ayudó a prevenir los ataques terroristas del 11-S. Sin embargo, sí ha demostrado ser útil para, por ejemplo, la detección precoz de los contagios durante la pandemia del coronavirus o la monitorización de ciclones en algunos países. ¿No crees que puede ayudar a resolver ciertos problemas?

Claro que puede ayudar, pero no debemos ser tan complacientes al respecto. No porque pueda ser útil tenemos que otorgar a cambio algo que es muy valioso. En el caso del coronavirus, la evidencia sugiere que las apps (que tuvieron muchos problemas desde el principio) no fueron fundamentales para frenar la pandemia. De hecho, recientemente, en el MIT Technology Review se publicó un artículo muy interesante sobre dos análisis en los que se estudiaron cientos de herramientas de inteligencia artificial utilizadas para diagnosticar y prevenir los contagios. La conclusión fue que, de todas ellas, ninguna había funcionado. Algunas incluso habían agravado la situación porque se cometieron errores garrafales con los algoritmos. Entonces, ¿la inteligencia artificial puede ayudar? En algunos casos, sí. Pero no podemos ser tan inocentes y creer que es una varita mágica que va a solucionar todos nuestros problemas; mucho menos, creer que podemos dar cualquier cosa a cambio.

Cuando pedimos que nos envíen algo por Amazon a casa, o cuando abrimos un perfil en Instagram, somos nosotros los que libremente ofrecemos esos datos; entre otros, nuestra dirección, correo y teléfono móvil. ¿Hasta qué punto hemos renunciado deliberadamente a nuestra privacidad?

Libremente es mucho decir, porque existe una gran presión social para estar en las redes sociales. Por otro lado, mucha gente se siente impotente al respecto y piensa: «Si mis datos ya están allí, si ya me he enterado tarde de cómo funciona, ¿por qué me voy a privar de un privilegio?». Luego, también hay mucha ignorancia; como los datos son muy abstractos, es difícil entender cómo funcionan y cómo se pueden usar en nuestra contra. Las empresas se aprovechan de eso, y mucho de ese desconocimiento se da porque les interesa que no nos enteremos de cómo funcionan los datos exactamente. Un ejemplo: los mensajes en Facebook parecen privados, pero no lo son tanto. La plataforma hace que parezcan como algo más íntimo de lo que en realidad son.

«Como los datos son muy abstractos, es difícil entender cómo funcionan y cómo se pueden usar en nuestra contra»

Cuando coleccionan (o roban) nuestros datos, no nos afecta negativamente de manera directa. No sufrimos ni nos duele. Al revés: internet se nos ha planteado siempre como una suerte de espacio de libertad. ¿Cómo nos afecta realmente como individuos la pérdida de privacidad?

Depende de quién seas y de dónde vivas. Pero, en general, existe un gran peligro: hoy das tus datos y mañana –o en seis meses– no consigues un trabajo, no te otorgan un préstamo o un alquiler, o un criminal te roba todo el dinero de tu cuenta. Nunca podrás hacer la conexión entre el momento en el que das los datos y lo que te sucede. Es difícil saber cómo repercute exactamente porque no existe un feedback instantáneo. Hay casos muy graves e ilustrativos, como el de una clínica de Estonia a la que robaron información de los pacientes –incluidos desnudos y pasaportes– que luego utilizaron para extorsionar a la gente. También está el caso de Ashley Madison (un portal web de citas online para personas casadas en busca de una aventura pasajera), al que hackearon para, posteriormente, publicar los datos de más de 30 millones de personas con el mensaje de que se lo merecían porque eran infieles a sus parejas. Hubo, además, un caso muy interesante en España: el de una mujer a la que robaron la identidad y fue acusada por varios bancos de fraude. Estos son solo algunos ejemplos de lo vulnerables que somos como individuos.

¿Y como sociedad?

La pérdida de privacidad está erosionando la igualdad. Nos tratan con base en nuestros datos; según lo que compramos, nuestro género o la marca del ordenador que utilizamos. Eso está polarizando a la sociedad, porque nos está encerrando en guetos informáticos. Hubo un grupo de troles rusos que difundieron vídeos de personas burlándose de gente con la que la población pudiese sentirse identificada con el único objetivo de esparcir el rencor, el enojo y el malestar social y demostrar así que la democracia funciona peor. El caso de Cambridge Analytica muestra cómo se pueden manipular unas elecciones y cómo ofrecer información privada puede convertirse en una gran amenaza para la seguridad nacional.

«Si hemos sido capaces de salvar la capa de ozono, también somos capaces de salvar nuestra privacidad», dices en el libro. ¿En manos de quién está desenchufar este sistema de control de datos?

Lo que necesitamos es una regulación. Y para que funcione hacen falta cambios culturales, que la gente sea consciente de la importancia que tiene la privacidad y que esté dispuesta a defenderla. Ni siquiera es necesario que todo el mundo lo haga; basta con que el 5-10% de la población se resista lo suficiente. En el libro doy muchos ejemplos de lo que la gente puede hacer, pero uno de los más importantes implica escoger servicios que den privacidad. Por ejemplo, conviene utilizar Signal en vez de WhatsApp; en lugar de Google Search, navegar con DuckDuckGo, o utilizar ProtonMail frente a Gmail, entre otras alternativas. También podemos contactar con los representantes políticos y transmitirles que lo que hacen con nuestros datos es algo que nos preocupa, o pedirle a las empresas que los borren. Incluso si no lo hacen o si tardan años en responder, esa petición deja en evidencia que no tienen nuestro consentimiento.

«Para que la regulación funcione hacen falta cambios culturales, que la gente sea consciente de la importancia de la privacidad»

¿Y cuál es el papel de las empresas?

Uno muy importante, porque en ellas fue donde nació el problema. Además, son las que han facilitado la narrativa de que no hay de qué preocuparse, de que los datos son maravillosos y nos van a salvar. Si las empresas se dan cuenta de que la privacidad puede ser una ventaja competitiva, entonces podremos avanzar en la protección de nuestra intimidad.

Entonces, ¿la economía de datos debería desaparecer o regularse?

Debería desaparecer. Es demasiado tóxica y no merece la pena: las ventajas que nos proporciona las podemos conseguir de otras maneras que no sean tan peligrosas ni tan corrosivas para la sociedad.

¿Por ejemplo?

Los anuncios personalizados. Hay gente que dice no querer renunciar a este tipo de publicidad porque le gusta ver información relevante. Y yo lo entiendo, pero para eso no necesitan todos tus datos. Que busques en internet tiendas para comprar un pastel ya debería ser suficiente para mostrarte anuncios de ciertos productos; no necesitan saber tu género, tus tendencias políticas o tus prácticas sexuales. Y son este último tipo de datos los que se están enviando todos los días a todas horas. No vendemos ni compramos votos en la sociedad; por ese mismo motivo, no deberíamos comprar ni vender datos personales, puesto que terminan siendo utilizados de la misma manera.

Hace tres años en Europa entró en vigor el Reglamento General de Protección de Datos (RGPD). Desde entonces se han comunicado multas históricas a empresas como Amazon. Sin embargo, según publicaba recientemente el Financial Times, muchas de las sanciones propuestas contra grandes tecnológicas como Google, Facebook, Apple, Microsoft o Twitter se encontraban bloqueadas por la inacción de Irlanda, donde la mayoría tienen su sede. ¿Por qué resulta tan complicado regular las actuaciones de estas compañías?

Porque tienen muchísimo poder. Estamos lidiando con gigantes y las agencias reguladoras suelen ser muy pequeñas. Hablamos de una asimetría enorme. Luego existe otro problema: que los datos son abstractos e invisibles. Eso provoca que haya barreras que van desde la dificultad de los reguladores para entender cómo funcionan los datos hasta las complicaciones para definir las medidas necesarias para supervisarlos. Necesitamos que los reguladores vayan un paso más allá del reglamento de protección de datos, que en su momento fue un hito histórico, pero está claro que no es suficiente: cada semana vemos nuevos escándalos sobre privacidad. Además, creo que para regular de manera efectiva el uso de datos es necesaria una alianza entre Europa y Estados Unidos.

«Parece que nuestra esfera privada se encoge cada vez más, y eso preocupa por cuestiones democráticas, de libertad y bienestar»

¿De qué manera nos beneficiaría recuperar nuestra privacidad?

Es esencial defender nuestra privacidad para proteger la democracia. Eso es lo más importante, porque creo que la democracia está en peligro por la polarización, por las empresas, por la corrupción interna, etc. Pero también por influencias externas como China, que es claramente un país no democrático con cada vez más poder que busca liderar cuestiones de inteligencia artificial. También serviría para defender valores como la justicia o la imparcialidad y asegurar que nadie sea discriminado por sus datos. A nivel personal, ayudaría a protegernos de los abusos de los empleadores. Es algo que parece que se ha acentuado con la pandemia y el teletrabajo: hay una tendencia a no respetar la vida privada de la gente. Antes se iba al trabajo de 8:00 a 17:00 horas o de 9:00 a 18:00 horas y, al terminar, te ibas a casa y dejabas de trabajar. Sin embargo, con el teletrabajo cada vez hay más presión para que estemos todo el tiempo respondiendo mensajes o llamadas, o trabajando gratis. Parece que nuestra esfera privada se encoge cada vez más, y eso preocupa por cuestiones democráticas, pero también por cuestiones de libertad y de bienestar.

¿Crees que lograremos proteger nuestra privacidad? ¿Eres optimista al respecto?

Soy realista. Creo que hay un 50% de posibilidades de que no recuperemos –o no todavía– nuestra privacidad y otro 50% de que nos pongamos las pilas y lo consigamos. Lo que me preocupa es que no actuemos a tiempo y que esperemos a que la información personal se utilice para cometer atrocidades o a que haya un genocidio en Occidente para reaccionar. Tenemos ejemplos en el pasado. Solo hace falta recordar cómo utilizaban los nazis los datos en contra de los judíos. No podemos dejar pasar el tiempo hasta que suceda algo similar de nuevo.

ARTÍCULOS RELACIONADOS

¡Sonría, le están vigilando!

Florence Rodhain

El miedo y la diversión alientan a las personas a aceptar renunciar a sus derechos civiles por razones de salud.

La sociedad vigilada

Miguel Ángel García Vega

La crisis sanitaria abre el debate sobre cómo conjugar la gestión de la privacidad de los ciudadanos y la tecnología.

COMENTARIOS

SUSCRÍBETE A NUESTRA NEWSLETTER

Suscríbete a nuestro boletín semanal y recibe en tu email nuestras novedades, noticias y entrevistas

SUSCRIBIRME