Siglo XXI
Ok, Google: ¿de verdad me importa mi privacidad?
Los asistentes virtuales tienen un lado oscuro, ya que son capaces de escucharnos aunque no lo sepamos. Un estudio de la Universidad Pública de Navarra revela que los usuarios no somos de los riesgos que asumimos en materia de privacidad.
Artículo
Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).
COLABORA2023
Artículo
Siri y Alexa se han colado en nuestras vidas: nos acompañan en nuestros smartphones, altavoces inteligentes, sistemas de navegación y dispositivos de domótica. Son asistentes virtuales de gran utilidad en muchos contextos. Por ejemplo, para utilizar nuestros teléfonos mientras cocinamos o para facilitar el acceso a internet a personas con diversidad funcional. Sin embargo, su uso no está exento de riesgos. Algunos, que quizá desconozcamos. ¿Hasta qué punto arriesgamos nuestra privacidad con ellos? ¿Realmente nos importa perder nuestra intimidad?
La cara B de los asistentes virtuales
Dada la variedad de dispositivos en los que se incorporan, es difícil tener cifras precisas sobre la penetración de asistentes virtuales en la actualidad. En el mercado americano más del 50% de los hogares tiene ya un altavoz inteligente y en España las cifras se sitúan en torno al 7%.
Hablamos de asistentes virtuales que funcionan con un conjunto de sistemas y algoritmos que reconocen el lenguaje natural y ejecutan distintas tareas. Pero, además de recopilar datos personales de la misma forma que otras aplicaciones, estos asistentes recogen un tipo de información especialmente sensible: las grabaciones de voz.
Aunque están diseñados para activarse únicamente cuando se mencionan los términos clave («hey Siri», «Alexa»), estos términos no siempre se detectan de manera correcta y los dispositivos pueden llegar a despertarse entre 20 y 40 veces en un día. Como resultado, realizan grabaciones de entre 6 segundos y 2 minutos antes de desconectarse.
En el mercado americano más del 50% de los hogares tiene ya un altavoz inteligente y en España las cifras se sitúan en torno al 7%.
¿Qué ocurre en esos casos? Las empresas desarrolladoras tienen permiso para escuchar estas grabaciones (recordamos, realizadas en nuestros salones, cocinas y alcobas) con el fin de mejorar sus algoritmos. En algunas ocasiones estas grabaciones han sido cedidas a empresas de terceros, e incluso filtradas a la prensa, con el consiguiente revuelo.
¿Nos preocupa nuestra privacidad… o no tanto?
Según datos del CIS, al 75% de los ciudadanos españoles le preocupa la protección de sus datos. Sin embargo, no siempre actuamos de forma coherente y no hay evidencias de que premiemos o utilicemos en mayor medida aquellas aplicaciones más transparentes o respetuosas con nuestros datos.
Este fenómeno, denominado «la paradoja de la privacidad», tiene distintas explicaciones: 1) Sabemos los riesgos, pero los asumimos porque el servicio que nos ofrecen nos resulta útil. Alternativamente, y de un modo más irracional, porque los beneficios que obtenemos son inmediatos, mientras que los riesgos en seguridad son costes futuros; 2) No somos conscientes de esos riesgos y utilizamos esos servicios sin conocer las potenciales consecuencias.
Estudiando la paradoja de la privacidad
Para aclarar cuál de estas dos posibilidades predomina, la Universidad Pública de Navarra ha iniciado una investigación –pendiente de publicación– que mide en la red social Twitter el impacto de las noticias positivas y negativas relacionadas con la privacidad de los asistentes virtuales.
El objetivo no es otro que arrojar luz sobre la paradoja de la privacidad: si las noticias generan un impacto significativo en el tipo de conversación generada, será evidente que los usuarios no eran previamente conscientes de estos riesgos.
En general, los aspectos ligados a la privacidad están poco presentes en la conversación
Para ello, este proyecto ha generado una base de datos de dos años de tuits que mencionan los asistentes de Google, Apple y Amazon (más de 600.000) y la ha cruzado con una base de datos de noticias positivas y negativas sobre los asistentes para este periodo. A continuación se estudió el volumen de conversación antes, durante y después de las noticias, así como el sentimiento medio que expresaban esos tuits (basado en el tipo de lenguaje que se utiliza).
Se observó que, en general, los aspectos ligados a la privacidad están poco presentes en la conversación: solo se mencionan en el 2% de los casos, aunque esta cifra se duplica en el caso de Apple, marca que pone un énfasis mayor en el tratamiento de los datos personales.
Por otra parte, las noticias negativas sobre privacidad tienen un fuerte impacto, tanto en el volumen de conversación como en el sentimiento medio, que se hace más negativo. Las noticias positivas no tienen ningún efecto. Además, el impacto de las noticias negativas es mucho más fuerte para Apple que para Google, lo que indica que posicionarse en privacidad tiene sus riesgos, ya que los usuarios van a reaccionar más negativamente ante problemas relacionados con este ámbito.
Por tanto, los resultados de esta investigación indican que los usuarios no somos conscientes de los riesgos que asumimos y reaccionamos muy negativamente cuando se ponen al descubierto. Esto nos deja dos conclusiones principales: 1) Los individuos debemos ser más activos recabando información sobre los servicios que utilizamos; 2) Las administraciones deben asumir un mayor papel en la educación y control de los asistentes virtuales, ya que es improbable que sean las plataformas las que informen mejor a sus usuarios.
Mónica Cortiñas es profesora titular de Comercialización e Investigación de Mercados en la Universidad Pública de Navarra. Este artículo fue publicado originalmente en The Conversation. Lea el original.
COMENTARIOS