Siglo XXI

Los datos en la era de internet: ¿valor o responsabilidad?

Es hora de aplicar una visión más humanista de la digitalización, con una perspectiva que tenga en cuenta tanto las necesidades como los derechos de los ciudadanos, a quienes se deben situar en el centro de la transformación digital.

Artículo

¿QUIERES COLABORAR CON ETHIC?

Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).

COLABORA
31
mayo
2022

Artículo

La pandemia moduló nuestros hábitos y propulsó el uso de la tecnología más de lo habitual, siendo en muchos casos la única alternativa para continuar ciertas actividades. En un momento de crisis y necesidad, la reflexión sobre la recopilación de datos quedó en segundo plano, por lo que apostamos por aceptar soluciones rápidas en la esfera digital. Como consecuencia, cedimos nuestros datos para seguir accediendo a servicios imprescindibles, como las plataformas sanitarias, las aplicaciones para realizar videoconferencias o incluso para continuar haciendo compras por internet. Este tipo de prácticas, aunque no fueran intencionadas, propició una situación de mayor riesgo para la protección y correcta gestión de datos en la esfera digital, uno de los principales derechos a proteger.

 Se ha ido prodigando el concepto de que «si no pagas por el servicio, el producto eres tú». En este caso, los datos que proporcionamos son el precio a pagar por utilizar servicios como la lectura de noticias en línea, hacer la compra desde casa o ver una película desde el sofá. De hecho, los podemos considerar una materia prima muy codiciada en la era digital, ya que son la base del actual modelo de negocio: se trata de la venta de nuestras cookies, los datos de navegación, la actividad en las redes, las preferencias personales y sociales o las tendencias políticas. El modelo lo vemos con casos como el de la compañía Meta, que con motivo del incumplimiento del Reglamento General de Protección de Datos (GDPR) –el marco regulador europeo en torno a la privacidad informativa, el consentimiento, la transparencia y el derecho a ser olvidado– amenazó con el cierre de Facebook e Instagram en Europa si no se le permitía seguir transfiriendo datos del mercado europeo a los Estados Unidos. Sin duda, el GDPR sirve hoy como modelo para muchas organizaciones y gobiernos en términos de gestión de datos y privacidad, colocando a Europa en la vanguardia del diseño digital ético y responsable. 

Aun así, hasta la fecha no podemos hablar de un mercado rentable –económicamente hablando– para el uso ético y responsable de nuestros datos. Gestionarlos con un tratamiento ético supone un sobrecoste para las empresas, cierto, pero solo si miramos a corto plazo, ya que esta inversión acaba siendo muy rentable a medio y largo plazo, aportando a las empresas un diferencial competitivo y unos valores que benefician por completo a los ciudadanos. Al final, la inversión en procedimientos éticos es una inversión de futuro. De esta manera, ¿por qué implementar unos procedimientos costosos sin un retorno de negocio? Como ya hemos visto en el pasado, hay mucho camino por recorrer para generar conciencia y conseguir que las empresas lo apliquen por necesidad y voluntad propia. Y si no, veamos qué ha pasado con la emergencia climática, donde hace más de una década era un problema de unos pocos, pero ahora empresas y administraciones trabajan sin cesar para aportar su granito de arena. Dentro del uso de los datos y el resto de los aspectos generados por la emergencia digital ocurrirá lo mismo. 

La inversión en procedimientos éticos es una inversión de futuro

Los datos van más allá, afectando a muchas más esferas de nuestras vidas de las que somos conscientes. El rápido crecimiento de la dataficación y la digitalización de casi todos los aspectos de la sociedad moderna han intensificado el riesgo de mala praxis, incorporando sistemas automatizados que aprenden de la recopilación histórica de datos y que pueden causar situaciones como un mal uso de los algoritmos, lo que incluye desde sesgos sistemáticos integrados en las tecnologías digitales capaces de discriminar ciertos grupos sociales, de género y étnicos, hasta violaciones de datos personales a través de plataformas en línea. Y conforme aumenta la complejidad de los algoritmos, los retos se intensifican, llegando a generar no solo sesgos, sino replicando o amplificando las desigualdades existentes: todos ellos tienen que ser abordados y atajados.

Un ejemplo ilustrativo es el de la empresa Amazon, que en 2014 dejó en manos de sistemas automatizados la selección de sus procesos de talento. Un año después, se descubrió que el programa discriminaba sistemáticamente a las mujeres. La razón era simple: estaba diseñado a partir de los perfiles de antiguos candidatos –mayoritariamente hombres– que habían trabajado o se habían postulado para puestos en la empresa durante los últimos 10 años. No obstante, en una década la sociedad ha evolucionado mucho, un detalle que el sistema ignoró, llevando a mantener un dominio masculino al penalizar los currículum que contenían palabras del campo semántico relativo a las mujeres, como «jugadora de baloncesto» o «graduada cum laude en matemáticas». Los sistemas de automatización son un gran paso y pueden aportar mayor eficiencia y eficacia, pero la supervisión humana es fundamental para evitar que se automaticen errores y desigualdades. Al detectarlo, la empresa dio marcha atrás en esta automatización del sistema para mejorar el algoritmo.

El rápido crecimiento de la digitalización de casi todos los aspectos ha intensificado el riesgo de mala praxis

Estamos ante una situación muy compleja, con tecnologías emergentes que avanzan a una velocidad trepidante y un marco legal que muchas veces no es capaz de seguir el ritmo de las novedades, si bien empezamos a ver que están subiendo cada vez más en la escala de prioridades de las agendas institucionales. Un ejemplo es el acuerdo del Parlamento Europeo y del Consejo de la UE sobre la Directiva de Servicios Digitales (DSA), que sitúa la Unión Europea como pionera en la regulación de la revolución tecnológica. Se trata de un borrador jurídico que establece obligaciones de transparencia y acceso sobre los algoritmos de las grandes plataformas digitales, contemplando entre otras medidas retirar el contenido ilegal y la desinformación. En definitiva, se trata de un primer gran paso en el que la transformación ética ya no surge por voluntad propia de las empresas, sino por una normativa que tiene el potencial de reinventar el mundo digital.

Desde Digital Future Society apostamos por una solución que pase por aplicar una visión más humanista de la digitalización que tenga en cuenta las necesidades y los derechos de los ciudadanos, situándolos en el centro de la transformación digital. Tenemos que trabajar para que la tecnología se acerque al ciudadano y a sus necesidades. Esto se debe de atacar desde dos líneas de acción: en primer lugar, apelar a la responsabilidad de los actores de interés para impulsar una obligatoriedad sobre la aplicación de un uso ético de los datos; al mismo tiempo, se debe dotar al ciudadano de herramientas para que pueda no solo adquirir conocimiento del mundo digital, sino también para aprender y aprovechar tanto las oportunidades como los riesgos que supone, impulsándole a adquirir un pensamiento crítico que le permita interactuar con seguridad y autonomía en un entorno cada vez más digitalizado. 

Ante todo, debemos fomentar la colaboración digital entre los diversos grupos de interés como respuesta eficaz para hacer frente a la complejidad de los retos generados por la rápida y acelerada digitalización. La colaboración de los diferentes sectores hace posible diseñar y aplicar conjuntamente iniciativas relevantes que partan de un conocimiento profundo del contexto socioeconómico. Por ello, debemos fomentar la cooperación entre todos los actores y las partes interesadas clave: es responsabilidad de todos. Esa es la esencia del humanismo tecnológico que defendemos desde Digital Future Society.


Cristina Colom es directora de Digital Future Society.

ARTÍCULOS RELACIONADOS

La sociedad vigilada

Miguel Ángel García Vega

La crisis sanitaria abre el debate sobre cómo conjugar la gestión de la privacidad de los ciudadanos y la tecnología.

COMENTARIOS

SUSCRÍBETE A NUESTRA NEWSLETTER

Suscríbete a nuestro boletín semanal y recibe en tu email nuestras novedades, noticias y entrevistas

SUSCRIBIRME