Más allá del ‘big data’
Los macrodatos ofrecen soluciones a algunos de los problemas más acuciantes de nuestras sociedades. La perspectiva del futuro, donde se prevé el uso a gran escala de información biométrica, añade aún más complejidad al universo digital. No obstante, ¿contamos con las herramientas adecuadas para procesar estos datos de una manera que sea socialmente beneficiosa?
Artículo
Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).
COLABORA2021
Artículo
Cuando pensamos en el big data lo hacemos básicamente en el adjetivo big, grande; es decir, en la talla del conjunto. Lo cierto, sin embargo, es que no nació así. Hasta el advenimiento de la ‘era punto com’, alrededor del año 2000, la mayor parte de los datos eran lo que denominamos ‘tabulares’; es decir, tablas de datos. Esta serie de datos provenían del ámbito de las ventas y, en general, de aquellas partes de la organización que tenían que usar datos para resolver sus funciones.
La aparición de las redes sociales lo cambió todo, enfrentándonos a la enorme cantidad de datos resultante de la interacción entre individuos: de ahí el big data. Pero el hecho diferencial más importante era que los datos ya no eran tabulares; ya no se trataba de datos al uso, sino de fotografías, conversaciones, likes o videos.
De esa época provienen los modelos que buscan capturar el concepto de big data. Los más famosos son los que se han definido a partir de la letra uve. De hecho, el modelo de las 3V es aún hoy el modelo más popular. En él, el big data se define en términos de volumen, variedad y velocidad. Posteriormente, a este modelo se añadió valor y veracidad, creando las 5V. Más adelante se llegaron a añadir incluso dos términos más: viabilidad y visualización, lo que terminó por conformar un modelo de 7V. Estos modelos pretendían contraponer los datos tradicionales, los tabulares, a los ‘nuevos’ tipos de datos. Probablemente, el nombre nunca llegó a capturar lo esencial. No se trataba solamente de si eran muchos o pocos; lo más importante, en realidad era que eran diferentes.
El ‘Superpedestrian’ se encarga de comprobar que todos los componentes del patinete eléctrico están en perfecto estado, monitorizando también la conducción
No obstante, ¿es esto todo o, en cambio, nos espera un futuro de hiper big data? A este respecto, dos ejemplos pueden resultar especialmente reveladores. El primero es el caso del Instituto Tecnológico de Massachusetts (MIT) y el Superpedestrian, software que se encarga de comprobar que todos los componentes del patinete eléctrico (e-scooter) estén en perfecto estado. No solo eso, sino que también monitoriza en todo momento cómo se conduce: si ejecutamos la velocidad correcta, si se circula por la acera o en dirección contraria, e incluso si se hace zig-zag. Esto permite proporcionar un feedback al conductor y, además, enviar estos datos a la empresa de alquiler del o a las autoridades de la ciudad. Superpredestrian opera hoy la mayoría de los e-scooters de 40 ciudades de los Estados Unidos y Europa. Según anuncian, son los más seguros del mundo.
El segundo caso pertenece a Google. Un proyecto piloto de la compañía establecido en cuatro ciudades de Israel logró reducir el consumo de gasolina y los retrasos ocasionados por la mala coordinación de los semáforos entre un 10% y un 20% mediante el uso de algoritmos que calculan con mayor exactitud el tiempo de espera necesario en las intersecciones. Fácilmente podemos imaginar las mejoras en la viabilidad que este avance puede conllevar.
Esta nueva generación de datos nos enfrenta a información biométrica que hasta ahora solo encontrábamos en películas de ciencia ficción
Las redes sociales son uno de los mejores ejemplos de cómo el big data da forma a nuestras vidas. La información del usuario recopilada en estas plataformas permite a los especialistas –por ejemplo, en marketing– comprender mejor el comportamiento del usuario, definir mejor los grupos de público objetivo, la eficacia de las campañas y el engagement, la capacidad de capturar la atención de los usuarios y mantenerlos pegados a las pantallas.
Pero si en su día fueron las redes sociales las que trajeron esos datos distintos que hoy llamamos big data, ahora serán las máquinas las que generen una gran cantidad de datos pensados para ser procesados no por humanos sino por otras máquinas, por software.
Esta nueva generación de datos nos enfrenta a nuevos retos que hasta ahora solo encontrábamos en películas y series de ciencia ficción como Black Mirror. Se trata de datos biométricos y de nuestra actividad en el mundo, y si bien el análisis de las complejidades del asunto requiere una discusión sosegada, principalmente debido a los aspectos relativos a la privacidad, el problema principal es bastante simple: como sociedad, no tenemos las herramientas adecuadas para procesar todos esos datos de una manera justa y beneficiosa.
Esteve Almirall es profesor de Operaciones, Innovación y Data Sciences de Esade. Ulises Cortés es catedrático de Inteligencia Artificial en la UPC.
COMENTARIOS