Siglo XXI

Un filósofo en Silicon Valley

La inteligencia artificial entenderá a los humanos mucho mejor de lo que lo hacemos nosotros. Pero ¿quiénes van a enseñar a las máquinas a tomar decisiones? Las compañías tecnológicas necesitan sociólogos y filósofos que aporten una visión humanística frente a las implicaciones sociales, económicas y ambientales que supondrá convivir con máquinas inteligentes.

Ilustración

Nacho Montoya
¿QUIERES COLABORAR CON ETHIC?

Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 5 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).

COLABORA
17
Oct
2019

Ilustración

Nacho Montoya

Matemáticas y Filosofía es un doble grado de éxito en Reino Unido. La combinación es lógica. La lógica. En Reino Unido –también empieza a pasar en España–, cada vez se hace más complicado conseguir que los matemáticos se conviertan en profesores de adolescentes, pudiendo optar por ganar más dinero y tener más proyección en empresas tecnológicas. El complemento de filosofía es una ventaja añadida cuando los debates éticos arrecian en negocios basados en la inteligencia artificial y la gestión de enormes conjuntos de datos.

Las empresas españolas, según las consultoras de recursos humanos, son más reticentes que las anglosajonas a apreciar grados académicos que no encajen a priori en lo más establecido, y lo de la filosofía entre ordenadores no les cuadra. Todavía. Sí que ha pasado en Silicon Valley, donde son muy valorados los jóvenes que se intentan preguntar cómo funciona el mundo de la manera más racional. Se les deja tiempo para divagar, con un porcentaje de horas laborales que pueden dedicar a tratar de responder cuáles son las grandes motivaciones que mueven a los humanos desde que los griegos supieron describirlas, cómo satisfacer desde la tecnología los deseos más inmutables que nos han hecho distintos a los animales. O meter en el cóctel la moral en la tecnología. Para qué, qué se fomenta, cómo se gestiona, dónde queda la privacidad, el libre albedrío, etc.

Juan Luis Suárez es vicepresidente del CulturePlex Lab, de la Western University de Canadá, dedicado precisamente a investigar sobre estos asuntos donde se funden las humanidades y los algoritmos. Suárez piensa que hacen falta más políticas públicas que, desde la ética, fijen de alguna manera cómo se usa la inteligencia artificial en servicios de salud, de seguridad, cambio climático, defensa o seguros. «Creo que es muy necesario que los Gobiernos regulen y sean efectivos en todo lo referente a la privacidad, el anonimato, el poder de las grandes empresas para cambiar comportamientos y la venta indiscriminada de datos», explica. Y cree que la manera eficaz de hacerlo es a nivel global, porque son cuestiones que sobrepasan fronteras nacionales. Si hay unos estándares en bioética, ¿por qué no los hay ya en inteligencia artificial?

«Los filósofos en plantilla se convierten en una especie de estrategas que ven más allá, en asistentes del buen vivir»

En esta coreada e hipotética era de las fake news, a las empresas tecnológicas les interesa tener cerca a empleados que sepan que el combate por la verdad no es nuevo, que es una lucha de siglos y que su manipulación se acrecienta en ciertas épocas. Es necesario que alguien señale las paradojas de cómo el mundo más informado puede ser el peor informado; los límites a la libertad de expresión o la capacidad de destruir la convivencia que pueden tener los bulos de difusión masiva. La filosofía, en la tecnología, puede ser una vacuna contra el adanismo de los que se creen que se inventa la rueda de las grandes preguntas cada poco tiempo. Pero hay cuestiones relevantes, porque nunca en la historia tan pocos tuvieron los datos de tantos.

Juanma Aramburu es el CEO de Keepler, dedicada a aplicaciones que usan la inteligencia artificial y el machine learning. Como Suárez, cree que sería conveniente que una cumbre mundial regulara la gestión de los datos. Mientras, explica que, en su empresa, se esfuerzan por trasladar a los clientes que, si detectan «que la información produce un sesgo injusto o si no entendemos bien la procedencia de datos de carácter privado, nos negamos a acceder a ellos para usarlos en las aplicaciones». Aunque no ve a su alrededor a técnicos con formación en filosofía, sí entiende que, cada vez más, los empleados aprecian el propósito ético de la empresa como un incentivo laboral. Victoriano Izquierdo, fundador de Graphtext, dedicada al análisis de datos, explica que no cuentan en su plantilla con graduados en Filosofía, pero sí tienen un club de lectura donde se plantean estos dilemas.

Mientras, en Reino Unido existen ya iniciativas como el think tank del Instituto para la Ética en la Inteligencia Artificial y el Machine Learning, con unos principios de uso responsable a los que se pueden adherir las empresas. Y, recientemente, la Universidad de Stanford, en el corazón de Silicon Valley, anunciaba la creación del Instituto de Inteligencia Artificial Humana, con un enfoque multidisciplinar entre tecnólogos y humanistas.

inteligencia artificial

Lasse Rouhiainen es un finlandés divulgador sobre inteligencia artificial, afincado en España: «La clave es la transparencia. Los ciudadanos deben saber cómo, cuándo y dónde se están usando sus datos. En Finlandia es algo de lo que hablan los partidos políticos», y advierte de que algunos Gobiernos, como el de China, olvidan por completo la ética: el país asiático ha elaborado un sistema por puntos que recopila datos de sus ciudadanos y les permite o no el acceso a ciertos servicios dependiendo de sus actuaciones e infracciones, desde créditos bancarios a la posibilidad de comprar un coche o entrar en la universidad… Black Mirror no solo está en Netflix.

Pero los peligros de los usos de datos atañen a esferas aún más etéreas. En un tiempo en el que se nos dice que la presión de las redes sociales hace aumentar la depresión entre los más jóvenes, surge con fuerza la pregunta sobre lo que es la felicidad. De hecho, algunas tecnológicas ya presumen de tener jefes de felicidad. Es ahí donde se explica el éxito que, desde hace años, disfruta el estoicismo entre emprendedores tecnológicos o blogs como Daily Stoic, con propuestas de ejercicios prácticos. O de Andrew Taggart, que se define como un filósofo práctico, la persona a la que acudir si se necesitan respuestas a la pregunta de cómo llevar una buena vida. Según Juanma Aramburu, esto permite a los empleados de las tecnológicas valorar si su labor tiene más o menos sentido.

Tristan Harris es uno de esos trabajadores. Después de trabajar varios años para Google, primero como jefe de producto y después como diseñador ético y filosófico, se hizo la pregunta: ¿estoy empleando mis conocimientos y mi talento en la dirección que quiero? La respuesta no le gustó demasiado: ahora se dedica, curiosamente, a alertar de los efectos que tienen las pantallas sobre nosotros y de cómo esa «atención secuestrada» nos hace vulnerables y manipulables.

Otra de las cualidades apreciadas en los graduados en Filosofía es la capacidad analítica ante los problemas, el poder tirar de hilos mentales de lógica, romper un gran asunto en varios, un aspecto que no es menor cuando se gestionan bases de datos de millones de usuarios. Ahí está la posibilidad de aplicar inteligencia artificial a millones de historias clínicas para observar patrones que puedan explicar los factores de riesgo de enfermedades. ¿Queremos que nos segmenten así? ¿Existen contrapartidas?

Los filósofos en plantilla se convierten así en una especie de estrategas que ven más allá, en asistentes del buen vivir, en consultores que tienen a mano la historia de las respuestas a qué nos hace humanos, especialistas en saber que, por mucha racionalidad que aporten los robots, las emociones humanas, las reacciones basadas en ellas, nunca están fuera de la ecuación. ¿Cómo entender la fiebre por los likes en las redes sociales sin saber qué es el narcisismo, qué define nuestra identidad, cómo manejamos el ego? ¿O cómo se relacionan la felicidad exhibida permanentemente, la envidia o la necesidad de aparentar?

«Si hay regulación jurídica sobre bioética, ¿por qué no la hay sobre inteligencia artificial?»

Recientemente, cundió el entusiasmo en la opinión pública española ante el anuncio de la posible recuperación de Filosofía como asignatura obligatoria en Bachillerato. Hubo un clamor por potenciar una materia que fomentaba el pensamiento crítico, que provocaba el debate, que promovía las grandes preguntas. En un ambiente en el que se suele retratar a una adolescencia perezosa, es llamativo el éxito de las Olimpiadas de Filosofía, donde se suelen presentar a los alumnos preguntas que pueden relacionar con retos actuales como nuevas tecnologías e identidad humana. También algunos ejecutivos insatisfechos desean profundizar en esos porqués metafísicos y humanistas, y se apuntan a talleres como los de la Escuela de Filosofía de Madrid, donde se ofrece un curso llamado El gusto por el pensar.

Serán estos empleados los encargados en ocasiones de redactar los valores de la empresa que deben de casar con los beneficios, pero no necesariamente ponerlos por encima de cualquier aspecto.

En cierto sentido, los filósofos prácticos de estas empresas serán unos pepitos grillo a los que se les pague por serlo, en condiciones ideales. Aunque cada uno definirá lo que es ético de una manera. No en vano, uno de los máximos exponentes de emprendedor con un background tecnológico es Peter Thiel, fundador de PayPal, un personaje muy controvertido en Silicon Valley que ha apadrinado diversas iniciativas de corte libertario.

El ejemplo que mejor expresa el importante papel que juega la filosofía en entender la inteligencia artificial es el programa ya veterano de la Universidad de Stanford, el Symsys, con el que los alumnos aprenden programación, lingüística, ciencias cognitivas y, sí, filosofía. De nada servirá la inteligencia artificial que no considere las más profundas inquietudes humanas.

Cómo se acabe incorporando la filosofía a las empresas tecnológicas es un asunto pendiente, en evolución. Pudo ser una moda. O no. La certeza es que los estoicos seguirán en las listas de los más vendidos. Aunque su última versión para emprendedores mileniales se llame El sutil arte de que todo te importe una mierda. No cabe duda de que la ética importa cada vez más. Aunque ese debate, ligado a la tecnología, no esté aún en la agenda de los políticos.


Este artículo fue publicada en el segundo especial Ethic & Marcas con Valores. Puedes descargarte de forma gratuita el número completo en PDF en este enlace

ARTÍCULOS RELACIONADOS

COMENTARIOS

SUSCRÍBETE A NUESTRA NEWSLETTER

Suscríbete a nuestro boletín semanal y recibe en tu email nuestras novedades, noticias y entrevistas

SUSCRIBIRME