Siglo XXI

Hablar por hablar

Medios de comunicación, compañías y responsables políticos participan de una cacofonía nada positiva para el futuro de la inteligencia artificial. ¿Está avanzando más rápido la tecnología o el vocerío que la rodea?

¿QUIERES COLABORAR CON ETHIC?

Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).

COLABORA
23
noviembre
2022

En los últimos años hemos vivido una eclosión informativa en la que la actriz principal es la inteligencia artificial (IA): medios, gobiernos y opinadores se sienten compelidos a sentar cátedra sobre el tema, abordando los posibles alcances y usos de esta tecnología desde todas las aristas posibles, algunas de ellas asombrosas incluso para quienes trabajamos en el tema. En esta cacofonía, por supuesto, también participan las empresas que desarrollan y venden sistemas basados en esa tecnología.

Uno de los peligros más notorios es que la tecnología basada en la IA avanza de manera frenética. Los investigadores en el tema aún somos incapaces de asimilar los cambios y estar al día, si bien cada cambio o nueva versión de un programa o una librería es informado y comentado por mil voces. Por mencionar un aspecto no tecnológico y evitar los detalles más técnicos, veamos lo que está pasando con la ética del uso de las aplicaciones de las tecnologías de la inteligencia artificial.

En 2017, la comunidad de investigadores puso sobre la mesa su temor sobre los usos indebidos que empresas y gobiernos comenzaban a hacer de estas tecnologías. El anuncio a bombo y platillo de la inminente aparición de los coches autónomos, escándalos como el de Cambridge Analytica o usos más perversos como las llamadas armas autónomas dieron la vuelta al mundo. El resultado es una proliferación urbi et orbi de expertos eticistas y declaraciones de buena voluntad. Esto sin tener en cuenta la creación de neologismos para definir la ética de la IA y las sesudas discusiones para colocarlos, aunque sea de forma efímera, en el discurso. Ha sido tal la vorágine informativa que ya llevamos más de 400 de estas declaraciones de principio éticos, desde la de la Unión Europa –precisamente este 1 de noviembre entró en vigor en Europa la Digital Markets Act– hasta la de China, pasando por las de compañías como Meta o Microsoft. Es tal el alboroto alrededor de la mal llamada «ética de la IA» que algunos científicos como Virginia Dignum han llegado a decir que «dado que muchos están haciendo inteligencia artificial sin ningún conocimiento de IA, supongo que lo mismo puede decirse de la ética de la IA». 

La inteligencia artificial no es una criatura: no tiene voluntad propia, deseos o intencionalidad

El primer efecto de esta vocinglería es que el (mal) uso de los términos que está transformado nuestra disciplina. Así, por ejemplo, podemos leer en la prensa nacional que «una IA de DeepMind halla una nueva forma de multiplicar números», «la inteligencia artificial descubre el ‘acero toledano’ del futuro» o «la IA también permitirá llegar a donde no podemos llegar los que nos dedicamos a enseñar», ejemplos típicos de prosopopeya. El lector educado entenderá en la tercera declaración que el uso de las tecnologías de la inteligencia artificial permitirá llegar a ese confín intangible y lejano al que aspiramos los docentes, mientras que las dos primeras son más extrañas: ambos titulares atribuyen la capacidad de descubrimiento a unos programas que en realidad han sido programados por humanos; solo son herramientas muy potentes a las que se les ha dado un objetivo claro, así como la capacidad de generar diferentes posibilidades, explorarlas y comprobar si son mejores que los métodos actuales. Por supuesto, el interés y capacidad de venta de los resultados de las herramientas basadas en la inteligencia artificial genera esta proliferación altisonante de noticias, aunque en muchas ocasiones estas no sean comprobables o transformables en una realidad industrial a corto o medio plazo. Hay que decirlo de forma clara y rotunda: la IA no es una criatura y no tiene esas capacidades; no tiene voluntad propia, no tiene deseos y menos aún intencionalidad. Estamos a años luz de producir programas que exhiban una inteligencia general.

Otro de los grandes equívocos causados –las más de las veces, por la necesidad de cacarear el huevo antes de ponerlo– es el de aumentar la fe en la tecnología como un ser capaz de resolver problemas sociales. Un ejemplo es la confianza ciega en la inminente disponibilidad de los coches autónomos y, al tiempo, la constatación de que, aunque sea un problema soluble, no lo va a ser en un corto plazo. Como también es erróneo adelantar sus ventajas («España es un país perfecto para los coches autónomos») antes de su materialización –que será normalmente evolutiva– y su regulación. Del mismo modo, es un equívoco notable el confundir el deep learning con la IA: la primera es solo una técnica típica de la inteligencia artificial que ahora está muy de moda. Al tiempo que los opinadores ocupan todos los espacios informativos –y desinformativos– y continúan convirtiendo una disciplina científica y sus aplicaciones en noticia, hay una comunidad empeñada en seguir investigando.


Esteve Almirall es profesor de Operaciones, Innovación y Data Sciences de Esade.

Ulises Cortés es catedrático de Inteligencia Artificial en la UPC.

ARTÍCULOS RELACIONADOS

COMENTARIOS

SUSCRÍBETE A NUESTRA NEWSLETTER

Suscríbete a nuestro boletín semanal y recibe en tu email nuestras novedades, noticias y entrevistas

SUSCRIBIRME