Innovación

«El beneficio económico no puede ser un valor absoluto en cuyas manos dejemos el futuro de la humanidad»

¿QUIERES COLABORAR CON ETHIC?

Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).

COLABORA
23
febrero
2024

Que la inteligencia artificial se ha convertido en uno de los mayores retos de nuestra época ya nadie lo pone en duda. Entre caer bajo el dominio de la Skynet de Terminator, la Hall 9000 de ‘2001, Odisea en el Espacio’ o las profecías que hablan de la supresión de millones de puestos de trabajo en todos los sectores económicos, el temor a la inteligencia artificial se encuentra cada vez más presente en nuestras vidas. Para despejar miedos y aclarar dudas, nadie mejor que Antonio Diéguez (Málaga, 1961), catedrático de Lógica y Filosofía de la Ciencia en la Universidad de Málaga. Diéguez es una de las voces más reputadas cuando se trata de reflexionar sobre la investigación científica. No en vano, acaba de publicar en Herder ‘La ciencia en cuestión’, un ensayo en el que analiza las debilidades de la investigación científica y los ataques que recibe desde las posiciones negacionistas que tanto han proliferado desde la pandemia.


¿La IA va a cambiar nuestras vidas tanto como se supone? ¿Habrá unión entre la IA y los seres humanos?

Se están diciendo cosas muy exageradas y tan lejos no creo que lleguemos, pero sí va a cambiar sustancialmente nuestra forma de vida. Para empezar, muchas formas de trabajo van a tener que cambiar radicalmente, incluso desaparecer, eso parece obvio y ya lo están avisando todos los analistas. También cambiarán algunas cuestiones sociales, del mismo modo que internet y los teléfonos inteligentes ya han cambiado nuestra forma de socializar. Supongo que con la inteligencia artificial todo eso se potenciará. También hay un elemento fundamental que a veces no se tiene en cuenta. Las grandes compañías tecnológicas van a acumular todavía mucho más poder y por lo tanto van a tener mucha más capacidad de control político. Estas cuestiones se irán viendo poco a poco y es donde están los problemas reales, no en esos escenarios de ciencia ficción tipo Terminator. Yo no acepto el discurso catastrofista de que la inteligencia artificial va a acabar con nosotros. Me parece exagerado y que no hay ninguna evidencia científica rigurosa para afirmar algo así, aunque sí es cierto que es una tecnología tan potente que puede poner en riesgo la existencia de la civilización.

«Toda la economía mundial depende de que funcione internet y esto depende de que funcionen los sistemas eléctricos y de que tengamos energía»

O sea que la IA nos puede llevar a un mundo apocalíptico, aunque no suponga el fin de la especie

Sí, pero no porque las máquinas tomen la decisión de aniquilarnos, sino que nuestra dependencia de esa inteligencia artificial nos puede poner en situaciones de peligro. Ya hay obras que han analizado la situación, pero imaginemos que nos quedamos sin internet durante un tiempo largo. La economía sufriría de forma considerable. Ahora mismo, toda la economía mundial depende de que funcione internet y esto depende de que funcionen los sistemas eléctricos y de que tengamos energía… Hay ya tantas vidas humanas que dependen de un funcionamiento correcto de esas tecnologías, cuanto más potentes sean y más controlen toda la situación, más riesgo hay de que se pudiera producir un colapso en caso de riesgo grave.

¿Es tan relevante el anuncio de Elon Musk de que ha implantado un chip en el cerebro para controlar objetos como si fuera telequinesia?

En primer lugar, ya se han implantado chips en el cerebro para que pacientes con parálisis severas y tetrapléjicos se comunicaran con ordenadores y pudieran por ejemplo dictar frases en un vocabulario muy reducido, de manera que podían comunicarse con el pensamiento. Lo que ha conseguido Musk es que sea menos invasivo. También experimentó con animales, pero hubo denuncias de maltrato a los monos. No obstante, ha recibido el permiso para empezar a trabajar con seres humanos con pacientes con ELA, con parálisis severas en estado avanzado… A nadie se le oculta que Elon Musk es un transhumanista y cuyo objetivo final es que personas normales que no tengan enfermedades puedan llegar a tener algún día una comunicación directa con las máquinas a través de interfaces. Eso es lo que está por ver. Todos estos avances van muy despacio. Los equipos, las prótesis, el equipo médico que hay… Elon Musk logrará seguramente algún avance en lo que hay hasta ahora, pero de ahí a poder hablar de un cíborg con un chip implantado en el cerebro que le permita aprender un idioma o artes marciales o comunicarse por telepatía, todo eso es ciencia ficción.

Todavía estamos lejos del personaje de Bethany-Bisme Lyons en Years & Years que se conecta directamente con internet gracias a sus implantes biónicos

En mi opinión estamos muy lejos de eso. Hay quien no lo ve tan lejos y cree que a lo mejor en una o dos décadas esto se va a extender y va a tener un uso amplio. Yo lo que veo por el momento son avances muy lentos, con mucho riesgo y muchos problemas. Tanto en el campo neurológico como en el campo ético.

«En ningún otro campo científico o tecnológico hay discrepancias tan grandes entre los propios expertos acerca de los alcances de lo que hacen»

¿En qué momento la IA dejará de ser una tecnología disruptiva y podremos predecir sus siguientes pasos?

Es difícil de saber. En ningún otro campo científico o tecnológico hay discrepancias tan grandes entre los propios expertos acerca de los alcances de lo que hacen. Hay quien dice que va a ser una herramienta muy poderosa y cada vez más útil, pero se mantendrá siempre bajo el control del ser humano y nunca alcanzará un nivel comparable a la inteligencia humana. Y otros, en cambio, te dicen que la singularidad, es decir, el control de las máquinas está a la vuelta de la esquina. Por su propia naturaleza parece que la inteligencia artificial es muy difícil de predecir y saber cuáles van a ser sus logros en los próximos años.

¿Cree que la inteligencia artificial nos ayudará a combatir la desinformación y los bulos que se han propagado tanto con las redes sociales?

Bueno, para empezar, la inteligencia artificial está contribuyendo a propagar esos bulos. Se usan chatbots para difundir noticias falsas y aumentar la desinformación. También se usan programas que simulan ser una persona real y lo hemos visto con imágenes pornográficas con la cara de personas reales. O políticos diciendo cosas que nunca han dicho con la propia voz del político. Todo lo que se está haciendo ahora en ese sentido con inteligencia artificial es uno de los peligros más importantes que tenemos de inmediato con la democracia. Ahora, es muy posible que también la inteligencia artificial ayude a detectar todo esto en algún momento. Por utilizar la famosa cita de Heidegger: «Allí donde está el peligro, crece también la salvación». Si la IA es el peligro de la desinformación, quizá ella nos ayude también a controlarla.

En 2024, medio planeta acudirá a las urnas con citas de gran calado en EE. UU., la UE, Rusia, India, Brasil… y será la primera vez que la IA esté de manera operativa a gran escala. ¿Podrán trastocar los resultados electorales o es un temor infundado?

Si no se hace nada, sí que lo es. Esa desinformación genera actitudes hostiles y emociones fuertes en los votantes que les hacen ver una situación peligrosa donde no hay amenazas. En ciertos lugares del mundo, puede fomentar el odio racial haciendo ver que una minoría étnica está haciendo cosas que realmente no está haciendo. Eso ya ha ocurrido y ha generado incluso muertes. En la medida en que no se contrarreste esa información, los votantes pueden actuar de una forma irracional. Porque la desinformación es muy difícil de combatir. La desinformación se difunde, pero cuando se desmonta, el desmentido no termina de convencer a muchos. Hay personas que sabiendo que son informaciones falsas, las aceptan porque encajan con la ideología del grupo. Son un grave peligro porque son uno de los elementos que más contribuye a la polarización política que estamos viendo.

«La desinformación se difunde, pero cuando se desmonta, el desmentido no termina de convencer a muchos»

La investigación de la IA muchas veces recuerda a la década de los 30 y 40 del siglo pasado, cuando la comunidad científica se centraba en la investigación de la física atómica, pero para los gobiernos era una cuestión bélica y militar que no había que descuidar.

Es una comparación interesante. Puede haber momentos en que por la urgencia de los acontecimientos o por la presión política los científicos no se planteen seriamente las consecuencias sociales que pueden tener la ciencia y la tecnología que desarrollan. Algunos incluso quieren separar la ciencia de cualquier responsabilidad y culpar únicamente a la tecnología, cuando esa distinción hoy es insostenible. Hay además un elemento nuevo más preocupante aún. El proyecto Manhattan se investigaba con fondos públicos y con gobiernos elegidos democráticamente, aunque fuera para crear un arma tan poderosa como la bomba atómica. De forma indirecta, había un control democrático. Pero en el caso de la IA, la mayor parte de la investigación está en manos de empresas privadas y es muy difícil que estas empresas acepten luego la normativa y que quieran colaborar. En situaciones de guerra el secreto es todavía mucho más exigible, pero ahora no cabe ese secreto que es solo por razones puramente comerciales. El beneficio económico no puede ser un valor absoluto en cuyas manos dejemos el futuro de la humanidad. Ya ha empezado la UE y también los EE. UU., pero ya hemos visto la presión de las compañías porque se legisle siempre a su favor y no para que su poder disminuya.

En ese sentido, contrasta mucho con la historia de Geoffrey Hinton, el exvicepresidente de Google que dimitió para alertar de los peligros de la IA y que no quería que los intereses de su empresa colisionaran con sus investigaciones. Con este poder que acumulan las empresas, parece inviable en el sistema capitalista controlar esto, porque siempre se impondrá la lógica empresarial de obtener beneficios y se doblegará el pulso a los gobiernos.

Es muy difícil ese control porque que son empresas con mucho poder. Pero no podemos tirar la toalla. En ocasiones anteriores hemos tenido un cierto éxito en el control también de compañías muy poderosas. La presión pública está haciendo que las petroleras empiecen a darse cuenta de que tienen que invertir en energía renovable e ir cambiando el modelo de negocio porque hay una presión muy fuerte por dejar los combustibles fósiles. En el campo de la biotecnología las grandes empresas farmacéuticas tienen también mucho poder y, sin embargo, las regulaciones éticas y legales en el campo de la biotecnología se respetan. Y cuando se saltan hay tribunales que están pendientes y eso genera condenas bastante graves. Incluso en el caso de China, tenemos el caso del científico He Jiankui que manipuló genéticamente embriones humanos y permitió que nacieran dos niñas, fue condenado a tres años de cárcel, con una fuerte multa y se le retiró el permiso para ejercer. Hay ejemplos exitosos de control de la tecnología y no creo que la IA tenga que ser la excepción. Yo creo que hay que intentarlo por difícil que sea y si hay unión internacional es factible.

Pero con las redes sociales ya hemos visto que ese control está llegando a posteriori y ya no podemos retroceder en el tiempo.

Es cierto que ese tipo de efectos más perniciosos se van corrigiendo gracias a la presión social, legal, política… Ahora lo ideal es intentar prevenirlas y no actuar cuando ya el daño está hecho. Eso es muy difícil en tecnología y hay mucha oposición también, porque hay quien piensa que cualquier legislación preventiva es una legislación coercitiva que va a impedir la investigación y lo mejor es no hacer nada. Hay que tener muy claro hoy día que la opción no es «vamos a regular y acabamos con la libertad de investigación», pero tampoco «no hacemos nada y dejamos el campo libre para que los científicos y los ingenieros trabajen sin cortapisas». La alternativa es: o regulamos el control de la tecnología para que las decisiones vayan hacia los intereses de los ciudadanos o dejamos las decisiones en manos de los directivos de estas grandes compañías.

«O regulamos el control de la tecnología para que las decisiones vayan hacia los intereses de los ciudadanos o dejamos las decisiones en manos de los directivos de estas grandes compañías»

¿Qué instituciones necesitaríamos para poder regular una cuestión que es transnacional y multidisciplinar?

La Unión Europea ya lo está haciendo. Lo ideal es que el gobierno de EE. UU. estuviera en contacto también para que hubiera armonía en estas legislaciones y desde luego implicar a China, que es la clave del asunto, porque estas tecnologías se están trabajando con mucha intensidad en China. Si se consiguiera un acuerdo, al menos, de intereses entre los tres grandes, sería una base muy sólida para trabajar.

¿Rusia no es relevante o no ve viable que llegue a un acuerdo multilateral?

Yo creo que en cuestiones tecnológicas Rusia ha perdido el tren, al menos en este campo. No es comparable desde luego a la tecnología que desarrolla Estados Unidos y ni siquiera a la que desarrolla China. En otras tecnologías no digo que no, pero ahora mismo en IA no está en puestos de vanguardia.

Si se abrieran los códigos y las licencias de uso de la IA, ¿sería más sencillo establecer un control sobre su desarrollo o aceleraríamos el proceso de pérdida de control sobre la IA?

Yo creo que sí porque una de las claves de aquí es la transparencia. Y ahora mismo nadie sabe exactamente qué hay dentro de estos sistemas de manera precisa porque como se están desarrollando en compañías privadas, se guardan esos secretos. En la medida en que haya un público especializado que sí pueda acceder a los entresijos de estos sistemas e incluso ayudar a detectar algunos problemas eso facilitaría bastante las cosas. No sé si una transparencia total sería posible porque claro, estamos hablando de un negocio que también tiene patentes y busca ganancias, pero cuando lo que está en juego es la seguridad, esto no pueden ser cajas negras en cuyo interior nadie puede rastrear.

El desarrollo de la IA y la incorporación a la investigación científica puede ayudarnos a avanzar más rápido y tener descubrimientos con mayor rapidez, pero ¿puede suponer que perdamos capacidad de comprensión en esos nuevos fenómenos?

Es una situación factible. De hecho, Íñigo de Miguel y yo publicamos en uno de los últimos números de Investigación y Ciencia un artículo sobre esto. Los algoritmos de inteligencia artificial pueden hacer que la ciencia mejore mucho elaborando modelos predictivos en sistemas físicos o químicos con gran precisión y, sin embargo, no seamos capaces de explicar correctamente por qué se producen esos fenómenos. Es decir, que la ciencia gane en capacidad predictiva, pero pierdan en capacidad explicativa. Esto es un problema porque se supone que la capacidad explicativa es uno de los objetivos centrales de la ciencia también. Entonces la cuestión es si depender demasiado de estos sistemas no nos llevaría a una ciencia mucho más exacta y con mucha más capacidad para generar control tecnológico, pero al mismo tiempo una ciencia menos comprensible en el sentido de que no nos permite entender el mundo de la forma tan sofisticada que lo hacemos hoy a través de nuestras teorías.

ARTÍCULOS RELACIONADOS

La disrupción de los disruptores

Carlos Guardiola

La inteligencia artificial ya está transformando el mercado de la tecnología. ¿Estamos ante una nueva disrupción?

COMENTARIOS

SUSCRÍBETE A NUESTRA NEWSLETTER

Suscríbete a nuestro boletín semanal y recibe en tu email nuestras novedades, noticias y entrevistas

SUSCRIBIRME