«Usar la IA como un juguete tiene su impacto en el medio ambiente»
Artículo
Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).
COLABORA2024
Artículo
Asunción Gómez-Pérez (Azuaga, Badajoz, 1967), catedrática de Ciencias de la Computación e Inteligencia Artificial de la Universidad Politécnica de Madrid, es una firme partidaria de que cada vez le concedamos más protagonismo a la IA a la que se le añade el adjetivo ‘humanista’. Esa que nos coloca en el centro, que antepone el bienestar humano y de la que nos podemos fiar. Recientemente, lo ha explicado en «Inteligencia Artificial: Ciencia y Humanismo», parte de la XII Lección Magistral Andrés Laguna que cada año convocan la Universidad de Alcalá y la Fundación Lilly.
Este año el Consejo Europeo ha aprobado el primer reglamento de IA con un carácter claramente humanista. ¿Cuáles son los enemigos de una IA que promueva los derechos fundamentales, la propiedad intelectual, la privacidad o el medio ambiente?
Uno, sin duda, es el sesgo. La IA no puede estar sesgada como podemos estarlo nosotros por nuestra formación, por nuestra cultura. El Reglamento identifica bien enemigos como los sistemas de puntuación o calificación social de los ciudadanos como si fuera un carné de conducir, las herramientas de control facial que te monitorizan y saben exactamente en cada momento por dónde vas o las técnicas subliminales que favorecen una manipulación en la forma de pensar o de actuar de las personas.
¿Tiene sentido legislar de forma diferente en China, Europa o Estados Unidos? ¿No es preciso un esfuerzo global y coordinado?
Los intereses en Europa, China y Estados Unidos son diferentes. En China, el Gobierno utiliza la IA para controlar y saber qué opina la población. En Estados Unidos, donde están las grandes compañías tecnológicas, el dato es dinero y en base a eso se construye todo. Europa ha cogido el enfoque de la tradición humanista que pone en el centro a las personas y a la sociedad. Mi opinión es que deberíamos ir hacia un esfuerzo más global y coordinado, hacia un enfoque único, pero lo veo muy complicado.
«Deberíamos ir hacia un esfuerzo más global y coordinado, hacia un enfoque único»
Una IA humanista es la que nos ayuda a vivir mejor. De ahí lo importante de su aplicación con fines médicos. ¿Qué casos puede destacar de cómo la IA generativa está contribuyendo a la investigación en salud?
Realmente la IA es una herramienta más que se utiliza en el método científico. Por lo impactante que fue en el campo de la medicina hay que mencionar lo que ya se conoce como el milagro de Gert, por el nombre de la persona que quedó parapléjica por un accidente. Impresiona cómo un sistema de IA le permitió volver a andar gracias a unos cascos con sensores que se ponían en la cabeza del paciente. Los investigadores le pidieron que pensara cómo andaba en su día. Ese pensamiento generaba unas señales que, introducidas en el sistema de IA, se traducían a su vez en una señal que, justamente allí donde la médula se rompió, era recibida por un dispositivo capaz de procesarla con éxito.
¿Y fuera del ámbito médico?
Recuerdo un sistema de IA que hicimos para una administración pública. Analizaba los datos de personas que estaban en una situación de exclusión social. Se manejaban varios niveles de exclusión. Modelizamos los parámetros que caracterizaban a las personas en cada uno de estos niveles, así como ciertos tipos de eventos que podían ocurrir y que podían provocar que una persona pasara de un nivel bajo y fuera ascendiendo en esa pirámide.
La ciencia nos avisa que la IA tiene un impacto medioambiental que exige ser responsables. ¿Somos realmente conscientes?
La mayoría tenemos un montón de información en la nube, a veces duplicada, triplicada. Solemos hacer consultas a ciertos sistemas de IA por ver cómo funcionan, por obtener una fotografía o una imagen que seguramente no necesitamos. Utilizamos la inteligencia artificial como un juguete sin ser conscientes de su impacto. Estamos hablando de sistemas que requieren infraestructuras computacionales muy complejas que consumen mucha energía y recursos naturales. En el informe del año 2023 de la Universidad de Stanford, se cifraba en cerca de 200 millones de dólares el coste de un modelo fundacional. Luego este modelo se particulariza en un determinado dominio haciendo lo que se llama el finetuning o introducción de textos específicos para especializar dicho sistema en alguna materia como las finanzas o en temas de salud o en inversiones. Y luego estamos nosotros haciéndole preguntas. Cada uno de estos pasos consume energía. Todos estos centros de procesamiento de datos acogen máquinas que deben estar refrigeradas a una determinada temperatura con, otra vez, el consiguiente consumo de energía. Por eso hay una responsabilidad por parte de la ciudadanía en el uso de estas tecnologías, porque nuestros pequeños consumos también suman.
«Estamos hablando de sistemas que requieren infraestructuras computacionales que consumen mucha energía y recursos naturales»
En el enfoque humanista está también el respeto a la propiedad intelectual. Nos deslumbra cada día lo que es capaz de hacer en el ámbito creativo, pero ¿en qué medida la IA generativa puede ser un regalo envenenado para las artes, dada su capacidad creciente para pintar, diseñar, componer o escribir a la manera de este o aquel artista?
Lo primero es que las empresas que hagan modelos de IA fundacionales multimodales deben ser respetuosas con la propiedad intelectual, no utilizando textos sin permisos. La IA es excelente copiando e imitando. Por lo tanto, si la entrenamos con todo el repertorio disponible de los Beatles, estará, claro, en condiciones de acabar una canción incompleta de este grupo o crear una de cero con ese estilo. Otra cosa es crear algo verdaderamente nuevo. A ese punto no ha llegado.
Fue justo un arte, el cine, el que nos reveló hace diez años el poder dañino de una IA. Fue a través de la película Her de Spike Jonce. Contaba la historia de un tipo que desarrolla una relación, cada vez más obsesiva, con una asistente virtual de inteligencia artificial personificada a través de una voz femenina. El mes pasado supimos que un adolescente en Estados Unidos se había suicidado tras enamorarse de un personaje creado por IA. Tenía 14 años. Ahora que hay influencers creadas por IA que arrasan en las redes, ¿podrá el reglamento europeo reducir el riesgo de que sucedan desgracias así?
El reglamento europeo no prohíbe la tecnología, pero sí identifica cuál es el impacto y el daño que puede provocar en la sociedad. De ese modo puede reducir estos riesgos. Hay una serie de aplicaciones que tienen un riesgo inaceptable. Otras deben estar altamente monitorizadas desde el momento en que están accesibles, de tal forma que tengan el mismo comportamiento durante toda su vida útil en el mercado. Sobre el tema de los influencers, cualquier sistema, sea de reconocimiento de voz, generación de texto o imágenes, debe avisar en todo momento que estás interactuando con una IA. Habrá también que formar a todos los niños, jóvenes y no tan jóvenes en lo que se puede y no se debe hacer con esta tecnología. El mundo digital se nutre de herramientas cuyo uso requieren formación y madurez mental.
«El mundo digital se nutre de herramientas cuyo uso requieren formación y madurez mental»
Hablando de estudiantes. ¿Hay una tendencia creciente a elegir carreras ligadas al desarrollo de sistemas de IA? ¿Estamos ante un nuevo boom?
Es un auge que ya estamos percibiendo. Cada vez son más quienes quieren estudiar Ciencia de datos e Informática. No se nos escapa que necesitamos de otras disciplinas que al mismo tiempo formen a los alumnos en aspectos legales, éticos, medioambientales… Por otro lado, como la IA es algo horizontal, que se aplica a cualquier dominio y sector de la sociedad, es igualmente muy recomendable incluir cursos de IA en los estudios de grado de Humanidades, de Ciencias de la Salud y por supuesto de Ingeniería y Arquitectura. Será también importante la formación continua, proporcionar a todas las personas que ya están en el entorno laboral las habilidades necesarias para usar esta tecnología y que no pase que en algún momento se puedan ver desplazadas por desconocimiento.
Sabemos que con el móvil hemos perdido capacidad para memorizar números de teléfonos. ¿Cómo afectará la IA en manos de los estudiantes a medida que se acostumbren a su uso?
De entrada, si todos le piden a la misma inteligencia que les haga un trabajo sobre un determinado autor, por ejemplo, Miguel de Cervantes, el profesor no solo va a encontrarse con textos similares, es que además va a detectar palabras que no están en el nivel del alumno. Luego está la posibilidad de que la IA se equivoque porque tenga una «alucinación», en cuyo caso el alumno suspenderá. Cuando voy a los institutos y hablo con estudiantes, siempre les aviso que tengan mucho cuidado haciendo preguntas a la inteligencia artificial.
COMENTARIOS