Innovación

«La visión europea de una inteligencia artificial confiable, ética y al servicio de las personas debe primar»

Fotografía

Xurxo Lobato
¿QUIERES COLABORAR CON ETHIC?

Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).

COLABORA
10
agosto
2023

Fotografía

Xurxo Lobato

La catedrática de la Universidad de A Coruña María Amparo Alonso Betanzos (Vigo, 1961) cuenta con una extensa carrera investigadora al frente de la inteligencia artificial en España. Por ello, sigue cosechando premios. Acaba de recibir el galardón Colexiada de Honra del Colexio Profesional de Enxeñaría en Informática de Galicia (CPEIG). También forma parte del Consejo Asesor de Inteligencia Artificial, creado en 2020 por el Gobierno de España. Conversamos con la experta española sobre el presente y el futuro de la inteligencia artificial, su trayectoria profesional y sus actuales líneas de investigación.


Usted es ingeniera química, pero se doctoró en Física y se especializó en Biomedicina. ¿Por qué escogió la bioingeniería? ¿Cuáles son los retos actuales de la disciplina?

Efectivamente, estudié ingeniería química e hice el doctorado en Física, pero el tema del doctorado era ya un sistema que utilizaba inteligencia artificial para la monitorización de los fetos durante el embarazo y la previsión también estado fetal. En concreto, esta fue mi relación también con la biomedicina. El principio de mi tesis doctoral fue la aplicación en temas relacionados con la monitorización antenatal lo que me unió a la biomedicina. Luego seguí trabajando en otras aplicaciones de salud, pero, en general, mi carrera durante y después del doctorado se desarrolló en el ámbito de la inteligencia artificial.

¿Piensa que estamos ante una eclosión de la colaboración entre ramas científicas? ¿Es importante que físicos, químicos, ingenieros y biólogos, entre otros posibles expertos, combinen sus conocimientos en busca de soluciones conjuntas en campos tan complejos y sujetos a la experiencia como la medicina?

Sí, de hecho, la inteligencia artificial es un claro ejemplo donde se necesita muchas veces la contribución de ramas que tienen muchas veces que ver con las ciencias sociales o con las humanidades en general. Un paradigma es el tema de la lingüística computacional para el desarrollo de los sistemas de lenguaje natural. En mi caso, en concreto nosotros también hemos trabajado con psicólogos, sociólogos y filósofos en temas que tienen que ver con el uso apropiado de inteligencia artificial o en cómo aproximar esas herramientas a las personas teniendo en cuenta cómo son sus valores o su comportamiento social. En nuestro caso, lo hacíamos para trabajar en temas de sostenibilidad. No se debe diseñar una herramienta sin tener en cuenta a qué tipo de personas va dirigida, cuál es su perfil, en cuanto al comportamiento que pueda tener frente a temas de sostenibilidad o de medio ambiente.

En este sentido me encantaría que, como experta en la materia, explicase a nuestros lectores qué es la inteligencia artificial. ¿Es realmente una inteligencia o una aspiración a la inteligencia equivalente a la humana?

La inteligencia artificial surge hace mucho tiempo, en 1956, en una escuela de verano en el Dartmouth College, donde apenas una docena de científicos estaban pensando cómo implementar las ideas que ya el profesor británico Alan Turing había esbozado sobre la posibilidad de que las máquinas pudieran comportarse o pudieran competir con los humanos en aspectos meramente intelectuales. Fue él quien habló de este tema de la inteligencia artificial desde este punto de vista. Digamos que lo que se pretendía era reproducir la inteligencia humana en una máquina. En este aspecto, digamos, la inteligencia artificial se relacionaría con las disciplinas que se plantean grandes cuestiones, como qué es la vida, por ejemplo. Pues bien, la inteligencia artificial se plantea bajo la pregunta de qué es la inteligencia y cómo reproducirla en una máquina.

¿Y hoy en día?

Hoy en día lo que tenemos son programas informáticos, software o máquinas que lo que hacen es ejecutar operaciones comparables a las que realiza la mente humana: la inteligencia artificial actual es capaz de aprender, de razonar, de reproducir y de entender lenguaje natural, y la mayoría de sus aplicaciones, aunque no todas, estarían centradas en lo que se llama «inteligencia artificial de derecho estrecho» en el que los programas o las máquinas tienen una inteligencia de nivel humano o superior, pero en entornos o contextos muy acotados. No hemos desarrollado una inteligencia que sea general, como lo es la humana, capaz de expandirse a todos los campos.

«No se debe diseñar una herramienta sin tener en cuenta a qué tipo de personas va dirigida»

¿Cómo ve el futuro de la inteligencia artificial para el desarrollo de la ciencia y también para el desarrollo humano, tanto colectivo como individual?

La inteligencia artificial es una disciplina transversal y que está afectando prácticamente a cualquier campo de aplicación en el que podamos pensar, desde la salud hasta la medicina, el tema del diseño de fármacos o el descubrimiento del mapa de proteínas más importante hasta el momento. Yo creo que la inteligencia artificial va a ser muy relevante para el futuro en cuanto a la ciencia por su capacidad para analizar patrones y derivar información a partir de ellos con cantidades grandes de datos, que es muy superior a la humana. En este sentido, nos puede apoyar y empoderar para ser más eficientes en nuestro trabajo. La inteligencia artificial va a ser imprescindible en muchas áreas, además de las que ya mencionadas, para combatir el cambio climático, para desarrollar la sostenibilidad en actividades como la agricultura, mejorar la personalización del aprendizaje. Y en muchas otras herramientas que ya estamos viendo que nos puede apoyar, como las que proceden de la Inteligencia Artificial Generativa, y que tan comentadas están siendo en estos últimos meses.

Como coordinadora del Grupo LIDIA que usted es le pregunto: ¿deben los Estados, como garantes de la res publica, formar parte del desarrollo de la IA? ¿Hasta qué grado es vital que exista una colaboración público-privada?

Creo que es importante comenzar a regular la inteligencia artificial porque, en efecto, gran parte de su desarrollo se encuentra casi bajo un monopolio de empresas muy relevantes, casi todas ellas norteamericanas, aunque también hay alguna china. Aun así, pienso que la inteligencia artificial se expandirá también buscando estas áreas nicho en las que tenemos todavía mucho que hacer y que tiene que ver con áreas psicosociales o con otros temas y que tenderán a su desarrollo en distintos campos. Pero también es cierto que la inteligencia artificial puede crear grandes diferencias entre la población, entre los países, entre los niveles de riqueza de unos y de otros, etcétera. Frente a esto sí que es importante que exista una regulación y que esta regulación, en lo posible, se realice a nivel mundial. Al menos, en Europa se está haciendo, que es la zona que ha propuesto regular y que en estos momentos la está votando su parlamento. Esta regulación se ha propuesto, además, desde los poderes públicos. Este detalle lo considero muy importante también, ya que, por supuesto, hay que contar con las empresas para el desarrollo de la inteligencia artificial, pero no deben ser ellas solas las que decidan cómo deben dirigirse en un futuro. Creo que la visión europea de una inteligencia artificial confiable y ética, al servicio de las personas, debe primar, y así parece que puede ser. Porque, de hecho, en los Estados Unidos ha salido adelante también una declaración de intenciones a finales del año pasado con algunos puntos que se asemejan bastante a la legislación europea. Después ha habido también estos esfuerzos desde distintas empresas tecnológicas para hablar de una regulación.

Pienso que esto, efectivamente, debe ser así, pero no tienen que ser solo las empresas las que digan cómo debe hacerse esta regulación, sino que estas decisiones trascendentales deben dirigirse desde los poderes públicos contando, eso sí, con las empresas. Es una labor complicada, no va a ser de un solo paso. No solo los gobiernos deben implicarse, sino también las empresas, y no solo en la regulación, sino en el desarrollo de las herramientas previas a la regulación. Deben tener un código propio ético que deben respetar. Los ciudadanos, por nuestra parte, deberíamos tener una cultura más amplia desde el punto de vista de la tecnología, pues estamos inmersos en una revolución tecnológica muy importante que no sólo cambia las herramientas que usamos, sino a la propia sociedad en general.

«La inteligencia artificial se plantea bajo la pregunta de qué es la inteligencia y cómo reproducirla en una máquina»

¿Y cómo prevé que vayan a ser esos cambios a nivel social? Me refiero a comunicación, interrelación socio-laboral, en asuntos de guerra (usada como arma), a nivel social… ¿Cómo ve las aplicaciones de estas tecnologías incipientes para un futuro próximo?

Es una pregunta un poco difícil de resolver, porque cada vez más, en inteligencia artificial, asistimos a disrupciones que suceden más próximas en el tiempo. La anterior fue, quizás, AlphaGo, que derivó posteriormente en AlphaFold, que es esta herramienta que, como usted ha comentado antes, se aplicó para el estudio de proteínas y de medicina y que se puede aplicar también a otros campos. Los temas de las aplicaciones de la Inteligencia Artificial Generativa a la educación se encuentran todavía pendientes de regular y es también una siguiente etapa. Pienso que la inteligencia artificial va a ser muy transversal e iremos avanzando hacia una IA cada vez más ética, más regulada y también más personalizada y explicativa. Estos sistemas dejarán de ser «cajas negras» y podremos ver qué datos utilizan, cómo los utilizan, qué procesos hacen, y si nos hacen una recomendación o una clasificación a algo que nos afecta que nos expliquen por qué han llegado a esa decisión de qué forma y con qué datos. Esto va a resultar un cambio no tanto en qué aplicaciones vamos a tener como en la manera en que deben ser esas herramientas.

En cambio, algunos especialistas, como el científico cognitivo Douglas Hofstadter, han dado la alarma con respecto a la inteligencia artificial. ¿Debemos temer sus procesos y consecuencias?

Bueno, yo creo que a quienes debemos temer es a los humanos, que al final somos quienes estamos diseñando la inteligencia artificial. Como digo, sí que es importante proceder a una regulación sobre la inteligencia artificial como ya ha hecho antes la humanidad ante otros campos y desarrollos controvertidos. Gran parte de la ciencia y la tecnología es, de hecho, controvertida en tanto dual: se puede usar para el bien y para el mal. Un ejemplo muy paradigmático es el uso de la tecnología nuclear. Todas estas cuestiones las hemos tenido que regular para poder emplearlas para el bien de la humanidad. Y eso es precisamente lo que creo que debemos hacer ahora con la inteligencia artificial para que sus avances estén regulados y disponibles al servicio de las personas, y no al revés.

No somos totalmente inocentes y pensamos que la regulación lo va a solucionar todo. Por ejemplo, en mi casa, como en la de todos, tenemos cuchillos, y la mayoría de nosotros los usamos para cortar la comida, cortar el pan, lo que sea. Eso no impide que se puedan usar con fines de asesinato que no acometemos la mayoría de nosotros. El uso de los cuchillos está regulado, esos crímenes no se pueden hacer, hay un castigo frente a ellos, pero que exista esta regulación no impide que se sigan produciendo con estas herramientas. En el caso que nos ocupa de la inteligencia artificial va a suceder como con todos estos casos. Habrá que regular, habrá que intentar que la tecnología esté al servicio de las personas y hay que arbitrar situaciones para intentar que la tecnología nos empodere, no nos disminuya. Creo que esta es la solución. Tener miedo a la tecnología no soluciona el problema.

Completamente de acuerdo. Acaba de recibir el premio Colexiada de Honra del Colexio Profesional de Enxeñaría en Informática de Galicia (CPEIG). Pero, a su extenso recorrido, se suma su reciente elección como miembro del Comité Español de Ética de la Investigación. ¿Se encuentra España en una buena posición internacional en investigación en biología (y ciencias en general) e informática? ¿Se invierte los suficiente en investigación y estudios STEM?

Todos sabemos que en temas de inteligencia artificial hay tres centros mundiales que son Estados Unidos, China y Europa. No podemos competir en Europa a nivel de país. Entonces debemos competir como asociación, como Unión Europea, para poder aportar. Yo creo que hemos aportado esta misión ética y humanista de la inteligencia artificial que, de hecho, hace unos años era denostada, porque las empresas tecnológicas americanas y chinas carecían de regulación y de esta visión. Con el tiempo hemos visto que se ha impuesto también en algunas áreas, como la norteamericana. En China todavía no hemos asistido a ninguna regulación o, si existe, al menos yo lo desconozco. Espero que acabe sucediendo, porque si China quiere vender sus aplicaciones en Europa tendrá que acomodarse a la normativa europea. Espero igualmente que la normativa norteamericana acompañe en este sentido, como así parece.

«La posición de España en el contexto europeo de la inteligencia artificial es especialmente buena: hay que aprovechar esta oportunidad para crecer»

En cuanto a España, dentro de Europa, hay un estudio de una consultora francesa que habla de cuál es la posición de distintos países europeos en cuanto a investigación y desarrollo en inteligencia artificial. Pues bien, España ocupa el cuarto lugar. Cuando salió publicado este estudio todavía no se había producido el Brexit. Es decir, lideraban la lista Gran Bretaña, Francia, Alemania y España, en este orden. No obstante, España estaba a distancia, de todas maneras, de las otras tres, y cada una de ellas, además, sobresalía en distintas cuestiones. Medían en el estudio start-up, medían investigación en entornos académicos en los que España, por ejemplo, sobresalía, etcétera. Entonces, pienso que la posición de España en el contexto europeo es especialmente buena y que hay que aprovechar esta oportunidad que nos abre la inteligencia artificial para crecer. Lo que sucede es que a pesar de que se desarrollaran las estrategias en inteligencia artificial en Europa llegó la pandemia, que vino a entorpecer su puesta en marcha, aunque también debo decir que puso también una marcha más a algunas cuestiones que tienen que ver, como el tema de las comunicaciones, la necesidad de conexión (que ahora ya nos parece más normal teletrabajar), la necesidad de conectividad, que es mucho mayor… En estos momentos es visto muy normal que si una empresa tiene sede en Madrid se pueda estar trabajando para ella desde A Coruña o incluso desde Estados Unidos, por ejemplo. El panorama de empleo también está cambiando. Con el impacto de la pandemia y el de la guerra en Ucrania hay temas, por tanto, que ha sufrido un empujón a raíz de la pandemia, mientras que otros se han ralentizado un poco.

¿En qué está trabajando usted en estos momentos sobre inteligencia artificial y Big Data?

Ahora mismo, en mi grupo de investigación estamos trabajando en inteligencia artificial explicable y sostenible. Es decir, nos interesan los algoritmos que son capaces de abordar ofrecer explicaciones al usuario. Supongamos un sistema de recomendación. La idea que el algoritmo explique al usuario por qué le ha realizado esta u otra recomendación. No estamos trabajando en un algoritmo que determine qué recomendar, sino en cómo recomendarle a un usuario algo de forma personalizada y por qué motivos le está haciendo una cierta recomendación. Por ejemplo, con un restaurante yo le recomendaría el restaurante equis con un texto y si usted hubiese estado allí, con la fotografía que hubiese tomado, si hubiese estado usted allí.

¿Y sobre los algoritmos verdes?

Entonces estamos intentando hacer esto y lo estamos intentando llevar a cabo desde el punto de vista de los algoritmos verdes. Ahora mismo es una de nuestras principales líneas de investigación. Los algoritmos verdes son aquellos capaces de producir todos estos resultados con una performance similar o más optimizada que los algoritmos que consumen más energía, pero con un impacto medioambiental mucho menor. Los algoritmos de aprendizaje profundo tienen un consumo computacional enorme y no podemos permitirnos lo mismo que con los sistemas de Inteligencia Artificial Generativa que es, por ejemplo, ChatGPT3, que es la versión más antigua. Tenía un consumo que equivalía a unas 550 toneladas de CO2 vertidas a la atmósfera. Como 550 vuelos entre San Francisco y Nueva York.

Una barbaridad.

Exacto. Es una barbaridad. ChatGPT4 tiene más parámetros todavía que su versión anterior. Quiere decir que su consumo es aún mucho mayor. Nosotros intentamos hacer esto, pero con un consumo muchísimo menor, de forma que el algoritmo pueda ser considerado como «sostenible». Esto es a lo que se llaman «algoritmos verdes». Los algoritmos verdes, además, tienen dos vertientes. Una es la Green In, que es la que he dicho, desarrollar algoritmos sostenibles, que es otra de las aplicaciones que hacemos en el grupo como es trabajar en Aprendizaje Distribuido y en Aprendizaje Federado donde se aprovechan los aparatos de baja capacidad del Internet de las Cosas para poder hacer aprendizaje de ahí con estas pequeñas memorias y después integrar todo lo que se aprende en estos dispositivos de forma que lo que se transmita por la red no sean datos, sino parámetros de los algoritmos, de manera que no sólo se consigue así el algoritmo verde, también trabajar en privacidad, porque no se comparten datos.

«Intentamos destacar los problemas que pueda tener la inteligencia artificial con los sesgos, concretamente con los sesgos de género»

La otra vertiente de los algoritmos verdes es la Green By, que consiste en aplicar algoritmos de inteligencia artificial a la sostenibilidad. En este sentido, nosotros trabajamos con grupos de psicólogos y sociólogos para desarrollar modelos basados en agentes inteligentes que nos permitan ver cómo una determinada población reacciona o qué deberíamos hacer para que reaccione de una manera sostenible ante un evento y cómo debemos desarrollar políticas que lo favorezcan. Por poner un ejemplo, el último proyecto que teníamos lo que hacía era trabajar en acciones de innovación social, como las súper manzanas, en Vitoria.

Una manera de reorganizar las ciudades, supongo.

Sí, es una forma de diseñar las ciudades, de reorganizarlas, de manera que las grandes vías que teníamos anteriormente para la circulación de automóviles se aprovechen ahora para que las personas las transiten. Entonces son zonas de la ciudad donde el tráfico rodado que entra debe salir y poseen restricciones para los aparcamientos. Los niños pueden jugar en la calle, se convierten en zonas más saludables donde hay menos contaminación y un largo etcétera. Lo que hacemos es modelar como se hizo en las súper manzanas anteriores que ya están implementadas para ver qué políticas debe tomar el ayuntamiento para comunicarse con los ciudadanos y que estos entiendan cuál es el proceso y tengan una actitud más inclinada hacia la sostenibilidad. Y otra de las cosas en las que el grupo también trabaja es en intentar destacar también los problemas que pueda tener la inteligencia artificial con los sesgos y luchar concretamente con los sesgos de género en ingeniería informática. Es en estos momentos una titulación que en países como España y en gran parte del mundo desarrollado solamente el 12% de los estudiantes son mujeres e intentamos promocionar estos estudios entre las chicas para intentar tener un futuro más igualitario para todos.

 

ARTÍCULOS RELACIONADOS

COMENTARIOS

SUSCRÍBETE A NUESTRA NEWSLETTER

Suscríbete a nuestro boletín semanal y recibe en tu email nuestras novedades, noticias y entrevistas

SUSCRIBIRME