¿Necesitamos un organismo que supervise la IA?
La inteligencia artificial se ha convertido en algo cotidiano y presente en cada aspecto de nuestra vida. Por ello es necesaria la creación de una agencia independiente que supervise y garantice no solo su funcionamiento, sino también su código ético.
Artículo
Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).
COLABORA2022
Artículo
A menudo nos encontramos anuncios de productos con el sello «con inteligencia artificial». Pero muy pocas veces, por no decir nunca, se informa al usuario de más detalles. ¿Quién nos garantiza que, efectivamente, ese producto funciona en base a inteligencia artificial (IA)? ¿Quién certifica que las respuestas que nos ofrece son las correctas? ¿A qué código ético obedece? Sin saber nada al respecto, cuando por alguna causa ese producto no funciona como esperábamos, es normal concluir que la IA no es fiable y mucho menos los algoritmos que emplea.
Pero ¿sabemos si el producto al que nos referimos funciona en base a un algoritmo? ¿Las soluciones que proporciona son siempre malas o solo lo son dependiendo del usuario? ¿El código ético de quien diseñó ese producto coincide con el nuestro? Y, a propósito: ¿quién define lo que es un comportamiento ético? ¿Cómo se mide la ética?
¿Qué es exactamente un algoritmo?
Un algoritmo es una secuencia ordenada de pasos, exentos de ambigüedad, que cuando se lleva a cabo con fidelidad en un tiempo finito da como resultado la solución del problema planteado, habiendo realizando, por tanto, la tarea para la que se diseñó. Así, para que un algoritmo sea correcto necesita cumplir lo siguiente: debe terminar siempre tras un número finito de etapas; las acciones que ha de llevar a cabo en cada etapa deben estar rigurosamente especificadas, sin ambigüedades; los valores con los que comienza a funcionar se han de tomar de conjuntos preespecificados; el resultado que proporcione siempre dependerá de los datos de entrada; todas las operaciones que haya que realizar en el algoritmo deben ser lo suficientemente básicas como para que se hagan exactamente y en un periodo finito de tiempo. Cuando no se da alguna de estas propiedades, no tenemos un algoritmo.
Los algoritmos no están sujetos a restricciones tecnológicas de tipo alguno
Los algoritmos, por tanto, no son como las recetas de cocina, que pueden tener reglas imprecisas, y como consecuencia producir resultados tan distintos como imprevisibles. Son procesos iterativos que generan una sucesión de puntos, conforme a un conjunto dado de instrucciones y un criterio de parada. Como tales, no están sujetos a restricciones tecnológicas de tipo alguno, es decir, son absolutamente independientes del equipamiento tecnológico disponible para resolver el problema que afronten. Es el programa en el que se escriba el algoritmo, el software, el que lo ejecuta en un computador.
Cuando ese programa y el algoritmo en el que se basa están diseñados con técnicas y metodologías de IA, y por tanto basadas en el comportamiento de las personas, a veces pueden surgir problemas a la hora de conocer y aceptar las decisiones que toma dicho programa.
Podemos sentirnos amenazados por creernos que esas máquinas realizan nuestros trabajos mejor que nosotros o porque nadie sepa explicar el comportamiento que tienen cuando actúan saliéndose de lo previsto, produciendo sesgos indeseables, soluciones no sostenibles o, en definitiva, porque consideremos que no tienen un comportamiento ético.
Pero esa es la versión que se ve desde el lado del usuario, es decir, de quien observa cómo se comporta ese sistema. Porque desde el lado del diseñador, a veces los resultados se ajustan exactamente a lo que conscientemente se había previsto en el algoritmo de origen y el correspondiente software que llega a los usuarios.
Contradicciones éticas
El rango de posibilidades es más que amplio. Van desde comportamientos indebidos a causa de errores fortuitos, indeseables pero inevitables, y con los que en todo caso hay que contar, hasta la comercialización totalmente interesada de sistemas basados en IA en los que su buen uso no está asegurado en ningún sentido o, incluso peor, no están basados en IA.
El nivel ético de un cierto software basado en IA es contexto-dependiente
En cualquier caso, y desde un punto de vista muy general, es obvio que el nivel ético de un cierto software basado en IA es contexto-dependiente. Mientras que en cierto ámbito una actuación puede tacharse de falta de ética, en otros puede entenderse como idónea. Esto da lugar a situaciones contradictorias difíciles de comparar porque ni disponemos de herramientas que nos permitan valorar el comportamiento ético de un sistema basado en IA, ni de legislación que lo regule.
Por tanto, y aunque solo fuera por estas razones que brevemente se han descrito, era imprescindible incluir la creación de una Agencia Española de Supervisión de Inteligencia Artificial (AESIA) en la disposición adicional centésima trigésima de la Ley 22/2021, de 28 de diciembre de Presupuestos Generales del Estado para el año 2022.
Según se plantea, la AESIA actuará con plena independencia orgánica y funcional de las administraciones públicas, de forma objetiva, transparente e imparcial. Llevará a cabo medidas destinadas a la minimización de riesgos significativos sobre la seguridad y salud de las personas, y sobre sus derechos fundamentales que puedan derivarse del uso de sistemas de IA.
Así mismo, la agencia se encargará del desarrollo, supervisión y seguimiento de los proyectos enmarcados dentro de la Estrategia Nacional de Inteligencia Artificial, además de aquellos impulsados por la Unión Europea, en particular los relativos al desarrollo normativo sobre la IA y sus posibles usos.
¿Dónde se ubicará?
De cara a seleccionar la ubicación de la agencia, el Real Decreto 209/2022, del 22 de marzo establece el procedimiento a través del cual se determinará el término municipal en el que se ubicará su sede física.
La agencia funcionará como una autoridad pública independiente encargada de garantizar a la sociedad, desde la perspectiva de servicio público, la calidad, seguridad, eficacia y correcta información de los sistemas basados en IA, desde su investigación hasta su utilización. Para ello dispondrá de mecanismos objetivos de evaluación, certificación y acreditación de los sistemas basados en IA, cuya ausencia actual planteábamos al comienzo de este artículo. La elección de la sede física de la AESIA corresponderá a una comisión consultiva ya creada.
Sea cual sea el municipio en el que se instale, su funcionamiento tendrá que ajustarse estrictamente a todos y cada uno de los anteriores principios. Por tanto, no parece oportuno que las diferentes candidaturas que se postulen para albergar su sede vengan avaladas por empresas del sector, ya sean nacionales o internacionales. La intervención directa o indirecta de estas compañías podría poner en tela de juicio la necesaria independencia de la agencia.
Cosa distinta es que el sector empresarial, que desempeña un papel clave en todo lo concerniente al desarrollo de la IA, avale y respalde la iniciativa gubernamental acerca de la creación de la AESIA, pero sin apostar por una ubicación concreta. Pero la AESIA no puede quedarse solo en una agencia nacional que actúe de manera aislada. Deberá alinearse con la estructura orgánica que la Unión Europea diseñe, particularmente con la futura Junta Europea de Inteligencia Artificial.
La Ley de la Inteligencia Artificial, persigue definir una métrica para evaluar el impacto social de los algoritmos en el sector industrial
La agencia también deberá ajustarse a la legislación europea. Ya hay un borrador de reglamento del Parlamento y del Consejo Europeo que establece normas armonizadas en materia de IA. La conocida como Ley de la Inteligencia Artificial, persigue definir una métrica para evaluar el impacto social de los algoritmos en el sector industrial, exigir la transparencia algorítmica, su explicabilidad y acreditar su calidad ética.
Como conclusión, respondiendo a la pregunta que planteábamos al principio, la AESIA no solo es imprescindible sino que necesitamos que empiece a funcionar tan pronto como sea posible de manera independiente, con credibilidad y con medios suficientes. Pero nada de ello será eficaz sin una legislación que regule la producción, uso y funcionamiento de los sistemas basados en IA; que asegure y proteja a las personas y que esté tan consensuada en el ámbito europeo como sea posible.
José Luis Verdegay Galdeano, es catedrático de Ciencia de la Computación e Inteligencia Artificial, Universidad de Granada. Este artículo fue publicado originalmente en The Conversation. Lea el original.
COMENTARIOS