Siglo XXI
«La IA podría ser utilizada tanto para el bien como para el mal»
Artículo
Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).
COLABORA2024
Artículo
El rápido avance de la inteligencia artificial ha abierto un abanico de oportunidades a nivel mundial: desde agilizar los diagnósticos médicos y detectar fraudes, hasta optimizar la gestión de riesgos y la toma de decisiones financieras, así como mejorar la eficiencia laboral mediante la automatización de tareas. ¿Estamos en un punto en el que podemos depositar nuestra confianza plena en las máquinas? Pier Luigi Dal Pino, director de asuntos gubernamentales de Microsoft en Europa, considera que sí. «Esta herramienta es una oportunidad única para la humanidad», afirma en una conferencia de la Universidad Pontificia de Comillas. Pero antes de entregarnos por completo a esta tecnología hay que apuntalar aún más el desarrollo de algoritmos que no sean discriminatorios o sesgados.
Elon Musk aseguró que la inteligencia artificial (IA) es «potencialmente la mayor amenaza contra la civilización». ¿Lo es?
La inteligencia artificial es una herramienta. Y así, como cualquier herramienta, podría ser utilizada tanto como para el bien como para el mal. Microsoft aboga por un enfoque equilibrado que reconozca los posibles riesgos, pero también el enorme potencial positivo de la IA para mejorar la vida de las personas y las organizaciones. El garantizar que la IA sea utilizada de manera correcta y ética es trabajo de todos nosotros y, para ello, la clave está en la gobernanza, la regulación y la educación.
¿Qué significa la ética en el contexto de la IA?
La ética es una cuestión clave en la era de la inteligencia artificial. Los principios y valores que guíen el desarrollo y uso de la inteligencia artificial deben asegurar un enfoque inclusivo donde el mayor número de personas posible se beneficie de su potencial. Es necesario que el desarrollo y uso de la IA respete los derechos humanos y no actúe en detrimento de las personas. Es fundamental que las organizaciones y los individuos involucrados en el desarrollo e implementación de la IA se adhieran a estos principios éticos para garantizar que la tecnología se utilice de manera que promueva el bienestar y la justicia social.
¿Cómo se lucha contra los sesgos o prejuicios que se pueden generar?
La inteligencia artificial está basada en la creación de sistemas capaces de realizar tareas que normalmente requieren inteligencia humana, como son el aprendizaje, el razonamiento, la percepción o la comprensión del lenguaje natural. Es notable destacar que, si bien la IA puede realizar tareas de manera independiente, está creada por humanos y es empleada por humanos. Así, la herramienta puede incorporar sesgos o prejuicios humanos a través de factores como su entrenamiento, su diseño o su interacción con el ser humano. Por ello, es crucial que los desarrolladores y usuarios de sistemas de IA sean conscientes de estos riesgos y trabajen activamente para mitigar los mismos y promover la equidad y la justicia. En este sentido, Microsoft, por ejemplo, proporciona guías y marcos para ayudar a garantizar que la IA se use de manera responsable y ética.
«La herramienta puede incorporar sesgos o prejuicios a través de factores como su entrenamiento, su diseño o su interacción con el ser humano»
¿Cómo se crean algoritmos que no sean discriminatorios o sesgados hacia ciertos grupos?
Generar algoritmos que no sean discriminatorios o sesgados es un desafío importante en el campo de la IA. Este debe ser el producto de un trabajo de gobernanza relevante entre los diversos sectores de la sociedad a nivel tanto nacional como internacional. Un trabajo sustancial debe provenir de la industria, asegurando que los conjuntos de datos utilizados sean representativos de la diversidad de la población, teniendo en cuenta variables como el género, la edad, la etnia, entre otros muchos factores cruciales. Además, es esencial que los algoritmos diseñados sean transparentes y seguros. Asimismo, los poderes públicos juegan un papel fundamental, favoreciendo un marco regulatorio ético y responsable que promueva la equidad y la justicia. De igual modo, el ámbito académico debe participar de manera activa para favorecer una educación y formación continua para la capacitación de los científicos en prácticas éticas y en la identificación y mitigación de sesgos.
En ocasiones, el programador no tiene conocimientos de historia o filosofía, por lo que no puede interpretar los sesgos de los datos que introduce para dar instrucciones al algoritmo que está entrenando. ¿Se le tendrá que enseñar?
La educación juega un papel crucial en el uso ético de la inteligencia artificial. Es esencial desarrollar una comprensión profunda de los principios éticos y las prácticas responsables que deben guiar el desarrollo e implementación de la IA, así como su uso. La educación en IA debe incluir no solo aspectos técnicos, sino también consideraciones éticas, sociales y legales para garantizar que la tecnología se utilice en beneficio de la sociedad. Desde la industria, estamos comprometidos a proporcionar las herramientas y recursos necesarios para que las personas puedan aprender y utilizar la IA de manera responsable. Por supuesto, los usuarios juegan un papel igual de importante, pues son los responsables de realizar un uso ético y seguro de la herramienta.
«La educación en IA debe incluir no solo aspectos técnicos, sino también consideraciones éticas, sociales y legales»
¿Cómo se puede garantizar que la IA se use para promover la justicia social y no para exacerbar las desigualdades existentes?
Tenemos muchos motivos para ser optimistas con la implementación de la IA y su impacto positivo en todos los ámbitos de la sociedad, si bien el desarrollo de esta debe estar basado en principios. Principios como la justicia, la seguridad, la privacidad y la inclusión se erigen como pilares para asegurar el potencial benéfico de la inteligencia artificial. De igual modo, la transparencia y los mecanismos de rendición de cuentas deben estructurar nuestra relación con la herramienta, pues solo a través de la ética conseguiremos promover la justicia social impulsada por la tecnología.
Mucho se habla de la excesiva regulación que hay en Europa en temas relacionados con tecnología. ¿La regulación europea llega muy pronto?
La regulación europea sobre IA ha sido reconocida mundialmente por ser pionera y representa un paso importante hacia la creación de un marco de gobernanza global. La Comisión Europea publicó su borrador de regulación sobre la IA en 2021, convirtiéndose en la primera entidad gubernamental en el mundo en pasar una ley específica para el desarrollo y uso de la IA. Este enfoque proactivo de Europa busca establecer estándares y prácticas que puedan servir como modelo a nivel global, similar a cómo el Reglamento General de Protección de Datos (RGPD) de la UE se convirtió en un estándar global en 2018. Además, esta regulación no solo aborda cuestiones de seguridad y protección de derechos fundamentales, sino que también tiene el potencial de fomentar beneficios sociales, crecimiento económico y mejorar la innovación y competitividad global de la UE. De igual modo, fomenta el desarrollo de la IA al establecer claridad y directrices para las empresas y desarrolladores, permitiéndoles innovar dentro de un marco ético y legal definido. Además, puede ayudar a prevenir problemas, proporcionando una estructura para la adaptación y mejora continua a medida que la tecnología evoluciona.
COMENTARIOS