Innovación

¿Deberíamos considerar una moral para la inteligencia artificial?

¿Es moralmente aceptable maltratar a una IA solo porque no es humana? A medida que la inteligencia artificial se integra más en nuestras vidas, nuestra interacción con ella abre preguntas que ya no pertenecen solo a la ciencia ficción.

Artículo

¿QUIERES COLABORAR CON ETHIC?

Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).

COLABORA
27
junio
2024

Artículo

En 2015, un robot llamado HitchBot intentó recorrer Estados Unidos haciendo autostop. Su viaje terminó cuando fue encontrado decapitado en Filadelfia. ¿Qué nos dice este acto sobre nuestra relación con las máquinas? ¿Es moralmente aceptable maltratar a una IA solo porque no es humana? A medida que la inteligencia artificial se integra más en nuestras vidas, nuestra interacción con ella abre preguntas que ya no pertenecen solo a la ciencia ficción.

El autor David J. Gunkel, en su libro Robot Rights, propone reconsiderar algo impensable: otorgar derechos morales a las IA y otros artefactos tecnológicos. Esta perspectiva tiene sus raíces en la filosofía de Emmanuel Levinas, situando el punto de partida en el Otro. Según Levinas, la realidad básica del ser humano es su naturaleza moral, no su naturaleza racional. Esta naturaleza moral se desarrolla a partir del encuentro con el Otro en tanto que Otro. De este modo, Gunkel sugiere que debemos repensar la alteridad, en lugar de rastrear las diferencias entre robots y humanos.

Esto nos lleva a reflexionar sobre los deberes indirectos con respecto a las entidades, es decir, deberes que no se deben a una entidad directamente, sino en la medida en que nuestro trato hacia dicha entidad puede influir en nuestras obligaciones hacia los demás o hacia nosotros mismos. Kant, aunque no concedía estatus moral a los animales, afirmaba que los humanos tenían cierta obligación de no hacerles daño porque «quien es cruel con los animales se vuelve duro también en su trato con los hombres».

Kate Darling explica que ciertos comportamientos hacia un robot pueden traumatizarnos o insensibilizarnos. John Danaher sugiere que maltratar a robots sexuales puede alentar a sus usuarios a ignorar las normas de consentimiento. Comportamientos como mentirle a un sistema de IA o destruir un robot sin motivo podrían estar relacionados con problemas psicológicos o conducir al maltrato hacia otras personas o parejas sexuales humanas.

 Comportamientos como mentirle a un sistema de IA o destruir un robot sin motivo podrían estar relacionados con problemas psicológicos

La filosofía de Mark Coeckelbergh sugiere que las entidades están «interrelacionadas» y son «interdependientes», lo que plantea que la consideración moral de los sistemas de IA está ligada con las relaciones sociales entre humanos y robots. Los humanos desarrollamos afecto a ciertos objetos, como un peluche. Así, si una persona tiene un vínculo emocional con una entidad, entonces es digna de consideración moral. Un asistente robot podría formar parte de esta red relacional, y por esa razón debería considerarse su estatus moral. Sin embargo, el valor de una relación suele ser demasiado subjetivo.

A menudo se argumenta que tener inteligencia es una condición suficiente para un estatus moral. Kant afirmaba que la autonomía y la racionalidad fundamentan la dignidad de todos los seres humanos. Sin embargo, la propiedad de ser inteligente no siempre está conectada a la posibilidad de ser tratado moralmente. Los bebés o las personas con discapacidad mental son pacientes morales, incluso si no tienen las capacidades cognitivas de un adulto humano típico. Basarse en la inteligencia podría dar pie a un trato injusto hacia las diferentes entidades.

Algunas corrientes de pensamiento también sugieren que la vida es un criterio relevante para el estatus moral. Para los biocentristas, las plantas tienen que ser tratados moralmente. Una definición amplia de vida, como la de Max Tegmark, define la vida como la capacidad de una entidad de retener su complejidad y replicarse. Según esta definición, algunos sistemas de IA están (artificialmente) vivos y podrían tener un estatus moral similar al de una planta o ecosistema.

Sin embargo, el argumento de la sensibilidad es el más fuerte para defender el estatus moral de una IA. Si una entidad sufre, es suficiente para otorgarle un estatus moral. Según la prueba de clasificación de Turing, una IA sensible debería tener el mismo estatus moral que un ser humano conectado a una máquina de supervivencia. Existen fuertes evidencias para creer que otras entidades sí sufren y que actualmente las estamos tratando injustificadamente.

Irónicamente, el argumento de la sensibilidad tiene implicaciones más inmediatas para la forma en que tratamos a los animales no humanos que para los sistemas de IA. A medida que este debate sigue abierto, nos invita a reflexionar sobre lo que nuestro comportamiento hacia los robots revela sobre nuestra propia ética. Esta discusión no solo reconsidera nuestros límites morales, sino que también nos obliga a enfrentar las complejidades de nuestras interacciones con la tecnología.


Óscar Bodí es director y fundador de Folks Brands.

ARTÍCULOS RELACIONADOS

Los mecanismos de la doble moral

Iñaki Domínguez

Cuando decimos que alguien tiene doble moral significa que no actúa según los valores que supuestamente defiende.

¿Banalizamos la ética?

Roberto R. Aramayo

El autor defiende que los códigos y manuales de buenas prácticas no nos acercan a la idea de virtud.

COMENTARIOS

SUSCRÍBETE A NUESTRA NEWSLETTER

Suscríbete a nuestro boletín semanal y recibe en tu email nuestras novedades, noticias y entrevistas

SUSCRIBIRME