Siglo XXI
Inteligencia artificial y sabiduría humana
Hace más de diez años, Stephen Hawking advertía de que la IA podría convertirse en el peor error que podía cometer la humanidad como especie. Para evitarlo, no basta con una ética utilitaria sobre sus riesgos, se requiere una ética responsable sobre sus propósitos. Así lo afirma el escritor y profesor José María Lassalle en este artículo adaptado de su último libro, ‘Civilización artificial’ (Arpa, 2024).
Artículo
Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).
COLABORA2024
Artículo
El reto principal al que nos aboca la inteligencia artificial (IA) es determinar qué rol asignaremos al ser humano cuando se relacione sistémicamente con ella en un futuro que está a la vuelta de la esquina. La razón de la importancia de la IA está en que, así como la máquina de vapor que trajo la Revolución Industrial liberó al ser humano del trabajo físico al introducir masivamente el trabajo intelectual, la IA que promueve la revolución digital le arrebata el dominio exclusivo de este último sin ofrecerle nada a cambio.
Si las previsiones se cumplen y, en 2030, se alcanza una IA «general» que desborde las capacidades cognitivas del ser humano y, en 2050, otra «fuerte» que, además, desarrolle estados mentales propios, estaremos instaurando un nuevo modelo civilizatorio basado en sistemas de IA. Será una civilización artificial en la que convivirán máquinas y humanos, aunque no sabemos de qué manera. Se fundará en un capitalismo cognitivo que habrá extinguido el capitalismo posindustrial. En él las máquinas gestionadas mediante IA serán el nutriente material de la prosperidad colectiva. Pero, también, el soporte que sustentará de facto tanto el poder político como el poder militar. Hablamos, por tanto, de una civilización que pivotará alrededor de una IA que puede convertirse en la medida de todas las cosas. Al menos si el papel que ejercerá en ella el ser humano es relegado por la vía de los hechos debido a la centralidad estructural que ocupará aquella en la gestión de la inmensa mayoría de los asuntos del mundo.
En materia de IA, Estados Unidos y China ya se están comportando como imperios digitales
Este desenlace hipotético está siendo promovido en la actualidad por la competencia geopolítica que Estados Unidos y China libran alrededor de la IA. De hecho, se comportan ya como imperios digitales, por hacer propia la expresión de Anu Bradford. Luchan por la hegemonía global a través de una carrera tecnológica sin cuartel. Quieren llegar el primero a la consecución de una IA fuerte. Piensan que quien lo haga primero tendrá una ventaja civilizatoria que le atribuirá el liderazgo planetario, pues tendrá empresas más competitivas, ejércitos provistos de armas letales autónomas más destructivas y un gobierno con mayor capacidad de control social sobre su pueblo.
La toxicidad geopolítica que arrastra este conflicto alrededor de la IA es el motor del crecimiento exponencial que experimenta en sus capacidades en los últimos años. Esta circunstancia no solo provoca un calentamiento geopolítico global, sino que agrava y explica los conflictos que padecemos como consecuencia del acceso a las materias primas críticas o tierras raras que se producen en los últimos años. Un dato relevante para la estabilidad de las democracias liberales, pues no solo explica por qué se reduce su número sino por qué decrece la calidad de sus instituciones debido al impacto que tiene sobre ellas el aumento de la polarización, la desinformación o el populismo. Fenómenos que se adueñan paulatinamente de ellas y las conducen hacia conflictos irresolubles para los que no sirven los mecanismos clásicos de deliberación humana defendidos por el liberalismo.
Convertida en una herramienta fundamental para el desarrollo de la guerra híbrida que mantienen Estados Unidos y China, la IA progresa conforme a los patrones utópicos, utilitarios y nihilistas que han acompañado su diseño desde que fue puesta en marcha hace siete décadas. Se trata de un diseño que, de no alterarse, conduce a la especie humana hacia un riesgo sistémico de sustitución por las máquinas. No olvidemos que la IA nació como una tecnología que perseguía replicar el cerebro humano sin us limitaciones e imperfecciones. Algo que ha ido escalando en capacidades mediante diversas estrategias innovadoras, pero que siempre ha mantenido constante e inalterado el vector utópico de superar la actividad cognitiva de los seres humanos al tratar de erradicar de ella su inclinación al error y la equivocación.
No podemos seguir desarrollando un proyecto tecnológico que busca que «algo» se convierta en «alguien» consciente sin conciencia
Además, este utopismo original de la IA está relacionado con la tesis hobbesiana que alimenta la ciencia moderna y que proclama a los cuatro vientos que el conocimiento es poder. Un factor relevante para entender la esencia más profunda de la IA y que la convierte en una herramienta que propende hacia la hegemonía y la maximización del poder que aloja en su seno. Sobre todo desde que se ha convertido en la punta de lanza de una revolución digital que hace que proyecte sobre el mundo analógico una voluntad de poder virtual que lo sustituye por otro artificial que adopta la fisonomía de un no-lugar que habita en la nube y que hegemonizan privadamente las plataformas. Esto hace que la IA no sea una tecnología neutra ni tampoco facilitadora de la acción humana. Primero, porque no tiene un porqué detrás que explique para qué la facilita. Y, segundo, porque se desarrolla como una voluntad de poder que se maximiza utilitariamente a ella misma. De hecho, la IA persigue la hegemonía por la hegemonía.
Esto nos sitúa ante un problema central que tiene que ver con la naturaleza misma de los sistemas de IA y la inadecuación de las soluciones regulatorias y éticas que se quieren adoptar para controlar sus riesgos. De ahí el riesgo extraordinario de un desenlace distópico en la línea del que denunciaba hace más de una década Stephen Hawking cuando nos advertía premonitoriamente de que la IA podía convertirse en el mayor error que puede cometer la humanidad como especie. Para evitarlo es fundamental activar la complejidad deliberativa que acompaña el devenir de las democracias liberales y favorecer un debate profundo sobre el sentido que queremos dar a la IA. Solo desde la constatación de este riesgo podrá abordarse una gobernanza realista y un diseño de políticas públicas que busquen garantizar la equidad que debe acompañar el desarrollo de la IA, así como la centralidad humana de su sentido.
Para ello no basta una ética utilitaria de los riesgos sino una ética responsable sobre los propósitos. Una ética que no dé la espalda a la IA sino que le dé sentido. No podemos seguir desarrollando un proyecto tecnológico que busca que «algo» se convierta en «alguien» consciente sin conciencia. Es necesario apostar por una IA que se desarrolle bajo una sabiduría humana con la que se relacione amigablemente y que persiga únicamente el bienestar común de la especie humana. Algo para lo que no basta la ética. Se necesita la teología. Recuperar a Dios y aprender de Él si queremos crear.
COMENTARIOS