«Nos ha hecho mucho daño la idea de que el mundo digital debía estar totalmente desregulado»
En ‘Artificial’ (Debate), Mariano Sigman y Santiago Bilinkis analizan cómo impacta en nuestro mundo la inteligencia artificial.
Artículo
Si quieres apoyar el periodismo de calidad y comprometido puedes hacerte socio de Ethic y recibir en tu casa los 4 números en papel que editamos al año a partir de una cuota mínima de 30 euros, (IVA y gastos de envío a ESPAÑA incluidos).
COLABORA2024
Artículo
En ‘Artificial’ (Debate), Mariano Sigman y Santiago Bilinkis insisten en que la gente tiene la sensación de que la inteligencia artificial (IA) es una «cosa marciana», cuando en realidad ha sido creada por el propio ser humano. Quizás ahí está una de las claves para entender la compleja relación que se mantiene con esta innovación. «No es la fuente de todos los problemas, pero sí es algo que genera un vínculo bastante contraproducente», responde Sigman. En una conversación a dos voces, como el libro que han escrito, abordan qué supone la IA en el mundo moderno.
¿La clave está en no caer en la tecnofobia —aunque sea difícil porque estamos viendo sus efectos negativos— y no olvidar los beneficios de la IA?
Santiago Bilinkis: Ese es el espíritu del libro. Es una herramienta enormemente poderosa, que está al alcance de todos y que va a traer grandes oportunidades en nuestra vida, nos guste o no, por las buenas y por las malas. La utilización de estas herramientas va a permitir a las personas que aprendan a usarlas bien lograr cosas que sin ellas serían imposibles. Podemos pensarlo como que los seres humanos no somos demasiado veloces para desplazarnos, nos cansamos relativamente rápido, y cuando hicimos una máquina que nos permitía ir mucho más velozmente sin cansarnos, como una bicicleta o un auto, nos pareció fantástico. No nos resultó amenazante. Lo mismo con la fuerza física y nos encantó. Con el pensamiento tenemos una relación un poco distinta. No somos la única especie inteligente, pero somos posiblemente la más. Cuando se empieza a poder potenciar estos aspectos tan idiosincráticamente humanos, se nos despierta un sentimiento de preocupación o de rechazo. Pero reconciliándonos con esa idea, en algún momento nuestra perspectiva va a ser tan entusiasmante como es que hoy a nadie se le ocurriría protestar porque existe el AVE, algo que era completamente inimaginable 150 años atrás.
Pero cuando apareció el tren sí había todo un discurso de miedo ante lo que haría al cuerpo humano ir tan rápido. ¿Es el rechazo a la IA un poco lo mismo o es más complejo por justo eso, porque apela al pensamiento, algo que vemos como propio y único?
Mariano Sigman: Sí, así es, por eso genera tanta animosidad. No deja de ser una ironía que los que más perciben la IA como algo frío son los que luego buscan más tensiones. Desde miedo a enojo, también sorpresa o fascinación. Esto ha pasado siempre. En la música contemporánea –y ya la música tenía mucha tecnología, porque los instrumentos lo son–, aparecieron los sintetizadores, la electrónica, y había esta idea de que iba en contra de la artesanía de la música. Y hoy entendemos que no. La autoría transciende el medio. Decías tecnofobia; siempre hemos tenido una reacción frente a la sorpresa de esas cosas que permiten de repente hacer cosas. Una reacción que no deja de ser un poquito conservadora. Esto pasa en el dominio del arte. La IA permite expresar su voz [la del artista]. En lugar de usar el pincel, usa la conversación.
«La IA tiene la capacidad de sorprendernos»
En cierto modo, podríamos pensar entonces que la IA va en paralelo a una revolución sobre qué es la autoría. No es lo mismo la autoría en la Edad Media que en el siglo XVIII. ¿Quizás estamos en un momento para repensar estos conceptos?
Santiago Bilinkis: Absolutamente. El concepto de autoría ha venido cambiando a lo largo de la historia. Muchos de los edificios y catedrales medievales no llevan la firma de un autor. Después del Renacimiento, la llevan, pero fueron ejecutados por personas que siguieron las instrucciones de quien firma la obra. Y hoy pasa algo parecido. Si yo le digo a ChatGPT «escribe una poesía» y lo hace, posiblemente esa poesía –al haber dado yo una instrucción tan amplia– no tenga ninguna marca mía, sea una obra de bajo valor y que no me pertenece. Si por el contrario –así como un escritor escribía un borrador, corregía y trabajaba hasta tener la obra acabada–, si hago ese mismo trabajo escribiendo un prompt para ChatGPT dando muy detalladas instrucciones sobre cómo quiero que sea esa poesía, reviso esa primera creación que es un borrador y le incorporo cambios y nuevas ideas que se me despiertan a partir de ese primer estímulo que la máquina me devuelve, es una manera absoluta, legítima y propia de encontrar tu propia voz, de ser autor usando la herramienta. El ejemplo más obvio en esto sería el uso de un instrumento musical. La guitarra tiene el potencial de sonar, pero solo suena cuando un humano la ejecuta.
Y siguiendo con autoría y trabajo creativo, ¿cómo se equivocaron tanto las previsiones que se hacían de qué trabajos iba a sustituir la IA? Se pensaba que los creativos eran intocables, que solo afectaría a los rutinarios y automatizables.
M.S.: Primero, porque las predicciones que solemos hacer son extrapolaciones de cosas que ya hemos vivido. Un niño cuando dice «yo sabo» es una equivocación que tiene sentido, porque está pensando que el verbo saber se conjuga como cualquier otro verbo. También pensamos que, si hemos visto algo que cien veces ha sido de una manera, la 101 tiene que ser igual. La tecnología siempre ha ocupado el lugar de las cosas repetitivas. Ahora estamos inventando una que es muy atípica, porque no reemplaza la movilidad o la fuerza; reemplaza lo que percibimos como idiosincrático del ser humano que es el pensamiento.
La IA, que ahora está muy de moda, nace hace 70 años, de una manera muy poética, de soñadores. Acaso podemos crear una máquina que pueda pensar, recordar… Se están preguntando qué es pensar, qué es recordar, qué es sentir. Durante muchos años la IA funcionaba con base en programas y esos programas —por ejemplo, uno que jugaba al ajedrez— podían ser muy sofisticados, pero tenían una lista larguísima de funciones. Tampoco eran imprevisibles, porque hacían exactamente lo que había programado. En cambio, pasa el tiempo, las IA se computan sobre redes neuronales —que funcionan de una manera parecida al cerebro— y aprenden. Porque ya no es una persona que las programa, sino que empiezan a sacar sus propias conclusiones. La IA tiene la capacidad de sorprendernos.
¿Esto hace más difícil aclarar la pregunta sobre hacia dónde va el futuro, sobre qué va a sustituir la IA en el futuro inmediato?
S.B.: El futuro es una creación humana. Por eso, nos resulta importante escribir este libro. Porque es verdad que la IA está avanzando y la dirección de ese avance está fijada por un grupo reducido de personas. El cómo esto interpele la educación o el mundo del trabajo va a requerir de un montón de decisiones humanas. Y hoy buena parte de esos decisores no tienen la tecnología y no están familiarizados. Te pongo un ejemplo: supongamos que la IA no es que reemplace los trabajos humanos, pero aumente la productividad de las personas al doble. Frente a ese escenario hay dos caminos. Uno sería tener la mitad de la población empleada y la mitad desempleada y el otro sería acortar la jornada laboral y que todos trabajemos la mitad pero ganemos lo mismo, porque lo producido sería lo mismo. Ahí te encuentras que ante un hecho con un futuro posible y qué decidamos hacer con ello puede llevar a un mundo fantástico –porque todos estimamos que trabajamos demasiado y nos gustaría hacerlo, pero un poco menos– o un mundo apocalíptico donde la mitad de la población esté estructuralmente desempleada y quien trabaja siga trabajando a destajo. Lo más importante es asumir el futuro como una construcción humana, donde la IA definitivamente moldeará buena parte de los acontecimientos, pero nos queda a los humanos decidir qué hacemos con eso.
«La IA moldeará buena parte de los acontecimientos, pero nos queda a los humanos decidir qué hacemos con eso»
Aquí entra un factor importante: la soberanía digital. Ya no es solo que la IA hable tu idioma –aunque sea uno que hablen 3 millones de personas–, sino también quién está desarrollando todo eso. A Europa lo que nos llega es IA que se está haciendo en EE.UU., con su forma de ver el mundo y de tomar las decisiones allí. ¿Debemos tener cada vez más presente este concepto e implica esto más regulación a nivel estatal o supraestatal, como aspira a hacer la Unión Europea?
M.S.: Son preguntas muy lúcidas, también difíciles de resolver. En general, internet mucho antes de la IA ha crecido sobre una premisa de que la regulación era algo que estaba mal y esa es una idea que es atractiva y es bonita, porque es una especie de oda a un tipo de libertad. Lo que pasa es que en la historia del pacto social hemos entendido que las libertades vienen con ciertas responsabilidades. Pones semáforos. Un algoritmo es como un Fórmula 1 que tiene mucho conocimiento sobre el usuario, sobre sus lugares más vulnerables, y puedes preguntarte si tienen derecho a utilizar esto. Creo que nos han hecho mucho daño con la idea de que el mundo digital debía estar completamente desregulado. Por supuesto, es difícil porque hay que ponerse de acuerdo en esto. Es un ejercicio en el que tienes que pensar y estar de acuerdo con gente que piensa distinto y llegar a consensos, pero esos consensos son deseables y necesarios. La regulación no es solo del Estado, son dilemas que tenemos todos.
Entender que primero las cosas tienen intereses, que vienen de países y de empresas distintas. El crecer de una manera educada, informada. Encontrar una solución que no va a ser prohibir; estas cosas no se pueden prohibir, tienen muchas cosas que son muy buenas. No prohibir el coche, no prohibir el tren, pero con semáforos en la vía pública. Encontrar esa analogía nos va a llevar a un lugar en el que como usuarios estemos emancipados, protegidos, de esas versiones más tóxicas de estas tecnologías. Y esa no es una decisión de la IA, es una decisión humana, y empieza en cada uno de nosotros.
Es ir más allá de que el algoritmo sabe que me gustan los realities de cocina. En la Guerra Fría no se dudaba de que las armas nucleares eran parte del reparto de poderes. ¿Estamos dudando todavía que la IA es parte de cómo se reparte el mundo y marcará nuestro contexto geopolítico inminente?
S.B.: Absolutamente. Hemos vuelto a un mundo multipolar –después de un cierto período donde el mundo estuvo relativamente alineado tras Occidente– y buena parte de la competencia entre naciones será más a través de las patentes. Más los investigadores y los informáticos que los físicos nucleares. En buena medida, quién sea el primero –y qué tipo de aplicaciones– va a moldear el equilibrio geopolítico del mundo. Estados Unidos intenta impedir que China tenga acceso a los chips más avanzados para la construcción de máquinas de IA, China investiga y patenta muchas más investigaciones que EE.UU. y cada uno está buscando por su lado la manera de establecer el control. Y todos los otros países que no son ni EE.UU. ni China tenemos que encontrar nuestro lugar en esa discusión con esta idea de soberanía, incorporando esas herramientas que terceros nos dan.
¿Es posible ponerse al día en esos terceros países como España? ¿Estamos condenados a ir a rebufo o en realidad todo es muy nuevo y es posible llegar a un equilibrio?
M.S.: Muchas veces uno no hace cosas porque se declara incapaz de hacerlas. A veces es imposible, pero otras lo que falta es el atrevimiento. Eso pasa a nivel personal y pasa a nivel sociedad. La IA viene desde la vanguardia tecnológica. Sí hay un rango de oportunidad y eso vale para cualquier persona, para cualquier profesional. Tampoco quiero mirarlo con miedo, quiero explorar cómo me sirve, cómo me puede hacer un periodista mejor, un abogado, un arquitecto.
Entonces, hablando de oportunidades, ¿creéis que no va a ser un elemento para una nueva brecha? Porque ahora quienes dominan son unos cuantos millonarios, que ya son muy ricos, mientras en paralelo en la sociedad se agravan las distancias. ¿Vendrá la guerra de clases del futuro por la IA o esa es una visión demasiado apocalíptica de la tecnología?
S.B.: La tecnología siempre tiene un doble rol. Por un lado, cuando creas un mecanismo capaz de hacer ciertas cosas, divides a los que tienen acceso y los que no. Un buen ejemplo es el teléfono celular. Se habla mucho de la brecha digital, pero también es cierto que es un gran igualador. Porque el que tiene la persona más rica del planeta no es significativamente distinto del que tiene una persona de un barrio humilde de Buenos Aires, a nivel de potencialidad. La brecha no reside en que uno lo tenga y otro no, sino en qué hace cada uno con aquello que tiene. Lo que termina generando la brecha no es necesariamente el aparato, su potencialidad y el acceso al aparato en sí, sino el uso que se haga. En ese sentido, más allá de que haya ciertas compañías que se benefician, todos nosotros como usuarios podemos beneficiarnos también. O no. Y ahí está la decisión que tomemos.
Si por ejemplo la reacción de las escuelas es prohibir la IA, en buena medida lo que los chicos y las chicas hagan de la IA va a depender más de su curiosidad individual y del tipo de estímulos que reciban en su casa. Si por el contrario encontramos la manera de incorporarlo de manera positiva en la enseñanza, universalizamos mucho más un mejor uso. Y ese es el tipo de dilemas que vamos a enfrentar. Son todas decisiones que vamos a tener en los próximos años y tomarlas bien va a ser clave para producir resultados deseables.
COMENTARIOS