LA INTELIGENCIA ARTIFICIAL NO ES OBJETIVA NI NEUTRAL: PALABRAS DEL PAPA EN LA REUNIÓN CONJUNTA DEL G7 (14/06/2024)

El Papa Francisco intervino, en la tarde de este 14 de junio, en la sesión conjunta de la cumbre del G7 en Borgo Egnazia, Apulia, al sur de Italia. Es el primer Papa que participa en una cumbre de los “Grandes de la Tierra” y habló de la inteligencia artificial (IA): una “herramienta fascinante” pero al mismo tiempo “tremenda”, expresó, dado que es capaz de aportar beneficios o causar daños como todas las “herramientas” creadas por el hombre desde el principio de los tiempos. Compartimos a continuación el texto de su discurso, traducido del italiano:

Un instrumento fascinante y tremendo

Estimadas señoras, ilustres señores:

Me dirijo hoy a ustedes, líderes del Foro Intergubernamental del G7, con una reflexión sobre los efectos de la inteligencia artificial en el futuro de la humanidad.

«La Sagrada Escritura atestigua que Dios ha dado a los hombres su Espíritu para que tengan “sabiduría, inteligencia y ciencia en toda clase de trabajos” (Ex 35,31)» [1]. La ciencia y la tecnología son, por lo tanto, productos extraordinarios del potencial creativo de nosotros, los seres humanos [2].

Ahora bien, es precisamente a partir del uso de este potencial creativo que Dios nos ha dado que se origina la inteligencia artificial.

Ésta última, como sabemos, es un instrumento extremadamente poderoso, que se emplea en muchísimas áreas de la actividad humana: de la medicina al mundo laboral, de la cultura al ámbito de la comunicación, de la educación a la política. Y es ahora lícito hacer hipótesis de que su uso influirá cada vez más en nuestro modo de vivir, en nuestras relaciones sociales y en el futuro, incluso en la manera en que concebimos nuestra identidad como seres humanos [3].

El tema de la inteligencia artificial es, sin embargo, a menudo percibido de modo ambivalente: por una parte, entusiasma por las posibilidades que ofrece; por otra, genera temor ante las consecuencias que permite presagiar. A este respecto se puede decir que todos nosotros estamos, aunque en diferente medida, atravesados por dos emociones: somos entusiastas, cuando imaginamos los progresos que se pueden derivar de la inteligencia artificial, pero, al mismo tiempo, estamos atemorizados cuando constatamos los peligros inherentes a su uso [4].

No podemos, por otra parte, dudar que la llegada de la inteligencia artificial representa una auténtica revolución cognitiva-industrial, que contribuirá a la creación de un nuevo sistema social caracterizado por complejas transformaciones de época. Por ejemplo, la inteligencia artificial podría permitir una democratización del acceso al saber, el progreso exponencial de la investigación científica, la posibilidad de delegar a las máquinas los trabajos desgastantes; pero, al mismo tiempo, podría traer consigo una mayor injusticia entre naciones avanzadas y naciones en vías de desarrollo, entre clases sociales dominantes y clases sociales oprimidas, poniendo así en peligro la posibilidad de una “cultura del encuentro” y favoreciendo una “cultura del descarte”.

La magnitud de estas complejas transformaciones está vinculada obviamente al rápido desarrollo tecnológico de la misma inteligencia artificial.

Precisamente este vigoroso avance tecnológico hace de la inteligencia artificial un instrumento fascinante y tremendo al mismo tiempo e impone una reflexión a la altura de la situación.

En tal dirección tal vez se podría partir de la constatación de que la inteligencia artificial es ante todo un instrumento. Y resulta espontáneo afirmar que los beneficios o los daños que esta traerá dependerán de su empleo.

Esto es seguramente cierto, porque ha sido así con cada herramienta construida por el ser humano desde la noche de los tiempos.

Nuestra capacidad de construir herramientas, en una cantidad y complejidad que no tiene igual entre los seres vivos, hace hablar de una condición tecno-humana. El ser humano siempre ha mantenido una relación con el ambiente mediada por los instrumentos que producía poco a poco. No es posible separar la historia del hombre y de la civilización de la historia de dichos instrumentos. Algunos han querido leer en todo eso una especie de falta, un déficit del ser humano, como si, a causa de dicha carencia, estuviera obligado a dar vida a la tecnología [5]. Una mirada atenta y objetiva en realidad nos muestra lo contrario. Vivimos una condición de avance respecto a nuestro ser biológico; somos seres desbalanceados hacia el fuera-de-nosotros, más aún, radicalmente abiertos al más allá. De aquí se origina nuestra apertura a los demás y a Dios; de aquí nace el potencial creativo de nuestra inteligencia en términos de cultura y de belleza; de aquí, por último, se origina nuestra capacidad técnica. La tecnología es así una huella de nuestro avance.

Sin embargo, el uso de nuestras herramientas no siempre está dirigido unívocamente al bien. Aún cuando el ser humano siente dentro de sí una vocación al más allá y al conocimiento vivido como instrumento de bien al servicio de los hermanos y hermanas, y de la casa común (cf. Gaudium et spes, 16), esto no siempre sucede. Es más, no pocas veces, precisamente gracias a su radical libertad, la humanidad ha pervertido los fines de su propio ser, transformándose en enemiga de sí misma y del planeta [6]. La misma suerte pueden tener los instrumentos tecnológicos. Solamente si se garantiza su vocación al servicio de lo humano, los instrumentos tecnológicos revelarán no sólo la grandeza y la dignidad única del ser humano, sino también el mandato que éste último ha recibido de “cultivar y cuidar” (cf. Gen 2,15) el planeta y a todos sus habitantes. Hablar de tecnología es hablar de lo que significa ser humanos y, por tanto, de esa nuestra condición única entre libertad y responsabilidad, es decir, quiere decir hablar de ética.

Cuando nuestros antepasados, de hecho, afilaron piedras de sílex para hacer cuchillos, los usaron tanto para cortar pieles para vestirse como para matarse unos a otros. Lo mismo podría decirse de otras tecnologías mucho más avanzadas, como la energía producida por la fusión de los átomos, como ocurre en el Sol, que podría utilizarse ciertamente para producir energía limpia y renovable, pero también para reducir nuestro planeta a un montón de cenizas.

La inteligencia artificial, sin embargo, es una herramienta aún más compleja. Yo casi diría que es una herramienta sui generis. Así, mientras que el uso de una herramienta simple (como un cuchillo) está bajo el control del ser humano que lo utiliza y sólo de éste último depende su buen uso, la inteligencia artificial, en cambio, puede adaptarse de forma autónoma a la tarea que se le asigne y, si se diseña de esa manera, tomar decisiones independientes del ser humano para alcanzar el objetivo fijado [7].

Conviene recordar siempre que la máquina puede, en algunas formas y con estos nuevos medios, elegir por medio de algoritmos. Lo que hace la máquina es una elección técnica entre varias posibilidades y se basa ya sea en criterios bien definidos o en inferencias estadísticas. El ser humano, en cambio, no sólo elige, sino que en su corazón es capaz de decidir. La decisión es un elemento que podríamos definir como el más estratégico de una elección y requiere una valoración práctica. A veces, frecuentemente en la difícil tarea de gobernar, estamos llamados a decidir con consecuencias incluso para muchas personas. Desde siempre la reflexión humana habla a este propósito de sabiduría, la phronesis de la filosofía griega y, al menos en parte, la sabiduría de la Sagrada Escritura. Frente a los prodigios de las máquinas, que parecen saber elegir de manera independiente, debemos tener bien claro que al ser humano le debe corresponder siempre la decisión, incluso con los tonos dramáticos y urgentes con que a veces ésta se presenta en nuestra vida. Condenaríamos a la humanidad a un futuro sin esperanza, si substrajéramos a las personas la capacidad de decidir sobre sí mismas y sobre sus vidas, condenándolas a depender de las elecciones de las máquinas. Necesitamos garantizar y proteger un espacio de control significativo del ser humano sobre el proceso de elección utilizado por los programas de inteligencia artificial: en ello está en juego la misma dignidad humana.

Precisamente sobre este tema permítanme insistir: en un drama como el de los conflictos armados, es urgente replantearse el desarrollo y la utilización de dispositivos como las llamadas “armas letales autónomas” para prohibir su uso, empezando ya por un compromiso efectivo y concreto para introducir un control humano cada vez mayor y significativo. Ninguna máquina debería elegir jamás el quitar la vida a un ser humano.

Hay que añadir, además, que el buen uso, al menos de las formas avanzadas de inteligencia artificial, no estará plenamente bajo el control ni de los usuarios ni de los programadores que definieron sus objetivos iniciales en el momento de su creación. Y esto es tanto más cierto en cuanto que es muy probable que, en un futuro no lejano, los programas de inteligencias artificiales puedan comunicarse directamente unos con otros, para mejorar su performance. Y, si en el pasado, los seres humanos que crearon herramientas simples vieron su existencia transformada por estos últimos – el cuchillo les permitió sobrevivir al frío, pero también desarrollar el arte de la guerra –, ahora que los seres humanos han creado un instrumento complejo, verán que este transformará aún más su existencia [8].

El mecanismo básico de la inteligencia artificial

Quisiera ahora detenerme brevemente en la complejidad de la inteligencia artificial. Esencialmente, la inteligencia artificial es una herramienta diseñada para resolver un problema y funciona mediante un concatenamiento lógico de operaciones algebraicas, realizado con base en categorías de datos, que se comparan para descubrir correlaciones, mejorando su valor estadístico, gracias a un proceso de autoaprendizaje, basado en la búsqueda de datos adicionales y la auto-modificación de sus procedimientos de cálculo.

La inteligencia artificial está diseñada de este modo para resolver problemas específicos, pero para quienes la utilizan es a menudo irresistible la tentación de obtener, a partir de las soluciones puntuales que ella propone, deducciones generales, incluso de orden antropológico.

Un buen ejemplo es el uso de programas diseñados para ayudar a los magistrados en las decisiones relativas a la concesión de prisión domiciliaria a detenidos que están cumpliendo una condena en una institución penitenciaria. En este caso, se pide a la inteligencia artificial que prevea la probabilidad de reincidencia del crimen cometido por un condenado a partir de categorías prefijadas (tipo de delito, comportamiento en prisión, evaluación psicológica y otros) lo que permite a la inteligencia artificial tener acceso a categorías de datos relacionados con la vida privada del detenido (origen étnico, nivel educativo, línea de crédito, etc.). El uso de tal metodología – que a veces corre el riesgo de delegar de facto a una máquina la última palabra sobre el destino de una persona – puede llevar implícitamente consigo la referencia a los prejuicios inherentes a las categorías de datos utilizados por la inteligencia artificial.

El ser clasificado en un cierto grupo étnico o, más prosaicamente, el haber cometido años antes una infracción menor (el no haber pagado, por ejemplo, una multa por estacionarse en zona prohibida), influirá, de hecho, en la decisión acerca de la concesión de la prisión domiciliaria. Por el contrario, el ser humano está siempre en evolución y es capaz de sorprender con sus acciones, algo que la máquina no puede tener en cuenta.

Hay que hacer presente también que aplicaciones similares a ésta apenas citada sufrirán una aceleración gracias al hecho de que los programas de inteligencia artificial estarán cada vez más dotados de la capacidad de interactuar directamente con los seres humanos (chatbots), sosteniendo conversaciones y estableciendo relaciones de cercanía con ellos, con frecuencia muy agradables y tranquilizadoras, ya que tales programas de inteligencia artificial están diseñados para aprender a responder, de forma personalizada, a las necesidades físicas y psicológicas de los seres humanos.

Olvidar que la inteligencia artificial no es otro ser humano y que ésta no puede proponer principios generales, es a menudo un grave error que tiene su origen en la profunda necesidad de los seres humanos de encontrar una forma estable de compañía, o bien de un supuesto subconsciente, es decir, del supuesto de que las observaciones obtenidas mediante un mecanismo de cálculo estén dotadas de las cualidades de certeza indiscutible y de universalidad indudable.

Esta suposición, sin embargo, es arriesgada, como demuestra el examen de los límites intrínsecos del cálculo mismo. La inteligencia artificial usa operaciones algebraicas que se realizan según una secuencia lógica (por ejemplo, si el valor de X es superior al de Y, multiplica X por Y; de otra forma divide X por Y). Este método de cálculo – el llamado “algoritmo” – no está dotado ni de objetividad ni de neutralidad [9]. Al estar de hecho basado en el álgebra, puede examinar sólo realidades formalizadas en términos numéricos [10].

No hay que olvidar, además, que los algoritmos diseñados para resolver problemas muy complejos son tan sofisticados que hacen muy difícil a los propios programadores la comprensión exacta de cómo estos sean capaces de alcanzar sus resultados. Esta tendencia a la sofisticación corre el riesgo de acelerarse notablemente con la introducción de computadoras cuánticas que no operan con circuitos binarios (semiconductores o microchips), sino según las leyes, bastante articuladas, de la física cuántica. Por otra parte, la continua introducción de microchips cada vez más eficaces se ha convertido ya en una de las causas del predominio del uso de la inteligencia artificial por parte de las pocas naciones que disponen de ella.

Sean más o menos sofisticadas, la calidad de las respuestas que los programas de inteligencia artificial pueden dar depende en última instancia de los datos que manejan y de cómo estos últimos son estructurados.

Me permito señalar, finalmente, un último ámbito en el que emerge claramente la complejidad del mecanismo de la llamada inteligencia artificial generativa (Generative Artificial Intelligence). Nadie duda de que hoy en día están a disposición magníficos instrumentos de acceso al conocimiento que permiten incluso el autoaprendizaje (self-learning) y el autoentrenamiento (self-tutoring) en una gran cantidad de campos. Muchos de nosotros nos hemos quedado sorprendidos por las aplicaciones fácilmente accesibles en línea para escribir un texto o producir una imagen sobre cualquier tema o materia. Particularmente atraídos por esta perspectiva están los estudiantes que, cuando deben preparar los trabajos, hacen un uso desproporcionado.

Estos alumnos, que a menudo están mucho más preparados y acostumbrados al uso de la inteligencia artificial que sus profesores, olvidan, sin embargo, que la llamada inteligencia artificial generativa, en sentido estricto, no es propiamente “generativa”. Ésta última, en realidad, busca en los macrodatos (big data) información y la confecciona en el estilo que se le ha pedido. No desarrolla conceptos o análisis nuevos. Repite lo que encuentra, dándole una forma atractiva. Y cuanto más repetida encuentra una noción o una hipótesis, más la considera legítima y válida. Más que “generativa”, ésta es más bien “reforzadora”, en el sentido de que reordena los contenidos existentes, contribuyendo a consolidarlos, muchas veces sin controlar si tienen errores o prejuicios.

De este modo, no sólo se corre el riesgo de legitimar las fake news y robustecer la ventaja de una cultura dominante, sino de minar también el proceso educativo en ciernes (in nuce). La educación, que debería dar a los estudiantes la posibilidad de una reflexión auténtica, corre el riesgo de reducirse a una repetición de nociones, que se considerarán cada vez más incontestables, simplemente a causa de su continua proposición [11].

Poner de nuevo en el centro la dignidad de la persona en vista de una propuesta ética compartida

A lo que ya hemos dicho ahora se añade una observación más general. La época de innovación tecnológica que estamos atravesando, en efecto, se acompaña de una particular e inédita coyuntura social: sobre los grandes temas de la vida social es cada vez más difícil encontrar acuerdos. Incluso en comunidades caracterizadas por una cierta continuidad cultural, se crean con frecuencia encendidos debates y enfrentamientos que hacen difícil producir reflexiones y soluciones políticas compartidas, orientadas a la búsqueda de lo que es bueno y justo. Además de la complejidad de las legítimas visiones que caracterizan a la familia humana, emerge un factor que parece acomunar estas distintas instancias. Se registra como una pérdida o al menos un eclipse del sentido de lo humano y una aparente insignificancia del concepto de dignidad humana [12]. Pareciera que se está perdiendo el valor y el profundo significado de una de las categorías fundamentales de Occidente: la categoría de persona humana. Y es así que, en esta época en la que los programas de inteligencia artificial cuestionan al ser humano y su actuar, precisamente la debilidad del ethos vinculado a la percepción del valor y de la dignidad de la persona humana corre el riesgo de ser el mayor daño (vulnus) en la implementación y el desarrollo de estos sistemas. No debemos olvidar, de hecho, que ninguna innovación es neutral. La tecnología nace para un objetivo y, en su impacto en la sociedad humana, representa siempre una forma de orden en las relaciones sociales y una disposición de poder, que habilita a alguien a realizar determinadas acciones e impide a los demás realizar otras. Esta dimensión constitutiva de poder de la tecnología incluye siempre, de una manera más o menos explícita, la visión del mundo de quien la ha realizado o desarrollado.

Esto vale también para los programas de inteligencia artificial. Con el fin de que estos últimos sean instrumentos para la construcción del bien y de un futuro mejor, deben estar siempre ordenados al bien de todo ser humano. Deben tener una inspiración ética.

La decisión ética, de hecho, es aquella que tiene en cuenta no sólo los resultados de una acción, sino también los valores en juego y los deberes que se derivan de esos valores. Por esto he acogido con satisfacción la firma en Roma, en 2020, de la Rome Call for AI Ethics [13] y su apoyo a esa forma de moderación ética de los algoritmos y de los programas de inteligencia artificial que he llamado “algorética” [14]. En un contexto plural y global, en el que se muestran también las sensibilidades diversas y jerarquías plurales en las escalas de valores, parecería difícil encontrar una única jerarquía de valores. Pero en el análisis ético podemos recurrir también a otros tipos de instrumentos: si nos cuesta definir un solo conjunto de valores globales, podemos sin embargo encontrar principios compartidos con los cuales afrontar y disminuir eventuales dilemas y conflictos en el vivir.

Por esta razón ha nacido la Rome Call: en el término “algorética” se condensan una serie de principios que se revelan como una plataforma global y plural capaz de encontrar el apoyo de las culturas, las religiones, las organizaciones internacionales y las grandes empresas protagonistas de este desarrollo.

La política que se necesita

No podemos, por tanto, ocultar el riesgo concreto, porque es inherente a su mecanismo fundamental, de que la inteligencia artificial limite la visión del mundo a realidades que pueden expresarse en números y encerradas en categorías preestablecidas, eliminando la aportación de otras formas de verdad e imponiendo modelos antropológicos, socioeconómicos y culturales uniformes. El paradigma tecnológico encarnado por la inteligencia artificial corre el riesgo, entonces, de dar espacio a un paradigma mucho más peligroso, que ya he identificado con el nombre de “paradigma tecnocrático” [15]. No podemos permitir que un instrumento tan poderoso e indispensable como la inteligencia artificial refuerce tal paradigma, sino que más bien, debemos hacer de la inteligencia artificial un baluarte precisamente contra su expansión.

Y es precisamente aquí donde es urgente la acción política, como recuerda la Encíclica Fratelli tutti. Ciertamente «para muchos la política hoy es una mala palabra, y no se puede ignorar que detrás de este hecho están a menudo los errores, la corrupción, la ineficiencia de algunos políticos. A esto se añaden las estrategias que buscan debilitarla, sustituirla por la economía o dominarla con alguna ideología. Y, sin embargo, ¿puede funcionar el mundo sin política? ¿Puede encontrar un camino eficaz hacia la fraternidad universal y la paz social sin una buena política?» [16].

Nuestra respuesta a estas últimas preguntas es: ¡no! ¡La política sirve! Quiero reiterar en esta ocasión que «ante tantas formas de política mezquinas y tendientes al interés inmediato [...], la grandeza política se muestra cuando, en momentos difíciles, se obra con base en grandes principios y pensando en el bien común a largo plazo. Al poder político le cuesta mucho asumir este deber en un proyecto de nación y más aún en un proyecto común para la humanidad presente y futura» [17].

Estimadas señoras, ilustres señores:

Esta reflexión mía sobre los efectos de la inteligencia artificial en el futuro de la humanidad nos lleva así a la consideración de la importancia de la “sana política” para mirar con esperanza y confianza nuestro futuro. Como he dicho en otra ocasión, «la sociedad mundial tiene graves carencias estructurales que no se resuelven con parches o soluciones rápidas meramente ocasionales. Hay cosas que deben ser cambiadas con replanteamientos de fondo y transformaciones importantes. Sólo una sana política podría liderarlo, involucrando a los más diversos sectores y a los saberes más variados. De esa manera, una economía integrada en un proyecto político, social, cultural y popular que tienda al bien común puede “abrir el camino a oportunidades diferentes, que no implican detener la creatividad humana y su sueño de progreso, sino más bien canalizar esa energía de una nueva forma” (Laudato si’, 191)» [18].

Este es precisamente el caso de la inteligencia artificial. Corresponde a cada uno hacer un buen uso de ella, y corresponde a la política crear las condiciones para que ese buen uso sea posible y fructífero.

Gracias.


[1] Mensaje para la 57 Jornada Mundial de la Paz (1 enero 2024), 1.

[2] cf. ibid.

[3] cf. ibid., 2.

[4] Esta ambivalencia ya había sido advertida por el Papa San Pablo VI en su Discurso al personal del “Centro de Automatización de Análisis Lingüísticos” del Aloisiano de Gallarate (19 junio 1964).

[5] cf. A. Gehlen, El hombre. Su naturaleza y su lugar en el mundo, Milán 1983, 43.

[6] Carta enc. Laudato si’ (24 mayo 2015), 102-114.

[7] cf. Mensaje para la 57 Jornada Mundial de la Paz (1 enero 2024), 3.

[8] Las ideas de Marshall McLuhan y John M. Culkin son particularmente relevantes para comprender las consecuencias del uso de la inteligencia artificial.

[9] cf. Discurso a los participantes en la Plenaria de la Pontificia Academia para la Vida (28 febrero 2020).

[10] cf. Mensaje para la 57 Jornada Mundial de la Paz (1 enero 2024), 4.

[11] cf. ibid., 3 y 7.

[12] cf. Dicasterio para la Doctrina de la Fe, Declaración Dignitas infinita sobre la dignidad humana (2 abril 2024).

[13] cf. Discurso a los participantes en la Plenaria de la Pontificia Academia para la Vida (28 febrero 2020).

[14] cf. Discurso a los participantes en el Congreso “Promoting Digital Child Dignity – From Concept to Action” (14 noviembre 2019); Discurso a los participantes en la Plenaria de la Pontificia Academia para la Vida (28 febrero 2020).

[15] Para una exposición más amplia, remito a mi Carta encíclica Laudato si’ sobre el cuidado de la casa común del 24 mayo de 2015.

[16] Carta enc. Fratelli tutti sobre la fraternidad y la amistad social (3 octubre 2020), 176.

[17] ibid., 178.

[18] ibid., 179.

Comentarios