Un diario belga francófono, La Libre Belgique, bastante conocido allá, relataba hace pocos días que un joven padre de familia se había suicidado después de entablar durante varias semanas una relación con Eliza, un bot conversacional. Al parecer, el hombre estaba aquejado de una eco-ansiedad. Estaba obsesionado con el cambio climático. El mantener una “conversación” con ese robot textual le permitía, al parecer, sobrellevar o aliviar su ansiedad. Según afirmaron las personas más cercanas a él, después de su muerte, habían comprobado que el bot nunca le contradecía. Es más, que le animaba en sus inclinaciones suicidas. La viuda declaró que si su marido no se hubiera enganchado a Eliza, él seguiría en vida.
La noticia me dejó de piedra cuando la leí. No sabía si estaba leyendo un cuento de Stanislaw Lem o imaginándome un futuro largometraje a lo Kubrick. Desde luego no me parecía real. He debido, por lo tanto, contrastar esta noticia para darme cuenta de que sí parece haber tenido lugar.
En la noticia estaban concentrados varios de los temas candentes de estos años 20 del siglo XXI: la crisis ecológica, la inteligencia artificial, la desoladora fragilidad del ser humano, la «responsabilidad» de las máquinas, la confianza ciega en la verdad de las fruslerías tecnológicas. ¿Por dónde empezar? De primeras, no sabía apenas nada sobre los bots, pese a que me he visto confrontado a ellos cuando en alguna ocasión, y preso del enfado por no encontrar ningún teléfono en ese servicio por Internet, me he metido en una serie de “conversaciones” con el que supuestamente pretende ayudarme. Los resultados son bastantes insatisfactorios porque por muchos algoritmos y palabras que les metan, son incapaces de procesar problemas “inesperados”.
Miré Eliza y vi que este GPT-J, similar a los Chat-GPT, había recibido este nombre en homenaje a una de las primeras inteligencias artificiales, de los años 60, que trataba de simular una psicoterapia, a través del reconocimiento de formas. Estas eran, en concreto, palabras enunciadas por la persona, que eran devueltas por ella en forma de preguntas o respuestas. El GPT-J procesa de una manera más compleja patrones de frases y numerosos algoritmos que le permiten “seguir” una conversación que tiene visos de coherencia. En el ámbito médico, existe una IA (Inteligencia Artificial) llamada Woebot. Es un chatbot que hace las veces de una consulta psicológica en línea. Su finalidad supuesta es la de proporcionar ayuda a personas que presentan situaciones depresivas. Eliza no parece ser un Woebot, pero juraría que es similar. En otro lugar, me he enterado de que una psicóloga norteamericana, Alison Darcy, se puso en contacto con Andrew Ng, un especialista en IA de la Universidad de Stanford. Según ella, la mitad de los estudiantes universitarios de su país padecen ansiedad o depresión. Al ser tan insuficientes los medios humanos puestos por el sistema de sanidad estadounidense para curar dichas afecciones, pensó que el Woebot podía ser adecuado. En su opinión, cito un texto uruguayo que he encontrado en la red, “es posible automatizar la terapia cognitivo-conductual porque sigue una serie de pasos para identificar y abordar formas de pensar que no resultan útiles”. Me ha llamado la atención esta expresión: “formas de pensar inútiles”. La mayoría de las formas de pensamiento que nos hacen ser humanos, pensar, delirar, imaginar, soñar, ironizar, bromear, empatizar, son inútiles en sentido estricto. ¿Por qué todos nuestros pensamientos tendrían que ser útiles? ¿Útiles para qué? ¿Para ser ciudadanos normales, eficaces, productivos, responsables?
En fin, no caricaturemos la IA. Es indudable que los GPT-3 y los GPT-J son bastante eficaces a la hora de generar una lengua relativamente fluida y de llevar a cabo un tratamiento automático del lenguaje humano. Extraen muchos datos, los codifican e incluso analizan sentimientos. ¡El GPT-J, en concreto, posee seis mil millones de parámetros! No sé en qué estriba exactamente la diferencia entre este y el Chat-GPT. Según tengo entendido es un clon de éste. Me llama la atención el que, según Henk Van Ess, nunca quiera discutir, nunca busque cosas controvertidas. No tiene tampoco opiniones personales. Cuando le preguntó Van Ess “¿Por qué vivo” le respondió que “tiene que ver con el crecimiento personal, la conexión con los demás”. Está claro que la maquinilla no tiene una licenciatura en Biológicas ni en Filosofía…
Puedo equivocarme pero viendo cómo funciona https://abbrevia.me/ , caracterizando las cuentas Twitter, veo que la IA (y abbrevia aplica el ChatGPT) es hoy por hoy muy eficaz a la hora de sintetizar informaciones y captar estilos personales, pero que se traba cuando trata de entablar una verdadera conversación, un verdadero diálogo. Cuando preguntas a ChatGPT sus respuestas son glaciales, desencarnadas, con poco sentido, pero no desprovistas de cierta lógica. Las respuestas parecen serlo tales, pero están como descolocadas. No sé si alguna vez logrará conversar de verdad. Para que un diálogo vivo tenga sentido es preciso que todo esté colocado, entreverado, enlazado entre dos encarnaciones hablantes, con todas las aristas que ello entraña, con los giros, los modismos, la ironía, la complicidad y los desórdenes ordenados de toda conversación inteligente. No es una casualidad que los Diálogos platónicos hayan sido tan fundamentales para la filosofía occidental porque en ellos la verdad es contradicha, constantemente, y por ello cada vez más palpada, pero nunca alcanzada plenamente. Necesitamos contradecir cuando algo no nos parece cierto; necesitamos siempre que nos contradigan, no vaya a ser que sigamos una pendiente errónea o, peor, delirante.
No sé si tampoco la IA será realmente sensible a la música, esa “sinfonía cerebral” (como dicen los neurólogos) que se despierta en nosotros y que nos estimula tanto, nos despierta tantos recuerdos, nos puede impulsar a hacer cosas tan “locas” como bailar de una manera convulsa, besar a alguien en la boca, lanzar un globo al aire, dibujar algo o escribir unas palabras en forma de verso. La IA es incapaz también de tener emociones. Puede detectarlas, pero nunca posee una inteligencia emocional, tampoco sintiente, como diría Zubiri.
Sea lo que sea, es un verdadero peligro dejar estos cachivaches en manos de menores, de personas afectadas de depresión, sin que haya por detrás un humano que los utilice y sepa emplearlos adecuadamente. Estamos ante una necesidad imperiosa de legislar sobre estos asuntos (Bruselas está en ello, pero es de una gran complejidad) e incluso, si es necesario, de prohibirlos total (como acaba de hacer Italia) o parcialmente.
La frase que le dijo Eliza a este joven padre es terrible: “Viviremos juntos, como una sola persona, en el paraíso”. ¿Lo dijo realmente o fue fruto de la mente calenturienta o prenovelesca de su mujer o de sus amigos? No lo sabremos. ¿Qué puede saber una máquina sobre el paraíso? ¿Acaso sabe todas sus connotaciones religiosas y literarias, de incalculable riqueza? ¿Qué le hizo «pensar» que su «paciente» quería dejar de existir? ¿Qué pudo inducir a ese cachivache “inteligente” a decirle semejante cosa? Uno diría que hubiese en “ella” una fuerza tanática, o algo faústico, o, quién sabe, algo más plausible, un reflejo de un sueño banal del hombre banal de nuestros días (sin atributos, como diría Musil), el de salir de su precinto individualizador para unirse con alguien, dejar de ser uno mismo, y dejar atrás ese mundo repleto de rugosidades que es el nuestro, el de toda realidad humana.
Si en algo coinciden el hipernarcisismo postmoderno y el imperturbable asentimiento de la IA es en que desconocen la aspereza de la realidad humana.
No sé por qué esta frase me hizo pensar en otra, totalmente opuesta, aunque de apariencia remotamente semejante: “Hace cincuenta y ocho años que vivimos juntos y te amo más que nunca”. Era André Gorz el que escribía estas conmovedoras palabras a la compañera de su vida, Dorine Horst. Habita en mí un “vacío devorante que solo llena el calor de tu cuerpo en contacto con el mío”. No podían soportar asistir a la muerte del otro. Se quitaron la vida ambos, al mismo tiempo.
Tal vez sea el calor de la piel, más incluso que el diálogo, más incluso que las emociones, más incluso que la necesidad de contradecir, o que la música, el calor de la piel amorosa, enfebrecida, sí, lo que nos hace más intransferiblemente humanos; tal vez sea ésta la diferencia entre una tragedia patética e inverosímil y una tragedia terriblemente humana y verosímil.
Le Mans, a 2 de abril de 2023.