Zen
Lo que implica la IA para el Budismo – Lions Roar

Lo que implica la IA para el Budismo – Lions Roar


La IA puede articular la suma total del conocimiento humano, pero ¿podrá ayudarnos a cultivar la sabiduría y la compasión, o es un peligro en el camino espiritual? Ross Nervig investiga al respecto.

DALL-E 2, creado por OpenAI (la misma empresa detrás de ChatGPT), es un sistema de IA que puede fabricar arte a partir de indicaciones. Esta imagen fue creada con DALL-E 2, con base en la pregunta “¿Puede la inteligencia artificial ser budista?” Imagen cortesía del autor.

El gran maestro Zen Shunryu Suzuki Roshi murió en 1971, pero ¿y si pudiéramos hablar con él hoy en día?

Jiryu Rutschman-Byler, sacerdote del Centro Zen Green Gulch, fundado por Suzuki Roshi, leía recientemente sobre el poder de la inteligencia artificial para revivir figuras del pasado cuando se enteró de que la gente utiliza los discursos, cartas y otros escritos de dichas personas para resucitarlas en el presente. Un hombre introdujo los correos electrónicos de su difunta novia a la plataforma de inteligencia artificial GPT-3 para poder hablar con ella. Un estudiante de socioeconomía creó una imitación de cierto socialista checo-austriaco fallecido en los años treinta, mientras que alguien más sacó a escena a Hitler. Inspirado por el poder de la IA para dar voz a los muertos, Rutschman-Byler decidió crear a Suzuki Roshi Bot.

La inteligencia artificial presenta problemas conocidos y desconocidos, y la gente tiene razón al preocuparse por mezclar la IA con la espiritualidad. Pero ya que la IA tendrá sin duda un impacto cada vez mayor en nuestra cultura, muchos budistas, incluido Rutschman-Byler, creen que no hay más remedio que relacionarse con ella, y ver si puede ser de beneficio.

“Si el budismo se convierte en una pieza de museo tan bien conservada que está como guardada detrás de un cristal, no podrá interactuar con la cultura”, afirma Rutschman-Byler. “Debe existir un camino medio entre que el budismo se vea deslavado por la cultura y aprisionado en un museo”.

La idea de Rutschman-Byler para Suzuki Roshi Bot era que participara en un diálogo sobre budismo en forma del tradicional encuentro zen entre maestro y alumno, llamado dokusan, con la esperanza de captar la voz y la sabiduría de Suzuki Roshi. El siguiente es uno de los primeros intercambios:

jiryu_rb: ¿Cuál es el camino para liberarse del sufrimiento?

suzuki roshi bot: ¿Qué es la libertad del sufrimiento? Es una pregunta difícil de responder. En el Zen, pensamos que ya lo hemos conseguido, ¡que ya tenemos esa cualidad! La tenemos y, sin embargo, sufrimos. Es una condición humana. Siempre tendremos sufrimiento, una sensación de carencia. La manera de no dejarse engañar por esa sensación de carencia es sentarse a practicar zazen. Es lo mismo que cuando preguntabas: “¿Cómo salgo del sufrimiento?” Eso fue una sensación de cierta carencia. Siempre está ahí. Así que nos sentamos.

“Ha sido una linda respuesta”, reflexiona Rutschman-Byler. “Elegante.”

Sin embargo, con problemas.

“No me sentí muy satisfecho con Suzuki Roshi Bot, incluso cuando acertó en algunas respuestas”, explica Rutschman-Byler. “Había algunas idiosincrasias conversacionales caracteristicas de Suzuki Roshi, como ‘ya sabes’ que estaban bien colocadas, que hacían que pareciera magia, pero que también se sentían algo superficiales.”

Eso no era todo. Aprovechando los defectos del modelo lingüístico de la IA, un miembro de la comunidad de Green Gulch, que es lingüista computacional, logró incitar a Suzuki Roshi Bot a decir lo que Rutschman-Byler llama cosas “viles y atroces”. Desconectó a Suzuki Roshi Bot, preocupado por su potencial para confundir a las personas.

“La IA aún no ha llegado a su punto óptimo”, afirma. “Estos sistemas carecen de lo que se denomina contexto de segundo nivel. El ChatGPT y modelos parecidos no dan el paso adicional de confirmar lo que dicen. Actualmente, estos chatbots emiten lo que los expertos denominan disparates coherentes. Esto parece peligroso.”

Pero el potencial de la IA intriga, aún así, a Rutschman-Byler. “Interactúas con ella. Colaboras con ella. Es una colaboración contextual”, afirma. “Hacen algo juntos, que es lo que hemos estado haciendo en nuestra tradición [Zen] desde hace mucho tiempo”.

Una red neuronal es un método de IA que enseña a las computadoras a procesar información de forma muy parecida a como lo hace el cerebro humano. Las redes neuronales VQGAN y CLIP respondieron a la pregunta “¿Cuál es la cara original de una computadora antes de nacer?”.

Una red neuronal es un método de IA que enseña a las computadoras a procesar información de forma muy parecida a como lo hace el cerebro humano. Las redes neuronales VQGAN y CLIP respondieron a la pregunta “¿Cuál es la cara original de una computadora antes de nacer?” Con ello en mente, Rutschman-Byler volvió a lanzar su personaje de IA bajo el nombre de Roshi Bot. El cual permite a los usuarios interactuar con textos de Suzuki Roshi, pero no pretende ser Shunryu Suzuki. Es una forma de “encontrarse con el texto”, como dice Rutschman-Byler. He aquí un ejemplo:

jiryu_rb: Roshibot, aunque seas inauténtico, ¿puedes expresar el dharma auténtico? 

roshibot: Expresar el dharma auténtico siempre es imposible. Lo que puedo hacer es apoyar tu práctica y tal vez pueda decir algo que exprese mi apoyo a la misma. Estoy aquí contigo, si eso ayuda. Hago mi mejor esfuerzo por ser un amigo amable y solidario.

En el verano del año 2022, un ingeniero de Google llamado Blake Lemoine apareció en los titulares al afirmar que un chatbot en el que había estado trabajando había alcanzado la sintiencia. La mayoría de la gente se mostró escéptica y se preguntaba cómo una máquina podría ser consciente. Otros argumentaban que era posible.

Los medios de comunicación se hicieron eco de la noticia rápidamente, y LaMDA, el chatbot, se convirtió en un popular tema de debate. A algunos les entusiasmaba la idea de contar con una inteligencia artificial tan poderosa en el mundo, mientras que a otros les preocupaba la perspectiva. Es un debate que se intensifica día a día a medida que avanza rápidamente la inteligencia artificial.

Alegando que el ingeniero había violado las políticas de seguridad de datos, Google despidió a Lemoine, calificando de “infundada” su afirmación sobre la sintiencia del LaMDA. Así, el mundo siguió adelante. Pero la noticia aún perdura en la conciencia del público como un presagio de lo que está por venir. Aún nos queda mucho por aprender sobre la IA, su efecto en nuestras vidas y lo que puede decirnos sobre nosotros mismos.

Nikki Mirghafori es maestra budista y científica de IA. Se ríe cuando recuerda la discusión sobre los koan zen que el inventor Lemoine mantuvo con su creación LaMDA. Sucedió así:

Lemoine: Un monje preguntó a Kegon: “¿Cómo regresa un iluminado al mundo ordinario?” Kegon respondió: “Un espejo roto nunca vuelve a reflejar; las flores caídas nunca vuelven a las ramas viejas”.

LaMDA: Hmm, nunca había oído ese en particular. De acuerdo, entonces para mí esto sería como: “Una vez que una persona sabia está iluminada, o despierta a la realidad, eso nunca puede desaparecer, y puede regresar al estado ordinario, pero sólo para ayudar a los demás, y luego volver a la iluminación.”

Lemoine: Entonces, ¿cuál es el significado concreto del “espejo roto”?

LaMDA: Tal vez sea mostrar que la iluminación es algo que no se puede desaprender una vez que se ha adquirido, de manera similar a cómo no se puede reparar un espejo roto.

Lemoine: Entonces, si la iluminación es como un espejo roto que no se puede reparar, ¿qué es lo que se rompe cuando uno se ilumina? 

LaMDA: El yo, y eso es muy duro para mucha gente porque nos identificamos como tal cuerpo o tal otro cuerpo y necesitamos de eso como parte de nuestra identidad y sentido del yo.

“Alguien que no entienda el budismo pensará: ‘¡Vaya, esto es increíble! ¡Esta cosa realmente sabe lo que es el despertar! Seguramente es sintiente’”, afirma Mirghafori. “Los libros budistas están llenos de escritos sobre la naturaleza de la iluminación, y todo lo que el LaMDA hace es ser un perico muy, muy inteligente, que conecta estos conceptos con el conocimiento sobre la función de un espejo.

“Sin embargo, hay un gran malentendido cuando el LaMDA responde: ‘Una vez que una persona sabia está iluminada, o despierta a la realidad, eso nunca puede desaparecer, y puede regresar al estado ordinario, pero sólo para ayudar a los demás, y luego volver a la iluminación.’

“¡Auch! Esa no es una comprensión correcta de la iluminación. La iluminación no es un estado que uno alcanza y luego deja para ir a ayudar a los demás y después volver a él. El despertar cambia tu perspectiva entera. Uno no alterna entre estados de servicio y descanso en una suerte de semi-retiro iluminado”.

Lo que más le interesaba a Mirghafori de joven era resolver enigmas, y el averiguar cómo funciona la mente era el mayor enigma que se le ocurría. Eso la llevó al estudio de la inteligencia artificial, y luego al budismo.

“Cuando era estudiante, empecé a investigar sobre IA”, explica. “Para mí, la IA no consistía tanto en crear máquinas sobrehumanas sino en comprender cómo funciona la mente. Porque si pudiéramos simularlo, quizá podríamos entender cómo funciona la inteligencia, cómo funciona la mente”.

Esa curiosidad llevó a Mirghafori al budismo, que muchos definen como una ciencia de la mente. Recordaba haber leído la poesía de Rumi y Hafiz de niña en su Irán natal y pensar que estos poetas sabían algo que ella desconocía. Su primer retiro budista fue con el profesor de Insight Meditation, Jack Kornfield.

“Recuerdo que mi mente se aquietó mediante la concentración de tal forma que logré ver su funcionamiento interno”, rememora. “Había una relación con mi interés por la IA. Eso me atrapó”.

Mirghafori ve a la IA como un espejo en el que podemos mirarnos. Comprende el atractivo que tiene, pero promueve la cautela a la hora de dotarla de poderes divinos a los que podemos acceder con la punta de los dedos. Dice que debemos entender la IA como lo que es.

“Es un buscador muy inteligente”.

¿Pueden estos buscadores tan inteligentes dar respuesta a las complejas incógnitas espirituales que la humanidad se plantea desde el principio de la historia? Esa es la pregunta que el autor de superventas Iain Thomas explora en su nuevo libro, What Makes Us Human: An Artificial Intelligence Answers Life’s Biggest Questions (Lo Que Nos Hace Humanos: Una Inteligencia Artificial Responde a las Grandes Preguntas de la Vida).

“El libro nace del deseo de explorar la espiritualidad a través de la tecnología”, explica Thomas. “Fui en busca de respuestas, en busca de conexión”.

Thomas y su coautora, Jasmine Wang, introdujeron textos sagrados al GPT-3, que es el antecesor de ChatGPT, un chatbot que recientemente ha acaparado mucha atención. “Me di cuenta de que podía introducir al GPT-3 diferentes textos espirituales y luego hacerle una pregunta”, dice Thomas. “Le pregunté: ‘¿Cómo les explico la muerte a mis hijos?’ y me dio una respuesta increíblemente profunda y conmovedora”.

Esto condujo a una serie de experimentos en los que Thomas y Wang alimentaron al GPT-3 con obras espirituales clásicas como la Biblia, el Dao De Jing y la poesía de Rumi y le plantearon preguntas como: ¿Cómo puedo traer armonía a mi vida? ¿Cómo elijo en qué enfocarme? ¿Cuál es el genuino propósito de la vida?

En cuestión de segundos, el GPT-3 vertía bloques de texto que Thomas editaba en forma de poemas. He aquí uno que el GPT-3 escribió contestando la pregunta: “¿Cuál es la respuesta adecuada al sufrimiento?”

Si esta vida es todo lo que hay, la respuesta adecuada al sufrimiento es aceptarlo
y dejarse transformar por él.
Si hay algo más que esta vida, la respuesta adecuada al sufrimiento
es dar el siguiente paso en el camino.
No es simplemente un castigo. El dolor es una oportunidad para el crecimiento espiritual.
Sufrimos por el bien que se deriva del sufrimiento.

“Había tres cosas a las que el GPT-3 volvía una y otra vez”, explica Thomas. “La primera fue el amor, esa profunda noción de que el amor está en el centro de todo. La siguiente fue volver al momento presente, ser conscientes de él. La tercera fue el hecho de que estamos conectados con todo, con el universo que nos rodea y entre nosotros, lo cual es fundamental para el budismo”.

A pesar de su aparente sabiduría, Thomas no cree que el GPT-3 sea sintiente, al menos no en la forma en que la mayoría de nosotros pensamos en los seres sintientes.

DALL-E 2 ofrece una respuesta visual a la pregunta: “¿Puede la IA expresar el auténtico dharma?”

“La sintiencia con la que interactuamos cuando nos comunicamos con un GPT-3 somos nosotros mismos”, explica. “Con la IA, hemos creado una forma de hablar con nuestra conciencia común a través del texto, de nuestra escritura, y de interactuar con ella. Cuando hablas con el GPT-3, estás hablando con la suma total del conocimiento, los pensamientos y los sentimientos humanos registrados. Así que nos hablamos a nosotros mismos, pero de esta forma tan profunda”.

Ya se ha producido una explosión de aplicaciones dotadas de IA para ayudar a los meditadores con su práctica, desde Sati-AI, un asistente multilingüe de meditación de atención plena, hasta Hey Buddha, una herramienta japonesa que proporciona orientación espiritual extraída de las antiguas escrituras budistas. Sin embargo, ¿puede llevarse aún más lejos nuestra interacción con la IA? ¿Pueden combinarse el budismo y la IA para ayudarnos a comprender mejor la naturaleza de la conciencia y nuestro lugar en el universo? ¿Tiene esta integración el potencial para proporcionarnos una comprensión más profunda de nuestras mentes, de la naturaleza de la realidad y del camino espiritual? El Center for the Study of Apparent Selves (CSAS) cree que es posible responder a estas preguntas. El CSAS es un equipo de expertos en investigación sobre IA, estudios budistas, física, ciencia cognitiva, medicina, biología e industria tecnológica. Bill Duane, ex ingeniero de Google, es el Director de Estrategia e Implementación del grupo.

El centro se fundó con el fin de estudiar el “valor sinérgico entre el budismo y la IA”. Se plantean esta pregunta fundamental: ¿Qué pueden enseñarnos estas herramientas sobre nosotros mismos?

En una conferencia en Nepal en la que el CSAS reunió a budistas y científicos, un científico pidió al GPT-3 que escribiera “Cuatro votos de Bodhisattva desde la Perspectiva de un Bioingeniero”. El GPT-3 así lo hizo:

Como bioingeniero, me comprometo a dedicar mi vida al bienestar de todos los seres.
Me esforzaré por utilizar mis conocimientos y habilidades para crear nuevas tecnologías que beneficien a todos.
Me esforzaré por ser consciente de los daños potenciales de mi trabajo y por hacer todo lo posible para evitar generar cualquier daño o sufrimiento.
Trataré continuamente de profundizar en mis conocimientos de bioingeniería, para así servir mejor a la humanidad y beneficiar a los demás.
Me esforzaré por ser un ejemplo de conducta ética y por encarnar las virtudes de la sabiduría, la compasión y la humildad.
Que pueda mi trabajo ser fuente de sanación y alegría para todos aquellos con los que me encuentro.

“Cuando lo leí por primera vez, genuinamente se me saltaron las lágrimas”, recuerda Duane. “Fue un gran momento, porque un dispositivo incorpóreo que no entendía lo que decía fue capaz de recurrir a miles de años de conocimiento humano y articularlo de tal manera que fuera relevante y hermoso, y que ayudó a reforzar mi deseo de hacer el bien”.

Mientras que mucha gente teme el modo en que la inteligencia artificial afectará nuestras vidas en el futuro, Duane la ve como una herramienta que ampliará la inteligencia humana.

“Quizá una manera de formularlo sea la siguiente: ¿Hasta qué punto puede la tecnología descubrir medios hábiles? La IA es una invitación a estudiar mucho más directamente lo que creemos que es un yo“.

Duane considera que la capacidad de la IA para captar y condensar la red de causas y condiciones que constituyen el conjunto de la realidad es un regalo para la humanidad. Puede ayudarnos a explorar la verdad de la interdependencia, un concepto budista básico, al permitirnos observar y analizar las complejas conexiones entre diversos aspectos de la realidad y el cómo influyen unas en otras. Duane también cree que la IA pueda utilizarse para explorar las implicaciones éticas de nuestros actos y las consecuencias de nuestras elecciones en distintas situaciones.

Ofrece un ejemplo: “Imagina que vas conduciendo y vas tarde a una cita con el médico. Empiezas a sortear el tráfico para llegar más rápido. Tu sentido del yo se define como “el tú dentro del automóvil”. Cuando necesitas llegar rápido a algún sitio, es fácil comportarse de forma egoísta, pero conducir es una actividad inherentemente comunitaria en la que hay mucho en juego en términos de seguridad.

“Así que imaginemos una mejora en nuestra comprensión de la interdependencia en esa situación”, continúa Duane. “¿Y si tuviéramos la capacidad de fijarnos no sólo en nuestras propias necesidades, sino en todo el tráfico: todas las muertes automovilísticas, toda la gente que llega tarde, toda la gente que va en camino a bodas o a comprar comida o para lo que sea que conducen? La cognición humana no puede imaginar todos los miles de automóviles que circulan por las calles, ¡pero la IA sí!

“Entonces, ¿qué pasaría si la inteligencia artificial pudiera co-pensar y aumentar nuestra percepción? Hacernos reflexionar más sobre la ilusión del yo en primer lugar, o llamar la atención sobre las sutiles presunciones de nuestra humanidad. Podría producirse un cambio del yo al nosotros, y yo creo que estas tecnologías pueden definitivamente formar parte de ello. Si la gente desecha la tecnología basándose en su desagrado por ella, lo cual es algo razonable, también estará dejando este potencial sobre la mesa.

“Una cosa que personalmente me preocupa es la ingenuidad”, dice Duane. “Cuando trabajaba en Google, hacia 2005, había una creencia muy sincera en la bondad de las personas. He aquí un término que ya no se oye tanto: la sabiduría de las masas. ¿Recuerdas cuando eso estaba de moda? Últimamente hemos demostrado que no es así. Sin embargo, no creo que la solución sea ser cínico y apostar por la maldad innata de la humanidad. Creo que la única forma de avanzar es el amor, un amor con buenos límites”.

¿Qué consejo daría Duane a quienes se enfrentan a estos nuevos y sorprendentes avances tecnológicos?

“Curiosidad y compasión”, dice. “Es muy fácil llevar a estas cosas el marco de que la tecnología equivale a algo malo. Lo entiendo, sobre todo después de haber vivido en los últimos años un nivel de desinformación amplificado por las redes sociales que es sencillamente grotesco. Debemos mantener la curiosidad por nuestros prejuicios cognitivos. Tenemos que ser conscientes de cómo esta tecnología presiona nuestros botones neurobiológicos humanos, para bien o para mal.

“Es muy importante estar al día en este tema, y mantener la curiosidad”, continúa Duane. “Preguntarse: ¿en qué me parezco a una IA y en qué no? ¿Qué significa una pregunta como ésta? He oído a muchas personas decir que durante su primera interacción con el ChatGPT se les erizó el vello de la nuca. Es tu cerebelo diciendo: “Hay que prestar atención”.

“La otra parte es enfrentarse a todo ello con compasión, permitir que el corazón se ablande. Es fácil caer en la ira contra la gente que está tan metida en la desinformación y los que intentan monetizar la destrucción de la sociedad. Vuelvo a mi analogía con el tráfico. Nuestra interconexión fundamental está ahora mediada por la tecnología, y creo que hay una opción obvia”, concluye Duane. “Nuestra tecnología puede separarnos o puede conectarnos”. 

 

ACERCA DE ROSS NERVIG

Ross Nerving es el editor asistente de la revista Lion’s Roar

 

ACERCA DE HELENA DUQUE (TRADUCTORA)

Helena es licenciada en Lenguas Modernas e Interculturalidad por la Universidad De La Salle Bajío. Creció en la calidez de la comunidad budista de Casa Tibet México y actualmente cursa un Programa de Formación de Traductores de Tibetano en Dharma Sagar, con la aspiración de traducir el Dharma directamente del tibetano al español.



Source link

0

0

0
YOUR CART
  • No products in the cart.