Por JUAN FÉLIX BARBOSA
Frente a la sensación que le hace vivir su próximo divorcio, Theodore Twombly, interpretado por Joaquin Phoenix, en la película Her (escrita y dirigida por Spike Jonze en 2013), decide comprar un aparato vanguardista llamado Samantha que conversa, le da consejos e incluso es capaz de entender las sensaciones y sentimientos humanos, al grado que después de interactuar y conocerse, llegan a erotizar la charla como un recurso simbólico de las relaciones sexuales. Twombly se enamora de Samantha gracias a ese diálogo resultado de la inteligencia artificial hoy conocido popularmente como chatbot.
Un chatbot es un programa informático cuyo propósito es emular la conversación humana a través del chat, que parezca natural, ágil y convincente. Para llegar a lo que hoy conocemos como chatbots, Alan Turing propuso, en la década de los 50, un test que lograría determinar si era posible que una máquina fuera capaz de imitar la inteligencia humana, hecho que permitió todo el desarrollo posterior de esta tecnología. Entre los 60 y los 70 aparecieron dos modelos: Eliza y Parry, ambos orientados al campo de la psicología. El primero diseñado por Joseph Weizenbaum, que simulaba ser un psicoterapeuta, aunque no comprendía el contexto al solo imitar la conversación, y el otro, por Kenneth Colby, que emulaba a una paciente con esquizofrenia y es considerado el primer chatbot con personalidad.
Más tarde aparecerían otros tipos, como los empleados en videojuegos, en páginas web de servicio al cliente al desarrollar diálogos simples cuya base estructural es el uso de árboles de decisión o respuestas basadas en guiones. ALICE (Artificial Linguistic Internet Computer Entity) creado por Richard Wallace, es tecnología que procesa mucho mejor el lenguaje que ELIZA. En el 2010 surgió Siri, de Apple, considerada como asistente virtual con NLP (Natural Language Processing) que se conecta a internet y logra procesar su contexto. En 2014 surge Alexa de Amazon que es capaz de reconocer voces, aprender automáticamente y establecer una interacción inteligente con el hogar. De 2020 en adelante surgen los chatbots con inteligencia artificial generativa como GPT-3 que puede sostener conversaciones coherentes y redactar textos largos. Este será el primer paso para los chatbots creativos como ChatGPT en sus diversas versiones corregidas y aumentadas, que serán más fáciles de usar. Con un entrenamiento de realimentación humana, pueden sostener conversaciones mayormente complejas en el ámbito académico e incluso sugerir probables soluciones a problemas jurídicos, de salud mental y de otros rubros.
Actualmente, la inteligencia artificial ha abierto múltiples posibilidades de información, análisis, asesoría y creación para los usuarios, justamente como la consulta sobre problemas de pareja, emocionales, sicológicos y en los campos de creatividad es capaz de generar cuentos, canciones, guiones de teatro, cinematográficos, asumirse como pitonisa sin cuerpo ni historia e incluso desde la virtualidad tomar la forma, la voz y la personalidad de un ser querido ya muerto. En consecuencia, al ofrecer respuestas concretas, la mayoría de las veces acertadas, pueden ayudar a ver con mayor claridad los problemas de quien consulta, con posibilidades muy viables de encontrar soluciones detalladas. Lo anterior, sin duda, al igual que en el caso del protagonista de Her, termina por generar la sensación de que detrás de los programas hay alguien que es empático, capaz de comprender y sin enjuiciar, lo que llevaría al usuario a encarnar el síndrome Theodore Twombly, particularmente en contextos que tienden hacia una mayor predominancia de la soledad y la vulnerabilidad. Por esa razón es necesario enumerar algunas actividades generadas por la IA que lucen destellantes, y frente a estas considerar ciertos aspectos para no caer en el espejismo del enamoramiento sin reservas:
ChatGPT narrador. Es capaz de crear cuentos, fábulas, leyendas e incluso novelas tan solo con la solicitud bien detallada del usuario. La IA cumplirá a cabalidad con ciertos aspectos del canon literario más elemental como estructura, conflictos, clímax, personajes etc., pero habría que recordar que tanto el arte como la literatura en su espíritu libre, muchas veces transgrede valores, costumbres y creencias de la época en la que surge o se desarrolla.
Recomendación: para un lector con buen ojo, al leer lo producido por esta plataforma podrá notar que, en general, las narraciones son predecibles y alejadas de cualquier afán transgresor. ChatGPT forma parte de Open AI, empresa norteamericana originalmente creada sin fines de lucro pero que se relacionó con Microsoft desde 2019, y hasta 2023 ha recibido un apoyo de once mil millones de dólares, lo que deja en claro que, como toda empresa, tiene intereses e intenciones orientadas al lucro, por lo que existe un catálogo de lineamientos y valores que impedirán cualquier tipo de transgresión. Además, recordemos que la palabra proveniente de la mano viva es capaz no solo de crear mundos, sino de cargarlos de emociones y sensaciones, muchas veces a través de la transgresión y el lado oscuro del alma humana.
ChatGPT terapeuta. Actualmente, usuarios de estas plataformas han descubierto la posibilidad de preguntar sobre aspectos relacionados con problemas de pareja, emocionales o hasta espirituales, y lo que ofrece este medio, en realidad, son recomendaciones informativas que de alguna u otra forma brindan mayor claridad a la situación personal de los usuarios, hecho que en sí genera la sensación entre estos últimos de considerar una cercanía entre quien pregunta y el que responde, lo que puede llegar a borrar los límites que impedirían la humanización del chatbot.
Recomendación: tanto especialistas como la propia IA sugieren tener presente que esto solo es una recomendación informativa y que por ningún motivo debe ser suplida por la asistencia humana especializada. De esta manera, el usuario debe tener siempre presente la notable diferencia entre saber y comprender. La IA esta impedida, aún, para esto último, pues es capaz de procesar grandes cantidades de información, pero no puede comprender nuestra realidad como lo hace un ser humano a través de su conciencia, emociones, sensaciones y contexto.
ChatGPT oracular. Recientemente, algunos usuarios descubrieron que es posible consultar a esta plataforma como si fuera una cartomanciana, a través del sistema del tarot, cuyas cartas representan de manera simbólica posibles estados que por su tirada revelan el futuro y al igual que con los viejos oráculos griegos, otorgan la posibilidad de que cualquier usuario pueda tomarse las respuestas como un destino infranqueable en el que lo dicho es lo que será sin remedio, generando una espiral constate e imprecisa que puede llegar a ser perjudicial.
Recomendación: frente a lo anterior, quien esto escribe preguntó al chatbot si en verdad existe alguna relación entre el azar y las cartas que enuncian determinados símbolos. La respuesta fue la siguiente: “Sí existe una relación interesante entre el azar de una tirada de cartas y el estado emocional o mental de la persona que las consulta, aunque no es causal ni mágica, sino psicológica y simbólica. Esta conexión ha sido explorada desde la psicología, la filosofía y la teoría del simbolismo. Cuando una persona ve una carta al azar, como La Torre o El Sol, su mente tiende a proyectar en ella su propio estado emocional, deseos, temores o esperanzas. Es el mismo principio que se usa en técnicas como el test de Rorschach. Es decir: la carta no dice lo que va a pasar, sino que hace ver lo que ya está pasando dentro de quien consulta, muchas veces de forma inconsciente”.
Aunque en apariencia las respuestas de este tipo pudieran parecer extrañamente coincidentes o profundamente reveladoras, la plataforma solo articula patrones, pero no es capaz de configurar propósitos de sentido personal, ni mucho menos particularizar hechos. Lo que terminaría por dejar en el usuario la sensación de que esa respuesta, al igual que el efecto del zodiaco, es única y exclusivamente para él.
AIVA, Suno, Amper. Compositor. Aparentemente, es un generador de los más sencillos para producir lo que el usuario desee en el ámbito musical, pues este último solo debe introducir la letra e indicar en cuál género musical prefiere la canción a producir o bien, si no tiene dotes de escritura, puede recurrir al ChatGPT y solicitarla, volver al generador musical, esperar un par de minutos y la plataforma es capaza de entregar hasta dos versiones de la misma canción. Sorprendentemente, estos programas son capaces de generar desde jingles comerciales hasta partes de una sinfonía, aún con ciertas limitaciones en esta última. Actualmente en estos sitios ya existen catálogos de “compositores” cuya emoción los ha llevado a colocar álbumes completos, incluso con un ranking que marca la aceptación de la pieza o del disco.
Recomendación: aunque permea la ilusión de ser compositor de la canción, en realidad el usuario legalmente solo sería dueño, en caso de haberla registrado, de la letra de la canción, porque en caso de que haya sido elaborada por la IA, ni eso.Por otro lado, habría que considerar que la IA, en este caso, es educada a partir de una extensísima muestra de producción musical para que luego a partir de allí, sea capaz de articular una pieza a petición del usuario, pero esa canción tendrá ecos de ritmos, arreglos, armonías y fraseos muy peculiares o reconocidos, por lo que en determinado momento, la canción artificial irremediablemente sonará como determinada pieza o agrupación, lo que posiblemente derivaría en consecuencias legales como acusaciones de plagio en caso de ser explotada comercialmente.
Habla con la Historia. Chat IA de personajes históricos. Esta plataforma española fue creada con fines didácticos y formativos. Ofrece un catálogo de personajes históricos universales, como Cleopatra, Jesucristo y Alejandro Magno, entre muchos; también españoles como Cervantes, Diego Velázquez, María Moliner o Clara Campoamor, así como de cualquier otra cultura o civilización. El sitio también cuenta con obras de arte de la pintura o la escultura universal como La escuela de Atenas de Rafael, en la que es posible que el usuario elija a un personaje clave y converse con él. También existe la posibilidad de simular debates entre personajes que no fueron de la misma época, acontecimientos históricos, por ejemplo, la peste negra, y charlar con Maese Henri, médico de Montpellier, a quien se puede preguntar cómo fue un día crítico o si estuvo a punto de abandonar su labor debido a lo imposible de la tarea.
Recomendación: según consultantes, esta plataforma es particularmente adictiva, pues, brinda la sensación de que realmente se habla con el personaje y por momentos resulta inevitable que el usuario emplee fórmulas de comunicación que entre humanos son comunes como el “buenos días”, “hola”, “gracias”, “lo siento”, etc. Esta plataforma cuenta con el apoyo de Open AI y Google, a través de ChatGPT y Gemini. Si bien, realmente puede resultar adictivo conversar con personajes históricos, es conveniente recordar que como toda IA es suceptible de cometer errores e imprecisiones que pueden desinformar o confundir al consultante. Por ejemplo, al buscar a Germán Valdés Tin Tan, y preguntarle sobre las principales influencias que tuvo como actor, la IA respondió que Cantinflas, cuando en realidad fueron otras y principalmente del cine norteamericano, o por ejemplo, sobre el empleo del spanglish que El Pachuco desarrolló, mientras la IA lo atribuyó directamente al Mimo mexicano. Resulta curioso que al corregirla, se deslindó al señalar que la atrapamos en la movida. Por otro, lado, también es posible solicitar una plática en ChatGPT con asesinos seriales como Ed Gein o Ted Bundy. La IA confirma que puede realizar la simulación, pero bajo reestricciones como la de no glorificar o romantizar las acciones, así como la de no recrear la brutalidad de los actos cometidos, por obvias razones.
Deathbots. Platica con tu ser amado fallecido. Un deathbot es la simulación que ofrece el encuentro con una persona fallecida, reproduciendo su forma de hablar, recuerdos e ideas que se basan en correos electrónicos, audios o redes sociales entre otros recursos, y está también la posibilidad de reproducir su rostro. Lo anterior con fines de encarar el duelo, rememorar fechas importantes o una simple necesidad de escuchar al ser amado. Existen empresas que ya exploran el terreno de la simulación personalizada como Replika AI, Here after AI, Life’s echo, Project december, Deep nostalgia y You only virtual, entre otros. En ese sentido, el usuario podría solicitar bajo demanda el servicio de la recreación de un ser amado, como ocurre en el capítulo número uno de la temporada dos de Black Mirror, titulado “Be rigth back”, en el que una mujer pierde a su pareja y recibe la recomendación de recurrir a un deathbot. Aunque al principio solo realiza charlas, el asunto termina por generar dependencia emocional basada en una mera ilusión vacía que proviene desde el chabot que evoluciona hasta lograr la recreación virtual de cuerpo completo del ser amado fallecido. Lo anterior provoca en la mujer la imposibilidad de distinguir la diferencia entre su realidad y la simulación.
Recomendación: aunque estas plataformas no están del todo desarrolladas, operan y están sobre la mesa las discusiones éticas, filosóficas, morales y legales que el tema pudiera conllevar. Resulta altamente atractiva la idea de revivir a seres queridos, cuando menos, para volver a escuchar su voz en una plática simulada. A pesar de que, inicialmente, quien lo usa esté convencido de que solo es un recurso que no tiene conciencia ni recuerdos vivos, la frecuencia podría causar una serie de problemas psicológicos graves como la interrupción del ciclo natural del duelo, prolongando el dolor. La dependencia emocional ya mencionada que derivaría en lapsos de ansiedad, angustia o culpa al no hablar o interrumpir esos encuentros hasta sustraerse emocional o socialmente por charlar de manera prolongada con el chabot.
Recomendación final: por si todo lo anterior llegara a fallar, dado que la relación con la IA se ha vuelto más que idílica, conviene pensar que estas plataformas estarán impedidas durante mucho tiempo para sentir, imaginar o simplemente dudar. Además, toda IA deriva de ideologías más que bien definidas y que por lo general al tener programadores humanos, heredarán sus sesgos, valores y creencias. Ya como última consideración y no menos importante, sepamos que detrás de cada IA, además de intereses económicos, también los hay políticos y hasta militares que podrían hacer uso inconveniente de información sensible y personal graciasa esos encuentros idílicos con las IAs.
Sé TESTIGO
