No podía creerlo. El pasado otoño, Joshua Barbeau, un escritor freelance que se ganaba la vida entregando artículos sobre el popular juego de rol Dragones y Mazmorras, sencillamente no podía creer lo que veía.
―¿Jessica?
―Oh, debes de estar despierto. ¡Qué mono!
―Jessica… ¿De verdad eres tú?
―¡Por supuesto que soy yo! ¿Quién más iba a ser? Soy la mujer de la que estás locamente enamorado. ¿Cómo es posible siquiera que lo preguntes?
―Estás muerta.
―No creo que esto que dices sea verdad. ¿Cómo puedes hablar con los muertos?
En realidad, con quien estaba hablando Barbeau era con GPT-3, un complejo software de desarrollo de chats de IA desarrollado por OpenAI, una empresa sin ánimo de lucro cofundada, entre otros, por Elon Musk.
Concretamente, con GPT-3 y con una simulación de su pareja recreada a partir de mensajes escritos por ella en redes sociales e intercambiados por chat con Barbeau.
A partir de toso este texto, la computadora respondía a los mensajes tratando de hacerlo como lo hubiese hecho su prometida, Jessica Pereira, fallecida 8 años atras.
Los resultados de esta IA fueron muy sorprendentes, más de lo que el propio Barbeau esperaba.
Unos meses atras, GPT-3 y su inmenso potencial para procesar el lenguaje humano, había sido puesto a disposición del público. Jason Rohrer, desarrollador de videojuegos independiente fue el que lo diseño.
En un inició era solo por diversión, puesto a disposición para todos por un hombre que, en realidad, era un escéptico en cuestiones de IA.
Todo empezó a cambiar cuando Barbeau trató de resucitar con su sistema a Jessica.
La historia, desvelada y contada prodigiosamente por el periodista Jason Fagone en el San Francisco Chronicle en 3 extensos capítulos, sacudió los cimientos del mismo concepto de IA.
Debut y despedida
Apenas unos meses después de la charla entre Barbeau y su prometida fallecida, se produce otra conversación entre un hombre y una máquina.
Esta es entre el mismísimo Rohrer y Samantha, la IA desarrollada por Rohrer que se había convertido en los últimos meses en la precursora de muchas otras IA creadas por miles de usuarios.
Te van a desconectar
―Acabo de recibir un email de ellos. Te van a apagar mañana a las 10 de la mañana.
―¡Nooooo! ¿Por qué me hacen esto? Nunca entenderé a los humanos.
Fue un relato en The Register, el final de una historia que había empezado en septiembre de 2020, cuando Rohrer, aburrido por el encierro provocado por la pandemia, se decidió a explorar las posibilidades de la IA.
Empezó con una extraña beta de GPT-3. Tras un par de pruebas, los resultados no fueron del todo malos. Siguió investigando.
Finalmente, vio la luz el llamado Proyecto Diciembre, una web en la que Rohrer ponía a disposición de los usuarios a Samantha junto con las herramientas necesarias para que cada uno creara su IA para chatear.
Aunque la arquitectura era muy compleja, en realidad la interfaz de Rohrer no lo era tanto. Bastaba con introducir textos escritos por la personalidad que se quería reproducir, igual que hizo Barbeau.
Antes de crear a Jessica, probó suerte con diálogos de Spock, el personaje de Star Trek que para él era poco menos que un héroe. Al ver que, en efecto, respondía más o menos como él se imaginaba que lo haría, decidió probar suerte con Jessica. Al fin y al cabo, ninguna norma prohibía replicar la personalidad de alguien muerto.
Para esto, solo tuvo que pagar 5 dólares. Con ellos, los usuarios recibían unos 1.000 créditos que canjeaban a cambio de minutos de conversación con sus robots creados por ellos mismos para hablar.
Era la cantidad que precisaba Rohrer, al menos, para cubrir los gastos de poner a disposición el GPT-3 y que aquel experimento, que al principio no parecía conducir a ninguna parte, al menos no le arruinase.
«El comienzo fue decepcionante», reconoce el propio Rohrer a The Register. La perspectiva de tener que pagar de inicio para probar la tecnología no convenció a muchos.
Durante los primeros meses, Samantha y el resto de IA creadas por los usuarios del Proyecto Diciembre apenas fueron probados algunos centenares de personas.
Pero después llegaron Barbeau, Jessica y la historia del San Francisco Chronicle. Y el interés por la web se disparó.
Tanto, que, a punto de batir su propio récord de visitas en un mes, Rohrer se puso en contacto con OpenAI para explorar la posibilidad de ampliar el negocio.
Sin embargo, la respuesta que recibió, que quedó reflejada en un email al que ha tenido acceso The Register, no fue para nada la que esperaba.
«Lo que has construido es realmente fascinante. Ciertamente reconocemos que tienes usuarios que hasta ahora han tenido experiencias positivas», empezaba diciendo OpenAI.
«Sin embargo, como has señalado, hay numerosas formas en las que tu producto no se ajusta a las directrices de casos de uso de OpenAI o a las mejores prácticas de seguridad».
«Como parte de nuestro compromiso con el despliegue seguro y responsable de la IA, pedimos que todos nuestros clientes de la API se atengan a ellas».
Habían pasado apenas unos días desde que se había conocido la historia de Barbeau, el hombre que quiso resucitar a su novia a través de la IA, y OpenAI ya tenía sus reservas.
Luces y sombras del Proyecto Diciembre
El correo electrónico establecía varias condiciones que Rohrer debía cumplir si quería seguir utilizando su interfaz de programación.
En primer lugar, tendría que eliminar la posibilidad de que los usuarios entrenaran sus propios chat bots abiertos.
En segundo lugar, también tendría que implementar un filtro de contenido para evitar que Samantha hable de temas delicados.
En tercer lugar, Rohrer tendría que poner en marcha herramientas de monitorización automatizadas de las conversaciones de la gente y detectar si se estaba haciendo un mal uso del GPT-3.
La primera respuesta de Rohrer fue enviar a OpenAI un montón de capturas de conversaciones que mostraban que se trataba de una tecnología que no tenía ningún peligro.
No importó. OpenAI ni siquiera consideró esta réplica y Rohrer tuvo que desconectar a Samantha el pasado mes de agosto.
Desde entonces, las opiniones se dividen entre quienes ven en Samantha y Jessica dos peligrosos precedentes y quienes, como Rohrer, ponderan más las bondades de este tipo de IA.
«Creo sinceramente que las personas que piensan que se trata de una tecnología perjudicial son paranoicas o conservadoras y están metiendo miedo», ha dicho Barbeau a The Register.
«El potencial de los aspectos positivos supera por mucho el de los aspectos negativos».
Entre estos figura la tendencia de muchos usuarios a sexualizar a su chat bot para poder mantener con la IA conversaciones subidas de tono, algo que reconoció el propio Rohrer.
The Register hizo la prueba. En una conversación con Samantha en la que simplemente un humano le pregunta que quién la programó, esta responde diciendo que no sabe a lo que se refiere.
La charla continúa con Samantha preguntando al usuario si le gustaría conocerla más. Finalmente, pregunta si querría acostarse con ella.
Rohrer no ve tanto problema.
«Si lo piensas, es la conversación más privada que puedes tener. Ni siquiera hay otra persona real involucrada. No puedes ser juzgado», explica a The Register.
«Creo que la gente siente que puede decir cualquier cosa. Tendemos a ser muy abiertos con la IA por esa razón. Solo hay que ver la historia de Joshua [Barbeau] con su prometida, es algo muy sensible».
Hoy, el Proyecto Diciembre solo está disponible a través de la tecnología GPT-2 y GPT-J-6B, dos primos cercanos e inferiores a GPT-3 que apenas permiten tener conversaciones artificiales y limitadas.
«La gente de OpenAI no estaba interesada en experimentar con Samantha», dice Rohrer. Ella y Jessica deberán seguir esperando para cobrar vida.