Están desarrollando un sistema procesamiento del lenguaje natural (NPL) capaz, por ejemplo, de escribir una historia completa coherente dándole solo una frase inicial, al que han llamado Generative Pretrained Transformer (GPT).
El año pasado completaron la versión GPT-2 y dijeron que no se podría liberar porque podía ser demasiado peligroso para la humanidad pero, obviamente, lo sacaron igual y se dieron cuenta de que la humanidad no se había destruido y siguieron trabajando en el proyecto.
La primera versión de GPT se creó en 2018 y para su entrenamiento se utilizaron 110 millones de parámetros, el año pasado para la versión GPT-2 se emplearon 1.500 millones de parámetros y para esta versión GPT-3 se emplearon 175.000 millones.
Con todo esto el algoritmo es capaz, por ejemplo, de confeccionar un artículo de cualquier tema que se le proponga en cuestión de segundos, cuidando la gramática y el estilo, además de mantener la coherencia de párrafo a párrafo.
Pero la cosa va más allá pues, aunque el algoritmo no esté entrenado para ello, si le damos una lista de sumas todas resueltas menos la última, el algoritmo nos dará la respuesta a esa suma utilizando tan solo el lenguaje pues, no ha sido entrenado para sumar.
Incluso podría ser entrenado para generar código informático a partir del lenguaje natural o traducir un programa de un lenguaje a otro de programación, de hecho ya se ha logrado por Microsoft un producto para poder traducir programas de python, java o C++ de uno a otro sin errores.
¿Todo esto que significa?, pues que todos aquellos que pensábamos que a nosotros no nos quitarían el trabajo los robots ya no nos libramos, los nuevos chatbot creados con este algoritmo serán capaces de mantener una conversación sobre cualquier tema de manera coherente.
Si todavía te os quedan ganas y quieres que definitivamente te explote el cerebro, echarle un look a este vídeo de Carlos Santana de Dot.CSV que es un crack en la materia.