“AI will be the best or worst thing ever for humanity.” — ElonMusk.

Esta semana hubo mucho interés alrededor de la última versión del modelo generativo de lenguaje GTP-3 de la empresa fundada por Elon Musk y Sam Altman e Ilya Sutskever: OpenAI. GTP es un modelo que permite generar lenguaje (de programación o texto, como un poema, o un artículo) capaz de adquirir conocimiento de contenido publicado en el mundo y procesar dependencias mediante el entrenamiento previo de un listado de parámetros aplicados a largas cadenas de texto contiguo. En el último año hemos visto mucho avance en este espacio en el que la inteligencia artificial genera textos iguales o mejores a los escritos por un humano, pero no de la forma que GPT-3 presenta.

Lo que más ha llamado la atención en este caso es el orden de magnitud de crecimiento dentro de los parámetros a utilizar, lo que obviamente refina los resultados y simplifica la forma de darle instrucciones al lenguaje. Este software puede generar canciones, historias, ensayos, (¿columnas de opinión?) e, incluso, programar en diversos lenguajes de programación por su cuenta, simplemente tras darle una instrucción como “escribe un poema” por ejemplo. La cantidad de parámetros entre la versión 2 y la 3 puede dejar a cualquier mente, no artificial, impresionada.

En el último año hemos visto un desarrollo descomunal alrededor de los modelos de lenguaje: GPT-2 contaba con 1,500 millones de parámetros en su base, luego NVIDIA presentó Megatron, con 8 mil millones de parámetros, le siguió Microsoft con Turing NLG con 17 mil millones, pero sin hacer mucha alharaca OpenAI vino con ¡175 mil millones de parámetros, eso es 100 veces más que GPT-2 en poco menos de un año!

¿Qué puede significar esto? Pues bueno, esta cantidad de parámetros puede hacerte sentir que dialogas con alguien mucho más preparado que muchas personas que opinan pero no dialogan, incluso a la hora de hablar de la existencia de Dios:

Sin duda una de las conversaciones teológicas más claras que he leído en algún tiempo y con mucho menos #ruidoblanco, sin caer en egos, sin caer en necesidades de tener razón, sin caer en emociones basadas en creencias. Pero esto sin duda da mucho para pensar, porque estás hablando con una línea de parámetros que están escaneando wikipedia y otros sitios para responder con un texto de contenido previamente generado por el hombre, no con otro ser pensante y mucho menos con un ser sentimental. Obvio muchas críticas han ido alrededor de que puede responder con groserías o no ser susceptible a temas de racismo; pero la humanidad ha sido mucho menos hábil en resolver eso, no creo que sea culpa del modelo de lenguaje.

Mientras tanto, de recibir acceso al , no puedo asegurar que pediría primero, que me ayudara a escribir algunos de mis textos de trabajo o la pregunta (editada correctamente) de la semana: Tlayuda, Ceviche o Milanesa Napolitana. Habrá que esperar para conocer la respuesta.

Mientras tanto, les deseo muy buen fin de semana y los dejo con la frase Covid-19 para lo que se viene: "Some people don't like change, but you need to embrace change if the alternative is disaster." (E. R. M.)

white-noise

Nota: La opinión de Ricardo Blanco es personal y no refleja la del medio ni la de la empresa para la que trabaja.

ricardo [at] mrwhite.world

Google News

TEMAS RELACIONADOS