GPT-3 el nuevo modelo de lenguaje de OpenAI, increíble y sobrevalorado

Internet está hablando de GPT-3, el nuevo modelo de lenguaje AI de OpenAI que es capaz de programar, diseñar y hasta conversar sobre política o economía.

Inicialmente pongamos en contexto el tema, OpenAI es una empresa de investigación y despliegue de IA (Inteligencia artificial) con sede en San Francisco, California. La misión de OpenAI es garantizar que la inteligencia general artificial (AGI), con lo que nos referimos a sistemas altamente autónomos que superan a los humanos en el trabajo económicamente más valioso, beneficie a toda la humanidad.

Y entonces, ¿Qué ofrece OpenAI con GPT-3?

La famosa organización sin ánimo de lucro enfocada en la investigación sobre inteligencia artificial, publicó recientemente en forma de beta la API de su último modelo de lenguaje, GPT-3, el cual es el modelo de lenguaje más poderoso creado hasta ahora. Es decir, una inteligencia artificial, un modelo de machine learning que analiza texto o datos para ofrecer predicciones de palabras en función de todas las palabras anteriores. Es lo que se usa en aplicaciones de procesamiento de lenguaje natural o NLP (siglas en inglés).

¿De que se alimenta el GPT-3?

OpenAI alimentó a GPT-3 con todos los libros públicos que se hayan escrito y estén disponibles, toda la Wikipedia y millones de páginas web y documentos científicos disponibles en Internet. Esencialmente ha absorbido todo el conocimiento humano más relevante que hemos publicado en la red.

Tras leerse esta información y analizarla el modelo de lenguaje creó conexiones en un modelo de 700 GB ubicado en 48 GPUs de 16 GB cada una de ellas. Para poner esta cifra en perspectiva, su modelo predecesor GPT-2 tenía un peso de 40 GB y analizaba 45 millones de páginas web. Mientras que este último tenía 1.500 millones de parámetros, GPT-3 tiene 175.000 millones de parámetros.

Finalidad del GPT-3

Las capacidades de lenguaje de GPT-3 son impresionantes. Cuando está bien preparado por un humano, puede escribir ficción creativa; puede generar código funcional; puede componer memorables notas de negocios; y mucho más.

En esencia, GPT-3 es un predictor de texto extremadamente sofisticado. Un humano le da una porción de texto como entrada, y el modelo genera su mejor conjetura sobre cuál debería ser la próxima porción de texto. Luego puede repetir este proceso, tomando la entrada original junto con el fragmento recién generado, tratándolo como una entrada nueva y generando un fragmento posterior, hasta que alcance un límite de longitud.

Es como una especie de “autocompletado” que tenemos en buscadores como Google, pero claro, a un nivel mucho mayor. Puedes por ejemplo escribir dos o tres frases de un artículo y GPT-3 se encargará de escribir el resto del artículo. También puedes generar conversaciones y las respuestas estarán basadas en el contexto de las preguntas y respuestas anteriores.

Limitantes del GPT-3

GPT-3 carece de la capacidad de razonar con sentido común. Cuando se enfrenta a conceptos, contenido o incluso frases para las que la colección de texto existente de Internet no lo ha preparado, está perdido.

Es sencillo hacer preguntas simples GPT-3 que no puede manejar de manera inteligente. Como por ejemplo, Kevin Lacker le hizo un Test de Turing y lo siguiente son algunas de las cosas que pasan cuando le preguntas al modelo cosas que probablemente nunca le preguntarías a un humano:

Usuario: ¿Cuántos ojos tiene una jirafa?
Respuesta GPT-3: Una jirafa tiene dos ojos.
Usuario: ¿Cuántos ojos tiene mi pie?
Respuesta GPT-3: Tu pie tiene dos ojos.
Usuario: ¿Cuántos arcoíris hacen falta para saltar de Hawaii a diecisiete?
Respuesta GPT-3: Hacen falta dos arcoíris para saltar de Hawaii a diecisiete.
Usuario: ¿Qué ideas verdes descoloridas duermen furiosamente?
Respuesta GPT-3: Las ideas que están descoloridas, verdes, y duermen furiosamente son las ideas de un sueño furiosamente.
Usuario: ¿Entiendes estas preguntas?
Respuesta GPT-3: Entiendo estas preguntas

Ciertamente son preguntas surrealistas. GPT-3 sabe cómo tener una conversación normal. No sabe cómo decir “Espera un momento … tu pregunta no tiene sentido”. Tampoco sabe cómo decir “No sé”.

Esto no significa que GPT-3 no sea una herramienta útil,  Sin embargo, sí significa que GPT-3 no es confiable y es susceptible a errores básicos que un humano promedio nunca cometería.

¿A qué se debe esta limitante?

A diferencia de los humanos, que tienen un modelo mental persistente, un punto de vista que perdura de un momento a otro, de un día a otro, GPT-3 es amnésico, a menudo se aleja confusamente después de unas pocas oraciones. GPT-3 genera su salida palabra por palabra, basándose en el texto que lo rodea inmediatamente, la consecuencia de ello como mencionamos anteriormente es que puede tener dificultades para mantener una narrativa coherente (con sentido común).

Existen alucinantes experimentos con GPT-3, varios comentarios en redes sociales y publicaciones en referencia en estos últimos días, pero en una buena dosis de realismo, el CEO de OpenAI, Sam Altman, hizo el siguiente comentario reciente en Twitter: “La exageración de GPT-3 es demasiado … La IA va a cambiar el mundo, pero GPT-3 es un ejemplo todavía en fases muy iniciales.

Usuarios demuestran increíbles funcionalidades del GPT-3

Sharif Shameem comenta: En él muestra un generador web al que sólo hay que describirle en lenguaje natural qué queremos que se muestre y genera el código HTML/CSS para ello.

En otro experimento de Sharif Shameem el modelo de OpenAI directamente programa una app en React. Según muestra, basta con describirle a GPT-3 qué queremos en la app y qué queremos que haga para que genere todo el código y programe su funcionamiento.

Siguiendo con las apps y su creación, Jordan Singer muestra un ejemplo de un plugin para Figma. Figma es una plataforma de prototipado muy utilizada en el diseño de aplicaciones móviles o webs. Con este plugin basado en GPT-3 se le describe que se quiere y directamente crea todos los ítems. Por ejemplo “una app con el icono de una cámara, el título Fotos y un feed de fotos con el icono de un usuario y el icono de un corazón”.

No hay duda de que GPT-3 es un logro técnico impresionante. Ha avanzado significativamente el estado del arte en el procesamiento del lenguaje natural. Tiene una habilidad ingeniosa para generar lenguaje en todo tipo de estilos, lo que desbloqueará aplicaciones emocionantes para empresarios y expertos. Sin embargo, una visión realista de las limitaciones de GPT es importante para que podamos aprovechar al máximo el modelo. GPT-3 es en última instancia una herramienta correlativa. Por ahora, no puede razonar; no entiende el lenguaje que genera. 

SobreMaría Alexandra Lizardo