Por David Tomas, publicado el 23 marzo 2023
Después de muchas semanas anticipando su lanzamiento, ChatGPT-4 ya está aquí. La nueva versión del modelo de inteligencia artificial de OpenAI trae muchas novedades. Entre ellas, que ahora puede entender imágenes. En este vídeo te voy a contar todo lo que debes saber sobre GPT-4 y lo pondremos a prueba. ¡Vamos a verlo!
OpenAI ha anunciado el lanzamiento del nuevo modelo de lenguaje GPT-4 con mejoras significativas en su capacidad para analizar problemas complejos y de comunicación. Los usuarios ahora pueden interactuar con él mediante la carga de imágenes o textos extensos para su resumen, análisis o búsqueda de patrones complejos. Además, OpenAI ha mejorado las capacidades intelectuales del servicio, lo que se traduce en una capacidad de razonamiento más humana y menos propensa a cometer errores obvios.
De momento se ha lanzado como herramienta de pago para los suscriptores de ChatGPT Plus, que cuesta unos 20 dólares al mes, aunque no sabemos si más adelante estará accesible para todo el mundo de forma gratuita.
Vamos a ver la explicación y el tutorial que hemos preparado:
La principal novedad de GPT-4 es que ahora sabe interpretar imágenes o fotografías y hacer deducciones lógicas sobre ellas. Por ejemplo, es capaz de reconocer los ingredientes de una fotografía del interior de tu nevera y sugerirte recetas que puedes llevar a cabo con ellos. También puede interpretar un esquema hecho a lápiz de una página web y pasarlo a código, ya que ChatGPT entiende los lenguajes de código más usados como HTML, CSS o Javascript.
Una vez GPT-4 ha interpretado el contenido de una imagen, le puedes hacer preguntas para que saque conclusiones sobre ella. Por ejemplo, si le mostramos una imagen con muchos globos de helio atados a una cuerda, y le preguntamos qué pasaría si cortamos esa cuerda, este nuevo modelo hará una deducción lógica y nos dirá que se irán volando.
Un punto positivo que traerá el nuevo modelo es ayudar a personas con problemas de visión. De esta forma, aplicaciones como Be my eyes, una aplicación que empareja a personas con problemas de visión con voluntarios que les ayuden a resolver peticiones concretas, podrían aprovechar esta tecnología para maximizar la ayuda que dan y ofrecerla a más personas.
O simplemente puede explicar por qué un meme puede resultar gracioso de una forma muy analítica y, en sí, humorística.
Aunque la principal novedad es la interpretación avanzada de imágenes, GPT-4 ha seguido mejorando tanto en creatividad como en inteligencia. Por ejemplo, le podemos pedir que nos resuma un texto pero solo usando palabras que empiezan por “G”. Ha mejorado la composición de canciones, la redacción de artículos y guiones de ficción.
También ha aumentado el límite de caracteres que puede interpretar, llegando a las 25.000 palabras aproximadamente, lo cual puede ser muy útil para pedirle que haga resúmenes de artículos académicos o libros breves. Ha mejorado su inteligencia hasta el punto de poder aprobar con nota muchos exámenes de temáticas muy variadas, desde matemáticas hasta literatura inglesa, física, química o biología, cosa que no sucedía en la anterior versión.
Es importante remarcar que OpenAI ha pasado 6 meses mejorando la seguridad de GPT-4 para que sea más ético y que no dé información falsa o perjudicial. Para esta nueva versión han incorporado más feedback humano, tanto de usuarios existentes de ChatGPT como de expertos en seguridad y protección, y se irán actualizando en tiempo real a medida que los usuarios encuentren errores.
Como hemos dicho antes, GPT-4 solo está disponible para suscriptores de ChatGPT Plus pero ya hay aplicaciones de terceros que lo han integrado. Por ejemplo, Duolingo. La famosa aplicación para aprender idiomas ha creado una nueva funcionalidad llamada Roleplay donde puedes practicar conversaciones a tiempo real con una inteligencia artificial a través de un chat. No solo improvisa y te sigue el hilo de conversación, sino que además, cuando cometes un error, te puede explicar por qué es erróneo y ayudarte a entenderlo.