¡AI News!: ya llega GPT-4 multimodal (Microsoft confirmó que el nuevo modelo de lenguaje se conocerá la próxima semana)

(Por Dino Dal Molin, Ceo de Bizit Global, en cocreación con Marcelo Maurizio) La próxima semana conoceremos GPT-4, la próxima generación del popular modelo de lenguaje de inteligencia artificial. Desde Microsoft adelantan que será multimodal.

Sabíamos que GPT-4 sería presentado, con mucha probabilidad, durante el primer semestre de 2023. Afortunadamente, OpenAI no decepcionará en este sentido. Microsoft, uno de los principales inversores de la startup especializada en inteligencia artificial, ha confirmado que el mundo conocerá el nuevo modelo de lenguaje la próxima semana.

De momento, eso sí, no revelaron el día específico.

Si bien gran parte de las novedades técnicas se las guardarán hasta el anuncio oficial, los de Redmond ya han adelantado un detalle clave: GPT-4 será multimodal.

OpenAI, la empresa detrás de Chat GPT y de potenciar el nuevo BING de Microsoft, ha dado a conocer finalmente la nueva versión de su modelo de lenguaje que utiliza Inteligencia Artificial, se trata de una nueva generación del modelo presente en el buscador de Microsoft, que acepta entradas tanto de texto, al igual que con la versión GPT-3, pero que ahora también soporta imágenes aunque las respuestas se mantienen únicamente de forma escrita.

Con GPT-4, por lo tanto, sería posible generar texto, imágenes, vídeos e incluso música. Andreas Braun, director de tecnología de Microsoft Alemania, se pronunció al respecto: 

A pesar de que OpenAI clasifica a GPT-4 como "menos capaz que los humanos en muchos escenarios del mundo real, cuenta con un rendimiento a nivel humano en varios entornos académicos y profesionales".

La compañía detalla que esta nueva versión de la IA es más confiable, creativa, y puede manejar instrucciones mucho más matizadas que su modelo más reciente, el GPT-3.5. Además, GPT-4 supera "considerablemente" a los modelos de lenguaje existentes y a la mayoría de los modelos de última generación.

¿Que quiere decir que un modelo de lenguaje sea multimodal? 

Básicamente, que puede interpretar tanto texto como imágenes. La versión anterior, que da vida a ChatGPT, solo es capaz de producir textos.

Braun describió GPT-4 como un game changer para el sector de la inteligencia artificial, ya que el modelo de lenguaje dará otro paso para acercarse a la capacidad de interpretación humana. Evidentemente, para igualarla todavía le queda un largo trayecto.

Otro de los beneficios de GPT-4 como lenguaje multimodal es que podrá gestionar la entrada y salida de datos en diferentes idiomas. Trasladando esta posibilidad a ChatGPT, podrías realizar la petición en español, pero que el texto generado se encuentre en inglés. Evidentemente, esta novedad también sería de gran ayuda para las herramientas de traducción

Desde Microsoft reiteran que el impacto de ChatGPT en la vida diaria de tantas personas es similar al que provocó el iPhone hace más de una década. No obstante, la popularidad del chatbot no frenó sus aspiraciones de seguir mejorando el modelo de lenguaje que lo hace posible. Por ello la gran atención que le están dedicando a la presentación de GPT-4.

Asimismo, la compañía dirigida por Saya Nadella ha dejado claro que GPT-4 no llega para robarse los empleos de las personas. Por ejemplo, aquellos que trabajan en medios de comunicación escrito. El objetivo principal es simplificar o potenciar su trabajo, no quitárselos.

Uno de los aspectos más interesantes de GPT-4 es su capacidad para comprender tanto imágenes como texto. GPT-4 puede subtitular -e incluso interpretar- imágenes relativamente complejas.

Lamentablemente, la capacidad de comprensión de imágenes aún no está disponible para todos los usuarios. Por ahora está en la etapa final de prueba y será accesible a través de una lista de espera solamente para quienes estén suscriptos a ChatGPT Plus.

Por ahora estará disponible solo para quienes paguen la suscripción al servicio premium de la herramienta. Se accede a través de una lista de espera.

Los primeros resultados del Mundial de Clubes 2025 (y cuándo juegan los equipos de España y América Latina)

(Una creación colaborativa de XDXT, Roll ideas, Red InfoNegocios, Fox, Telefé) El proyecto MotorHome es una locura apasionada que sigue los principales partidos del Mundial de Clubes con un equipo de periodistas amigos, con un propósito que lo ha hecho totalmente diferencial a todo contenido futbolístico, mostrar cómo vive el hincha, el fan, la cultura del fútbol.

(Lectura ágil de 3 minutos)

La F1, la película, y su nueva forma de hacer mega campañas exitosas (¿por qué medios, algunos influencers y ciertas agencias no quieren hablar de ello?)

(Por Taylor desde NY, junto Maqueda & Maurizio) ¿Qué hay detrás de la cortina? Aunque las activaciones de Crossing están en boca de muchos, los grandes medios parecen tener un rezago en reconocer que estamos ante una revolución en la forma de hacer marketing. Aquí la verdad revelada.

(Contenido de alto valor estratégico: 4 minutos de lectura)

¿Por qué la película F1: The Movie y sus mega activaciones como la de Times Square están cambiando las reglas del juego? (la revolución del Crossing Marketing)

(Por Taylor desde NY, junto Maqueda & Maurizio) La película de la F1, acaba de invadir nada menos y nada más que las 5 esquinas, con autos, OOH, activaciones, ¿Alguna vez te has preguntado por qué ahora las campañas de marketing exitosas hacen muchísima más cosas?

(Contenido de alto valor estratégico: 4 minutos de lectura)

Primero Botafogo, segundo… la noche en la que un gigante sudamericano desafió a París Saint-Germain y cambió el destino del Grupo B

(Una creación colaborativa de MotorHome, Red InfoNegocios, XDXT) ¿Alguna vez viste una noche que quedará en la historia del fútbol sudamericano y del Mundial de Clubes? La respuesta la tiene Botafogo, que en Pasadena, en un escenario emblemático como el Rose Bowl, no solo venció 1-0 al reciente campeón de la UEFA Champions League

(Contenido ágil: 4 minutos de lectura)