Bueno ustedes saben que yo he comentado en varios episodios de que todo este tema de la IA me tiene
saturado, porque es cierto que muchas compañías te la están metiendo con calzador hasta donde
no va, pero acabo de ver la presentación de GPT-4o que es el nuevo modelo de la gente de
OpenAI para lo que tendremos, creo que ya disponibles en chat GPT y de verdad que me dejó
con el culo torcido en el buen sentido. Ellos dicen que esta nueva versión que le ponen la O
después del 4, de Omni, me imagino que es omnipresente, omnipotente, no tengo idea, dice que es un paso hacia
una interacción persona computadora mucho más natural que acepta entrada de cualquier combinación
de texto, audio, imagen y genera cualquier combinación de salidas de texto, audio, imagen, que puede
responder entradas de audio en tan solo 232 milisegundos con un promedio de 320 milisegundos
que es similar a al tiempo de respuesta humano y bueno ellos te explican un montón de cosas de
lo que hace este nuevo modelo en comparación al modelo de GPT-4 y GPT-3.5 que era el inicial
que empezó digamos con todo esto. Es impresionante si ven el vídeo hasta youtube pueden ver la
presentación es impresionante lo que se ha logrado con esta nueva versión con GPT-4o y es que
lo primero, dicen que han optimizado muchísimo cómo funciona todo su nuevo modelo y claro
los usuarios gratuitos vamos a poder tener acceso a cosas que solo están disponibles para
usuarios de pago con lo cual felicidades, o sea ellos remarcaron en varias ocasiones que están
intentando, o lo que quieren hacer es llevar chat GPT para todo el mundo en general y eso está
espectacular. Hicieron varios demos y empezaron por uno donde básicamente le pedían que le contara
una historia una historia y a medida que iba contando la historia le iban pidiendo que cambiar el tono
que fuera más dramático que el pusieron más emoción es increíble como a medida que le han
pidiendo las cosas, con la voz porque lo que estoy hablando es de interacción a voz no con textos sino
que estaban dictando cosas y chat gpt estaba respondiendo con una voz femenina todo lo que
estaban diciendo y a medida que iban pidiendo cosas la voz iba cambiando según el tono lo
pidieron pidiendo y espectacular llegó un punto que le dijeron, ok ahora cuéntanos todo esto con
voz robótica y automáticamente cambió la voz y puso una voz así como robótica y lo último que
pidieron fue que le dijeran al final del cuento con voz melodica o como cantando, y efectivamente
usando como una especie de canto terminó la historia, Y wow, muy chulo de ver la verdad
lo otro que hizo el otro demo que hicieron fue digamos que es por acto el tema de este de la
visión o sea chatgpt ahora puede ver dicho mal y pronto lo que tú lo muestras con la cámara
del dispositivo, en el demo el uno de los chicos le pone una ecuación matemática en una hoja
de papel poner la cámara y chatgpt pues captar la ecuación y él va haciendo preguntas le va
preguntando cómo resolver la ecuación ese tipo de ecuación y demás y chatgpt le va dando
las instrucciones para hacer esto además de eso después le pone un texto diferente a esa ecuación
y chatgpt entiende lo que lo que le puso, básicamente le puso I love you ChatGPT y lo curioso
no es que lo entiende, es cómo reacciona porque es una reacción casi que natural porque reaccinó
tipo, diciendo Awwww, o no sé como, que dulce no, que me quieras y uno se queda así
como que WOW, ya esto ya es otro nivel otro ejemplo que pusieron era con un código un código en
python donde la persona le va preguntando que qué hace ese código y que le explique lo que hace el
código y efectivamente tú puedes compartir la nueva aplicación para escritorio el código o
lo que estás viendo tú en pantalla y ahí te va explicando lo que tú quieras usar lo que
preguntes por respecto esa imagen te la va explicando, y eso está espectacular y el último, no hubo
dos mas, hubo un demo o sea cuando lo demos tres personas en tiempo real probando estas cosas donde una
chica que habla italiano y un chico que habla inglés le piden a chatgpt que traduzca en tiempo
real cuando el hable en inglés que le traduzca a ella en italiano y cuando ell habla italiano que le traduzca
en inglés, igual mágico súper chulo con incluso con el asento italiano y todo o sea espectacular
y ya el último demo fue donde uno de los chicos coge la cámara pone la cámara para
hacer un selfie para pedirle a chatgpt que le diga según el su rostro lo que viene el selfie que
está de ánimo tiene pero antes de poner la cámara delante a la teléfono el pone la trasera y lo
primero que va a echargpt es la mesa y le dice como que es raro poder leer tu cara no, porque lo que
veas como una especie de superficie, y el tipo le dice no no no, disculpame esa esa foto fue de
la mesa o sea fue anterior, echa un vistazo nuevo y ahí sí chatgpt le digamos que lee su cara
y le dice bueno viendo tu cara con una gran sonrisa se puede decir que estás feliz que
estás como se dice excitado, que estás contento y demás y bueno la verdad que está súper súper
súper chulo eso entonces nada vamos a ver a dónde llega porque estas gente acaban de decir como
quien dice que debido a que GPT-4o o es el primer modelo que combinan todas estas modalidades pues
todavía están apenas rascando la superficie para explorar lo que el modelo puede hacer y sus limitaciones
así que se verán cosas maravillosas también por supuesto pero también se verán horrores nada
que el futuro es hoy por cierto estoy esperando la aplicación oficial para macos para instalarla
porque está bastante bastante chulo y es verdad que cuando tú usas esta tecnología para aprender
y para cosas útiles es una es una maravilla hasta un próximo episodio
(musica)