Sam Altman, el director ejecutivo de OpenAI, posiblemente la empresa de IA más importante en la actualidad junto con Deepmind y Google, ahora habla de los próximos proyectos de IA, como GPT-4 y la inteligencia artificial general en una entrevista reciente.
El año pasado, la empresa de IA OpenAI mostró el enorme modelo lingüístico GPT-3 con 175.000 millones de parámetros. El tamaño de la red neuronal es una locura: GPT-3 genera, traduce o resume textos con una calidad sin precedentes. La nueva inteligencia artificial de texto supera con creces el rendimiento de GPT-1 (2018) y GPT-2 (2019).
El impresionante rendimiento de la IA de texto inició una tendencia mundial de grandes modelos de inteligencia artificial para igualar o superar GPT-3. Después, a principios de 2021, OpenAI mostró los siguientes avances: los modelos de IA multimodal DALL-E y CLIP se entrenan con datos de texto e imagen y, por tanto, ofrecen capacidades adicionales.
Recientemente todos nos hemos quedado con la boca abierta al ver las capacidades de ChatGPT, un chatbot creado con la tecnología GPT-3 de la empresa. Sin embargo, ahora todas las miradas se ponen sobre GPT-4 y finalmente Sam Altman se ha pronunciado.
“GPT-4 sólo se lanzará cuando sea seguro y responsable hacerlo”, explica Altman. Tampoco esperes un ChatGPT más potente
Según los rumores hasta el momento, se prevé que GPT-4 se lance relativamente pronto, posiblemente en el primer trimestre de 2023, y ofrecerá un rendimiento significativamente mayor que GPT-3.5 (una versión mejorada de GPT-3).
En las redes sociales circulan desde hace semanas rumores sobre modelos de tamaño demencial (100 billones de parámetros), pero ninguno de ellos tiene fundamento ni justificación.
Igualmente, con herramientas como ChatGPT, entre otras, ya se ha demostrado que el número de parámetros no lo es todo, sino que la arquitectura, la cantidad de datos y la calidad también desempeñan un papel importante en el entrenamiento.
Destacar lo que Altman tiene que decir al respecto de esa cantidad exagerada de parámetros: “La fábrica de rumores sobre GPT-4 es algo ridículo. No sé de dónde sale todo esto. La gente está pidiendo a gritos que la decepcionen, y lo harán”.
GPT-4, según explica, probablemente no será mucho más grande que GPT-3, pero requerirá mucha más potencia de cálculo. Los avances deberían proceder principalmente de datos de mayor calidad, mejores algoritmos y un ajuste más preciso.
Con todo esto, las últimas noticias que teníamos de Altman en relación a esta novedad eran de septiembre de 2021, cuando dijo que GPT-4 podría no llegar a ser mucho mayor que GPT-3.
Ahora, Altman volvió a hablar de GPT-4, diciendo que el nuevo modelo no debería aparecer hasta que se pueda hacer “de forma segura y responsable” (eso no es ninguna novedad, ya que OpenAI lleva diciéndolo desde GPT-2). Sin embargo, añadió que OpenAI va a “liberar tecnología mucho más lentamente de lo que a la gente le gustaría”.
“Vamos a esperar mucho más tiempo…”, dijo Altman. Así que eso no suena como un lanzamiento en este primer trimestre de 2023 de GPT-4. Tampoco ha llegado a confirmar en qué año finalmente se lanzará o si realmente será en 2023.
Este también anunció que OpenAI está trabajando en un sistema de IA generativa para vídeo. Google ya ha presentado tres sistemas de texto a vídeo con Imagen Video, Phenaki y una combinación de ambos. Meta también mostró un sistema de texto a vídeo con Make-a-Video, así que esperamos con ansias la propuesta de OpenAI.
Según Altman, OpenAI está mejorando actualmente la eficiencia de los sistemas de IA más pequeños. Tal vez, por tanto, no haya necesidad de modelos de IA de proporciones aún más gigantescas. “En el futuro, mucha gente se sorprenderá de lo potente que puede llegar a ser la IA sin que crezcan los parámetros”, afirma.