“Es una innovación notable, a mí también me sorprendió”. “Suena mucho más natural que la mayoría de programas similares.” “Ha aprendido intuitivamente a entablar conversación sobre casi cualquier tema”. Estas son algunas de las primeras opiniones de expertos en inteligencia artificial (IA) sobre ChatGPT publicadas en este artículo. La herramienta tardó unos días en sorprender tanto a profesionales como a personas comunes, quienes compartieron fragmentos de sus conversaciones con el bot en las redes sociales. De repente, cualquiera con una conexión a Internet podía chatear con una máquina que proporcionaba respuestas coherentes y bien escritas, aunque no siempre veraces. Para muchos, la sensación era la de hablar con alguien, no con algo. Este sábado se cumplen dos años del lanzamiento de ChatGPT, que marcó la introducción de la IA generativa, que produce contenido supuestamente original a partir de instrucciones humanas.
¿Qué momento atraviesa esta tecnología? La fascinación inicial dio paso a una lucha empresarial por liderar el despliegue de este tipo de herramientas. Microsoft no tardó en cerrar un acuerdo de cooperación con OpenAI, el desarrollador de ChatGPT y Dall-E, y Google no tardó dos meses en anunciar el lanzamiento de sus propios modelos abiertos. Hoy ya hablamos de lo que la consultora Gartner llama el valle de la decepción: La euforia inicial creó unas expectativas tan altas que, al no verse inmediatamente satisfechas, han provocado que el interés decaiga. Es una fase del ciclo natural. exageraciones La evolución tecnológica y lo habitual es que dentro de un tiempo (menos de dos años, según Gartner), la curva de expectativas vuelva a subir, aunque de forma más moderada que la primera vez.
“Dos años después, el cerebro artificial sigue ahí súper cuñado estocástico: hablan con mucha autoridad, parecen saberlo todo, pero lo que dicen no es fruto de un conocimiento real, sino de su capacidad, adquirida intuitivamente, de parecer sabios”, resume Julio Gonzalo, catedrático de Idiomas e Informática. Sistemas de la UNED y Vicerrector de Investigación. El propio Andrej Karpathy, uno de los creadores del modelo GPT (y que abandonó OpenAI en febrero), dijo hace unas semanas que veía signos de agotamiento en la IA generativa: como las primeras versiones de ChatGPT ya estaban entrenadas con casi todos los dispositivos en disponible. libros de texto en línea, las nuevas versiones no podrán utilizar muchos más datos que sus predecesores ya revisados. Esto significa que los modelos no se pueden mejorar mucho. “Para que haya un gran salto será necesaria una innovación en la arquitectura algorítmica, como el desarrollo en 2017 de transformadores (un tipo de redes neuronales clave para el desarrollo de grandes modelos de lenguaje)”, afirma Álvaro Barbero, director . de Inteligencia Artificial en el Instituto de Ingeniería del Conocimiento.
También hay preocupación en el plan de negocios. Los inversores aún tienen que encontrar una manera de hacer que la IA sea rentable. OpenAI recaudó 10 mil millones en octubre dólares “para operar con flexibilidad”, que se suma a los 13.000 comprometidos por Microsoft en 2023, pero esta cantidad puede no ser suficiente. El modelo GPT-5, anunciado originalmente para finales de 2023, aún no ha llegado y los analistas están empezando a pensar que no será tan revolucionario como lo vendió el director ejecutivo de la compañía, Sam Altman.
Dentro de 12 meses, la burbuja GenAI habrá estallado.
• La economía no funciona
• El enfoque actual se ha estancado
• No existe una aplicación excelente
• Las alucinaciones persisten
• Los defectos óseos persisten
• Nadie tiene una brecha
• La gente está empezando a entender todo lo anterior. pic.twitter.com/OXd1kRyXYg-GaryMarcus (@GaryMarcus) 24 de julio de 2024
Según las propias proyecciones de OpenAI, la empresa no obtendrá beneficios hasta 2029 y, mientras tanto, gastará unos 500 millones de dólares al mes. De acuerdo a cálculos ambientales especializados informaciónque calcula la factura por entrenar sus modelos en 7 mil millones hasta 2024, OpenAI podría quedarse sin dinero el próximo verano. “Dentro de 12 meses, la burbuja de la IA habrá estallado”, afirmó el pasado mes de julio el experto en IA Gary Marcus. “Los números no cuadran, el enfoque actual se ha estancado, no se ha desarrollado ninguna aplicación definitiva, las alucinaciones (cuando el sistema crea cosas) siguen ahí, los errores estúpidos continúan, nadie tiene una ventaja insuperable sobre los demás y las personas. Él está entendiendo todo lo anterior”.
La revolución de la IA
Dejando a un lado las consideraciones financieras, no hay duda de que la herramienta que se lanzó el 30 de noviembre de 2022 fue deslumbrante. “Desde mi punto de vista, la aparición de ChatGPT fue algo absolutamente revolucionario”, afirma Carlos Gómez Rodríguez, catedrático de Informática e Inteligencia Artificial de la Universidad de La Coruña y experto en procesamiento del lenguaje natural, la rama de la IA que busca comprender y generar textos. “Por primera vez, el mismo sistema podría hacer todo sin una formación específica. Antes de crear un traductor español-inglés, pero diseñándolo específicamente para ello. Resultó que al desarrollar estos sistemas más grandes, el modelo podía hacer muchas cosas. Esto ha cambiado todo en mi campo de investigación”.
“La IA generativa ha proporcionado aplicaciones interesantes, como resumir, escribir cartas en otros idiomas o extraer información de documentos, pero también aplicaciones erróneas, como utilizarlas para extraer información, cuando lo que hacen es predecir, no exigir o hacer. deducciones, cuando no lo justifican”, explica Ricardo Baeza-Yates, director de investigación del Instituto Experimental de IA de la Universidad Northeastern (Boston) y profesor de la Universidad Pompeu Fabra de Barcelona. La inteligencia artificial generativa, de la mano de los generadores de imágenes o vídeo, está contribuyendo a difuminar la línea entre realidad y mentira con los llamados deepfakes y ha dado lugar a formas de ciberataques más sofisticadas y económicas.
Apenas tres meses después del lanzamiento de ChatGPT, OpenAI presentó el modelo GPT-4, un paso cualitativo respecto a la primera versión de la herramienta. Pero en los casi dos años transcurridos desde entonces, no ha habido más avances significativos. “Parece que con GPT-4 se alcanzaron los límites de lo que una IA es capaz de simplemente imitar nuestra intuición. También se ha confirmado que la capacidad de pensar racionalmente no aparece mágicamente con sólo agrandar el cerebro”, ilustra Gonzalo.
Dónde estamos y qué queda por ver
Lo último en IA generativa son los sistemas multimodales, capaces de combinar diferentes soportes (texto, imagen y audio). Por ejemplo, puedes mostrarle al último ChatGPT o a Gemini una imagen del refrigerador para que pueda decirte qué preparar para la cena. Pero consiga estos resultados con intuición, no con razonamiento. “Lo siguiente será investigar si los grandes patrones lingüísticos pueden ser agentes. Es decir, trabajan por su cuenta e interactúan entre sí en nuestro nombre. Nos podrían reservar billetes de avión y hotel según las instrucciones que les damos”, describe Gómez Rodríguez.
“Creo que los modelos de IA generativa están llegando a su límite y será necesario añadir otros elementos, como el conocimiento verdadero (Perplexity y otros ya citan las fuentes que utilizan), la lógica deductiva (IA clásica) y, a largo plazo, la inteligencia común. Sólo entonces podremos empezar a hablar de razonamiento real”, dice Baeza-Yates.
Eso es lo que Altman prometió para el próximo año. A esto se le llama IA general, que iguala o supera las capacidades humanas. Parece claro que algo así tardará mucho en llegar y que, según Baeza-Yates, hará falta algo más que IA generativa para lograr este objetivo. “Los grandes modelos multimodales serán una parte fundamental de la solución global para el desarrollo de la IA general, pero no creo que sean suficientes por sí solos: necesitaremos un puñado de otros grandes avances”, dijo Demis Hassabis, jefe de Investigación de IA. , dijo la semana pasada sobre Google y el Premio Nobel de Química, en un encuentro con periodistas en el que participó EL PAÍS.
“La IA generativa no sólo no nos acerca a las grandes cuestiones científicas de la IA, como si puede haber inteligencia en algo que no es orgánico, sino que nos aleja de ellas. Estos sistemas son incapaces de razonar, tendremos que recurrir a la IA simbólica (la que se basa en la lógica matemática)”, reflexiona Ramón López de Mántaras, fundador del Instituto de Investigación en Inteligencia Artificial del CSIC y uno de los pioneros en España de la disciplina, que ha cultivado desde hace más de 40 años. Alphafold, la herramienta ganadora del Premio Nobel desarrollada por el equipo de Hassabis para predecir la estructura de 200 millones de proteínas, integra 32 técnicas de IA diferentes, siendo la generativa solo una de ellas. “Creo que el futuro va a ir por este tipo de sistemas híbridos”, afirma López de Mántaras.
(tagsTranslate) Tecnología(s) Big Tech(s) Transformación(es) digital(s) Inteligencia(s) artificial(s) ChatGPT(s) OpenAI(s) Sam Altman(s) Microsoft(s) Google(s) Algoritmos computacionales