Con Deep Research, OpenAI apunta un futuro claro. Uno lleno de agentes de IA especializados (y muy caros)

OpenAI sigue pisando el acelerador y no para de presentar cambios en sus servicios y nuevos modelos. Si hace tres días llegaba o3-mini para todos los usuarios de ChatGPT, ahora la empresa va más allá y nos ofrece un modelo especialmente ambicioso. No solo eso: es un modelo de IA hiperespecializado en un tipo de tarea: la investigación. Igual no es para ti. El nuevo modelo de IA de OpenAI, llamado Deep Research, no es (probablemente) para ti. En primer lugar, porque se trata de una herramienta hiperespecializada y dirigida a tareas complejas de análisis de datos. Solo 100 (caras) consultas al mes. En segundo, por su precio y limitaciones: ahora mismo Deep Research solo está disponible en la suscripción más cara de OpenAI –ChatGPT Pro, 200 dólares/mes— pero es que además pagando esa cifra solo tendrás acceso a 100 consultas mensuales. Parecen pocas, desde luego, pero eso parece dejar claro que este modelo es especialmente intensivo en recursos. En Xataka He probado DeepSeek en la web y en mi Mac. ChatGPT, Claude y Gemini tienen un problemón Ahorro de tiempo potencialmente enorme. Los resultados de esas consultas, no obstante, parecen ser prometedores. Kevin Weil, uno de los directivos de OpenAI, explicaba que Deep Research "puede realizar tareas de investigación complejas que le llevarían entre 30 minutos y 30 días a una persona", pero a diferencia de los seres humanos, este modelo puede resolver dichas tareas en "entre cinco y 30 minutos" dependiendo de la complejidad. Un modelo que busca y rebusca. Este modelo tiene ya un componente agéntico importante: puede actuar e investigar de forma autónoma, e ir buscando información de forma recursiva. Así, puede analizar un enlace de un sitio web y luego analizar los enlaces a los que lleva ese documento para recurrir también a esa información. Menos alucinaciones. A partir de ahí puede sintetizar toda la información que encuentra a lo largo de ese proceso, que aparentemente es mucho más profundo y complejo. Además en Deep Research todas las respuestas incluyen numerosas citas que validan los datos que se ofrecen, lo que desde luego minimiza las posibles "alucinaciones" de modelos de IA generativa tradicionales. El rendimiento de los mejores modelos en la prueba "Humanity's Last Exam" era sorprendentemente bajo. Con DeepResearch la cosa cambia de forma notable. El modelo o3 como pilar fundamental. La base de Deep Research es una versión especial de o3, el modelo de razonamiento que han modificado para optimizarlo y lograr que se comporte mejor a la hora de navegar por internet y analizar datos. En OpenAi explican cómo el modelo fue entrenado "con tareas del mundo real que requieren un navegador y una herramienta en Python, usando los mismos métodos de aprendizaje por refuerzo que están detrás de OpenAI o1". Poniéndolo a prueba. El resultado es un modelo que logró un nuevo récord en un benchmark llamado Humanity's Last Exam. En estas pruebas, especialmente exigentes para los modelos, se incluyen 3.000 preguntas de alta dificultad en diversos campos académicos. El modelo de o3 usado en Deep Research logró un 26,6% de éxito, que parece una cifra baja pero no lo es tanto si observamos el rendimiento de otros modelo: DeepSeek-R1 logró un 9,4%, o1 un 9,1%, Gemini Thinking logró un 6,2%, Grok-2 un 3,8% y GPT-4o un 3,3%. Un potencial y prometedor becario. Una vez estamos viendo cómo OpenAI está orientando parte de sus productos a convertirlos en asistentes especializados que actúen como una especie de becario brillante y muy capaz. Pagar 200 dólares al mes por algo así puede parecer caro, pero si te ayuda a hacer tu trabajo mucho más rápido, ¿no compensa eso de forma notable? Es probable que sí, y que a este ritmo el público profesional sea candidato a sacar partido de la herramienta. Y una forma de competir con el fenómeno DeepSeek. Es muy probable que los rivales de OpenAI acaben lanzando productos similares, incluso con costes mucho más competitivos. Ha pasado con DeepSeek R1, que compite directamente con o1, pero de momento OpenAI tiene aquí una (¿pequeña?) ventaja competitiva. Una que además puede permitir a la empresa comenzar a impulsar el uso de su suscripción a ChatGPT Pro y así lograr muchos más ingresos. La cuestión, por supuesto, es cuánto tardará la competencia en ofrecer algo así. En Xataka | Mistral AI es la startup francesa que apostó por la eficiencia antes que DeepSeek. Su futuro es incierto - La noticia Con Deep Research, OpenAI apunta un futuro claro. Uno lleno de agentes de IA especializados (y muy caros) fue publicada originalmente en Xataka por Javier Pastor .

Feb 4, 2025 - 00:01
 0
Con Deep Research, OpenAI apunta un futuro claro. Uno lleno de agentes de IA especializados (y muy caros)

Con Deep Research, OpenAI apunta un futuro claro. Uno lleno de agentes de IA especializados (y muy caros)

OpenAI sigue pisando el acelerador y no para de presentar cambios en sus servicios y nuevos modelos. Si hace tres días llegaba o3-mini para todos los usuarios de ChatGPT, ahora la empresa va más allá y nos ofrece un modelo especialmente ambicioso. No solo eso: es un modelo de IA hiperespecializado en un tipo de tarea: la investigación.

Igual no es para ti. El nuevo modelo de IA de OpenAI, llamado Deep Research, no es (probablemente) para ti. En primer lugar, porque se trata de una herramienta hiperespecializada y dirigida a tareas complejas de análisis de datos.

Solo 100 (caras) consultas al mes. En segundo, por su precio y limitaciones: ahora mismo Deep Research solo está disponible en la suscripción más cara de OpenAI –ChatGPT Pro, 200 dólares/mes— pero es que además pagando esa cifra solo tendrás acceso a 100 consultas mensuales. Parecen pocas, desde luego, pero eso parece dejar claro que este modelo es especialmente intensivo en recursos.

Ahorro de tiempo potencialmente enorme. Los resultados de esas consultas, no obstante, parecen ser prometedores. Kevin Weil, uno de los directivos de OpenAI, explicaba que Deep Research "puede realizar tareas de investigación complejas que le llevarían entre 30 minutos y 30 días a una persona", pero a diferencia de los seres humanos, este modelo puede resolver dichas tareas en "entre cinco y 30 minutos" dependiendo de la complejidad.

Un modelo que busca y rebusca. Este modelo tiene ya un componente agéntico importante: puede actuar e investigar de forma autónoma, e ir buscando información de forma recursiva. Así, puede analizar un enlace de un sitio web y luego analizar los enlaces a los que lleva ese documento para recurrir también a esa información.

Menos alucinaciones. A partir de ahí puede sintetizar toda la información que encuentra a lo largo de ese proceso, que aparentemente es mucho más profundo y complejo. Además en Deep Research todas las respuestas incluyen numerosas citas que validan los datos que se ofrecen, lo que desde luego minimiza las posibles "alucinaciones" de modelos de IA generativa tradicionales.

Captura De Pantalla 2025 02 03 A Las 12 49 02 El rendimiento de los mejores modelos en la prueba "Humanity's Last Exam" era sorprendentemente bajo. Con DeepResearch la cosa cambia de forma notable.

El modelo o3 como pilar fundamental. La base de Deep Research es una versión especial de o3, el modelo de razonamiento que han modificado para optimizarlo y lograr que se comporte mejor a la hora de navegar por internet y analizar datos. En OpenAi explican cómo el modelo fue entrenado "con tareas del mundo real que requieren un navegador y una herramienta en Python, usando los mismos métodos de aprendizaje por refuerzo que están detrás de OpenAI o1".

Poniéndolo a prueba. El resultado es un modelo que logró un nuevo récord en un benchmark llamado Humanity's Last Exam. En estas pruebas, especialmente exigentes para los modelos, se incluyen 3.000 preguntas de alta dificultad en diversos campos académicos. El modelo de o3 usado en Deep Research logró un 26,6% de éxito, que parece una cifra baja pero no lo es tanto si observamos el rendimiento de otros modelo: DeepSeek-R1 logró un 9,4%, o1 un 9,1%, Gemini Thinking logró un 6,2%, Grok-2 un 3,8% y GPT-4o un 3,3%.

Un potencial y prometedor becario. Una vez estamos viendo cómo OpenAI está orientando parte de sus productos a convertirlos en asistentes especializados que actúen como una especie de becario brillante y muy capaz. Pagar 200 dólares al mes por algo así puede parecer caro, pero si te ayuda a hacer tu trabajo mucho más rápido, ¿no compensa eso de forma notable? Es probable que sí, y que a este ritmo el público profesional sea candidato a sacar partido de la herramienta.

Y una forma de competir con el fenómeno DeepSeek. Es muy probable que los rivales de OpenAI acaben lanzando productos similares, incluso con costes mucho más competitivos. Ha pasado con DeepSeek R1, que compite directamente con o1, pero de momento OpenAI tiene aquí una (¿pequeña?) ventaja competitiva. Una que además puede permitir a la empresa comenzar a impulsar el uso de su suscripción a ChatGPT Pro y así lograr muchos más ingresos. La cuestión, por supuesto, es cuánto tardará la competencia en ofrecer algo así.

En Xataka | Mistral AI es la startup francesa que apostó por la eficiencia antes que DeepSeek. Su futuro es incierto

-
La noticia Con Deep Research, OpenAI apunta un futuro claro. Uno lleno de agentes de IA especializados (y muy caros) fue publicada originalmente en Xataka por Javier Pastor .