Una panorámica general del desarrollo de la inteligencia artificial actual
Mi columna en Invertia de esta semana se titula «Inteligencia artificial: aclarando el panorama» (pdf), y trata de construir una especie de «modelo para todos los públicos» de lo que está pasando en la industria actualmente, y sobre todo, de sus implicaciones de cara al futuro ya no de sus participantes, sino de todos nosotros. …
![Una panorámica general del desarrollo de la inteligencia artificial actual](https://www.enriquedans.com/wp-content/uploads/2025/02/Artificial-intelligence-Jernej-Furman-CC-BY.jpg)
Mi columna en Invertia de esta semana se titula «Inteligencia artificial: aclarando el panorama» (pdf), y trata de construir una especie de «modelo para todos los públicos» de lo que está pasando en la industria actualmente, y sobre todo, de sus implicaciones de cara al futuro ya no de sus participantes, sino de todos nosotros.
Lo que intento explicar, básicamente, es que hablamos de una industria muy estratificada, en la que partimos de una gran base formada sobre todo por la infraestructura, fundamentalmente por Nvidia y sus chips utilizados para los grandes centros de datos en los que se lleva a cabo el entrenamiento y la operación de los modelos, sobre la que se asientan otra serie de compañías, que van desde la primera que marcó el inicio de esta era, OpenAI, hasta todas las que intentan competir con ella en el desarrollo de modelos: en los Estados Unidos, empresas como las big tech de toda la vida (Google, Microsoft, Meta, etc.) y otras surgidas más recientemente, como Anthropic, Perplexity y similares.
En China, marcada por las restricciones para acceder a los chips más avanzados, esas compañías también se estructuran entre las clásicas big tech (Baidu, Alibaba y Tencent) y otros nuevos competidores como Deepseek, Stepfun, ModelBest, Zhipu o Infinigence AI. ¿La diferencia? Que en China, el gobierno, ante la necesidad de progresar más rápidamente, ha dado lugar a un escenario de colaboración que obliga al desarrollo en código abierto, o al menos, a un cierto nivel de apertura que si bien no es total, sí posibilita un clima más cooperativo y de fertilización cruzada.
Estas compañías invierten, por lo general, ingentes recursos en el desarrollo y entrenamiento de sus modelos, y por lo general, las compañías de otras industrias, aunque perciban la inteligencia artificial como el futuro, no pretenden competir con ellas. El desarrollo de modelos es una actividad sumamente especializada, compleja y que exige recursos en los que la mayoría de las compañías que conocemos no están dispuestas a invertir. Desde el lanzamiento de ChatGPT como chatbot simplemente porque era la mejor manera de plantear a los usuarios que contribuyesen a su entrenamiento, hasta las últimas versiones con capacidades avanzadas de razonamiento, hablamos de una industria fuertemente especializada que proporcionará los modelos para que construyamos sobre ellos, levantemos nuestros agentes especializados, etc.
En ese sentido, la irrupción de Deepseek ha mostrado una clara evidencia: que la innovación no la marca en exclusiva Silicon Valley, que eso es una muy buena cosa para todos, y que en China, debido en gran medida a las restricciones impuestas por el gobierno norteamericano, ha surgido una fuerte tendencia a intentar buscar otras formas de innovar diferentes a las simples scaling laws que utilizan las compañías norteamericanas.
El paper publicado por Deepseek lo muestra claramente: un uso muchísimo más eficiente del reinforcement learning que permite una fuerte optimización de los modelos, y que cambia dramáticamente el cálculo de los recursos necesarios para desarrollar y entrenar un modelo. El éxito de Deepseek, en muchos sentidos, abre el panorama para que muchos otros actores, ni siquiera limitados a los Estados Unidos o a China, se planteen hacer cosas y competir con modelos más abiertos, más eficientes.
Por supuesto, Deepseek no ha jugado completamente limpio… pero nos da a todos igual. Es posible que hayan obtenido chips de Nvidia de manera irregular, como haría cualquiera en su situación, y es seguro que han utilizado fuentes de datos y los propios modelos de OpenAI en su entrenamiento, lo que suena incluso a justicia divina y a eso de «quien roba a un ladrón, tiene cien años de perdón».
Ante esto, hay dos posibilidades: la que apuntan personajes como Dario Amodei y otros, «vamos a reforzar las restricciones a China y a trabajar en modo máximo secreto para evitar filtraciones», y otros que opinamos que el futuro de la inteligencia artificial está, precisamente, en que su desarrollo tenga lugar con luz y taquígrafos, en modo lo más abierto posible, y posibilitando la cooperación y la fertilización cruzada.
Mientras las big tech norteamericanas pretenden un futuro en el que ellas tienen las llaves para vendernos al precio que estimen oportuno el acceso al uso de sus modelos, otros buscan el desarrollo de modelos que posibiliten un uso amplio, razonablemente barato y accesible, y que en lugar de basarse únicamente en el «más dinero, más chips, más infraestructura y más recursos» de los norteamericanos, se basen en el desarrollo de algoritmos más eficientes, que pueden ir desde la eliminación de las multiplicaciones y el uso en su lugar de sumas simples que posibilitan simplificar los cálculos y ahorrar así recursos y energía, a metodologías matemáticas de muchos tipos en los procesos de creación de agentes.
Lo importante es entender, en primer lugar, que todo este panorama confuso es normal cuando estamos ante el desarrollo de una tecnología de propósito general que va a permear absolutamente todas las actividades humanas, que cuantas más vías alternativas se desarrollan, por lo general, mejor para todos, y que todo eso significa que vamos a usar la inteligencia artificial más, no menos. Que sobre esos modelos que la mayoría de las compañías no pretenden desarrollar, podremos crear desde simples RAGs para adaptarlos a nuestros contextos, a plataformas y entornos de desarrollo que puedan coevolucionar de forma convergente, y que nos permitan generar sistemas agénticos que aprendan de nuestra propia actividad y necesidades. Básicamente, poner cada vez más piezas en su sitio.