Secciones
Servicios
Destacamos
A nadie le gusta gastar dinero en vano, y menos a los gigantes tecnológicos hegemónicos -hasta ahora- estadounidenses. El desplome de las acciones de Nvidia hace hoy una semana hasta restarle casi 600.000 millones de dólares de su valor -la mayor debacle en bolsa ... en un solo día- hizo saltar todas las alarmas y muchos se plantearon si había valido la pena invertir ingentes cantidades de dinero cuando había otros modelos, como el de DeepSeek, que era mucho más económico de entrenar y requiere mucha menos energía y potencia de procesamiento que, por ejemplo, ChatGPT. Pero al profundizar en el modelo que propone la startup china comienzan a aparecer voces que apuntan a un grave error del mercado y a que Nvidia lejos de perder, se beneficiará -y mucho- de la aparición de DeepSeek. Parece que los millones invertidos por Microsoft, Google o Meta están a salvo, por ahora.
Nvidia se convirtió el año pasado en la empresa más valiosa del mundo por el apetito insaciable de los grandes grupos tecnológicos en sus potentes procesadores de inteligencia artificial (IA). Hasta ahora los gigantes tecnológicos estadounidenses habían tenido un acceso monopolístico a la IA porque el precio de entrada era de miles de millones de dólares, es decir, no había forma de desafiar el 'status quo'. Por eso, los expertos explican que con la aparición de DeepSeek se comienza a «nivelar el campo de juego». Y parece que el mercado lo va entendiendo. En solo una semana se ha pasado del caos total en las bolsas a confiar de nuevo en Nvidia, situando a la compañía fabricante de chips para IA como una de las grandes beneficiadas de la irrupción de DeepSeek. Su tesis es clara: como el modelo de la startup china es abierto, el desarrollo de la IA se multiplicará exponencialmente.
Noticia relacionada
José A. González
DeepSeek ha cambiado el paradigma de la IA con su nuevo modelo R1 de código abierto capaz de realizar tareas al mismo nivel que los modelos cerrados al resto de desarrolladores lanzados por OpenAI (ChatGPT), Anthropic o Meta, pero a una fracción de su coste y tiempo. «Hace tiempo que se vienen cuestionando la apuesta por seguir aumentando sin freno los modelos de IA, sobre todo los modelos de lenguaje de gran escala (LLM)», explica a este periódico Senén Barro, director del Citius (Centro Singular de Investigación en Tecnologías Inteligentes) y catedrático de IA de la Universidad de Santiago de Compostela. El experto asegura que muchas empresas líderes en esta tecnología llevan tiempo intentando buscar alternativas al «creciente gigantismo» de algunas multinacionales pero «no se esperaba un logro tan pronto ni desde China». «Abrochémonos los cinturones, que seguiremos teniendo sorpresas frecuentemente. Es como la carrera espacial, pero acelerada en el tiempo», asegura Senén.
Por ello, tiene claro que «el impresionante batacazo de Nvidia es coyuntural» y que la progresiva integración de la IA con el mundo real «va a exigir muchísima más capacidad de almacenamiento y tratamiento de datos». La demanda de recursos va a ser enorme, muy superior a la actual, no solo en grandes centros de datos y en la nube, sino en robots, dispositivos y máquinas de todo tipo. Satya Nadella, CEO de Microsoft, lo resumió en la paradoja Jevons: «A medida que la IA se hace más eficiente y accesible, veremos cómo se dispara su uso, convirtiéndola en una 'commodity' de la que no podemos tener suficiente», señaló. Es decir, se necesitarán más procesadores y computación.
Los expertos del sector recuerdan la irrupción de Google en el mundo de los sistemas operativos con su apuesta de código abierto -Android- para plantar cara a iOS de Apple. Su nacimiento provocó que la venta de teléfonos inteligentes se disparara y la industria de los semiconductores facturara más. Lo mismo está ocurriendo en los últimos meses con la inteligencia artificial y solo hay que cambiar los nombres y los actores. Donde pone Google hay que escribir DeepSeek y Apple por OpenAI.
Así, aunque en lo inmediato parece que ha sido Nvidia el principal pagano de los platos rotos por DeepSeek, a medio plazo lo serán más las compañías líderes en la IA generativa como ChatGPT, que han visto cómo les han trastocado su hegemonía hasta ahora indiscutible: «Se arrogaban casi de modo fanfarrón el papel de líderes sin discusión de esta tecnología, y ahora ven que hay alternativas, en este caso desde China, que además de ser tan buenas o mejores, son abiertas y han costado mucho menos», apunta el catedrático de IA, que prevé además que DeepSeek es solo la «avanzadilla» de lo que veremos en los próximos meses, en particular por parte de compañías chinas.
Otro de los puntos que ha quedado claro en esta semana de infarto en el mundo tecnológico es que Europa tiene un papel secundario en la carrera por la IA. «No hay una estrategia clara que compita al nivel de los dos gigantes», lamenta Fernando Suárez, presidente del Consejo general de Colegios Profesionales de Ingeniería Informática (CCII). En su opinión, la llegada de DeepSeek es una buena noticia porque «democratizará el acceso a tecnologías avanzadas y promoverá la innovación» que, en este caso, además implicará un menor consumo energético, lo que responde a «una de las preocupaciones más apremiantes a nivel global».
Suárez explica, además, que China cuenta con una «ventaja aplastante» en volumen de ingenieros, lo que le da un «potencial único» para desarrollar y perfeccionar modelos de IA. Por eso, esta 'batalla' se decidirá con el arma clave del talento. «España y Europa tienen talento de alta calidad, pero sufren un déficit importante en términos de volumen y, sobre todo, en la retención de ese talento, lo que las relega a un papel menos competitivo en esta carrera global», concluye.
Los motores que impulsan los sistemas de inteligencia artificial no son los algoritmos ni, siquiera, el software que incorporan. Su verdadero corazón son los chips especializados que entrenan e implementan los modelos. Entrenamiento e inferencia: dos pilares indispensables para entender la IA tal y como se desarrolla hoy en día.
La actual generación de asistentes de inteligencia artificial generativa ha encontrado su base en las GPU de Nvidia. Estas unidades de procesamiento son las mejores del mercado para entrenar modelos con ingentes cantidades de datos, permitiendo que los asistentes virtuales ofrezcan información precisa en respuesta a consultas.
Sin embargo, una vez entrenada, una herramienta de IA generativa sigue necesitando chips para ejecutar sus funciones, como cuando se le solicita a un chatbot que redacte un documento o genere una imagen. Ahí es donde entra en juego la inferencia: un modelo de IA entrenado debe asimilar nueva información y hacer inferencias a partir de lo que ya sabe para producir una respuesta, es decir razonar casi como un humano.
Ejecutar servicios de asistentes de IA para miles de millones de personas requiere una enorme capacidad de computación. A medida que se integren funciones como la comprensión de video, el razonamiento o la memoria a gran escala en los sistemas de IA, el costo de la inferencia aumentará.
En este segmento, Nvidia sigue liderando el mercado, pero las restricciones impuestas por Estados Unidos a la comercialización de sus dispositivos en China han abierto la puerta a la competencia. Compañías chinas como Huawei están tomando la delantera.
El gigante tecnológico chino apuesta a que la inferencia será una fuente de demanda aún mayor en el futuro, especialmente si el ritmo de entrenamiento de modelos se desacelera y las aplicaciones de IA, como los chatbots, se generalizan. Su gran apuesta se llama Ascend, y los rumores indican que es el motor detrás de DeepSeek.
¿Ya eres suscriptor/a? Inicia sesión
Publicidad
Publicidad
Te puede interesar
Fallece un hombre tras caer al río con su tractor en un pueblo de Segovia
El Norte de Castilla
Publicidad
Publicidad
Nuestra selección
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.