¿Es algo peor por ser más barato? La respuesta de los estrategas de mercado es un rotundo 'no'. En otras palabras, el hecho de que sea posible avanzar en la tecnología de inteligencia artificial (IA) con un menor gasto es positivo a largo plazo. Esto se debe a que la posibilidad de adoptar esta nueva tecnología a un coste más accesible impulsará, en última instancia, el crecimiento del mercado tecnológico en su conjunto.
Este es el razonamiento que hacen los estrategas dos días después de vivir el 'huracán DeepSeek', que hundió a los fabricantes de semiconductores el lunes, con Nvidia a la cabeza (-17%). Ahora toca analizar y relativizar, y los expertos llegan a distintas conclusiones, en general bastante constructivas.
JP Morgan dice que las reducciones de costes históricamente han impulsado el crecimiento del mercado tecnológico. Si el mercado crece, argumenta el banco estadounidense, a medio y largo plazo la innovación tecnológica de DeepSeek impulsará un mayor gasto en equipos de semiconductores.
Las reducciones de costes históricamente han impulsado el crecimiento del mercado tecnológico
Por tanto, el banco minimiza el impacto negativo de la IA de DeepSeek en los semiconductores. “Aunque los inversores puedan tardar algunas semanas en entender las implicaciones de esta disrupción tecnológica, creemos que representa una oportunidad de compra a medio plazo”, apunta. En este sentido, mantiene su consejo de 'sobreponderar' Alphawave y sigue 'neutral' en Infineon.
El Nasdaq cayó un 3% a comienzos de la semana, arrastrado por los fabricantes de semiconductores, que vieron pérdidas fuertes en EEUU, Europa y Asia debido a la preocupación de que se esté destinando un gasto excesivo a la tecnología de IA. Los estrategas del mercado han estado preocupados por la capacidad de las empresas tecnológicas para generar rentabilidad a partir de las enormes cantidades de dinero que invierten en IA. Los principales beneficiarios de este gasto son los fabricantes de semiconductores, con Nvidia a la cabeza, que ofrece potentes chips (GPUs) que aceleran el trabajo de las empresas tecnológicas al entrenar y ejecutar modelos de IA.
Noticia relacionada
DeepSeek pone en jaque a Nvidia, pero "es una buena noticia para la economía global"A pesar de la caída y las dudas, los analistas de Citi siguen siendo optimistas respecto a Nvidia y afirman que su "análisis actualizado sobre las burbujas no indica el fin del mercado alcista de acciones en EEUU”. Además, destacan que, desde la perspectiva de las empresas europeas de semiconductores, el mercado primero ha ajustado las valoraciones antes de evaluar realmente el impacto.
En un comunicado publicado el lunes después de su hundimiento en bolsa, la propia Nvidia expresó que lo ocurrido con DeepSeek demuestra la utilidad de sus chips para el mercado chino y que, en el futuro, serán necesarios más chips para satisfacer la demanda de los servicios de la startup.
"El trabajo de DeepSeek ilustra cómo pueden crearse nuevos modelos utilizando esa técnica, aprovechando modelos ampliamente disponibles y un poder de cómputo que cumple completamente con los controles de exportación", señaló Nvidia en su comunicado.
JULIUS BAER TAMBIÉN MANTIENE SU "VISIÓN CONSTRUCTIVA"
En opinión de los estrategas de Julius Baer, es aún demasiado pronto para determinar si los modelos de lenguaje de DeepSeek representarán un verdadero cambio de paradigma, por lo que mantienen su “visión constructiva” sobre la computación en la nube y la IA.
El avance más significativo aportado por DeepSeek radica en la modificación arquitectónica de sus modelos, que emplean un enfoque de Mezcla de Expertos (MoE). Este diseño utiliza subredes especializadas con un mecanismo de enrutamiento, cada una con experiencia en dominios específicos. En contraste, los modelos tradicionales suelen depender de arquitecturas densas de transformadores, donde todos los parámetros se activan simultáneamente para cada entrada. Los modelos densos de transformadores desarrollados por OpenAI procesan más de 1,5 billones de parámetros para cada entrada, mientras que el modelo V3 de DeepSeek activa selectivamente aproximadamente 30.000 millones de los 670.000 millones de parámetros, lo que reduce los requisitos de hardware y proporciona beneficios sustanciales de escalabilidad. La compañía también destacó que el coste total del entrenamiento del modelo ascendió a alrededor de 5,67 millones de dólares, divididos entre el preentrenamiento, la ampliación de contenidos y el postentrenamiento, a un coste de 2 dólares por hora de GPU, alrededor del 5% de lo que OpenAI informó para GPT-4.
"La verdadera innovación es que DeepSeek logró implementar y entrenar, a un coste supuestamente muy bajo, un modelo altamente complejo que aprovecha la arquitectura MoE. Occidente se ha centrado principalmente en agregar más chips, en lugar de optimizar la arquitectura", remarcan en Julius Baer. Con todo, el impacto de la IA china aún debe probarse, y "los escenarios apocalípticos sobre hardware que circulan en redes sociales parecen ser exagerados", concluye el banco suizo.