La reacción de Silicon Valley a DeepSeek: entre la incredulidad y la alabanza
La llegada de DeepSeek, una inteligencia artificial de código abierto desarrollada en China que presume de medirse con los modelos de razonamiento más avanzados de OpenAI a una fracción del coste, parece haber tumbado la narrativa del dominio estadounidense en este prometedor campo.
Las inversiones milmillonarias en centros de datos y el talento de Silicon Valley podrían no ser suficientes para mantener el liderazgo que hasta estas últimas semanas parecían tener compañías como Google, Anthropic o la propia OpenAI, desarrolladora de la famosa herramienta ChatGPT. Esta posibilidad ha desatado el pánico en la bolsa, sobre todo entre los inversores de la compañía que hasta ahora más se ha beneficiado de las necesidades de computación de estas nuevas herramientas: Nvidia.
Si modelos más fáciles de entrenar y ejecutar consiguen resultados tan buenos como los que muestra DeepSeek, tal vez no sea necesario que empresas como Microsoft o Meta inviertan en los potentes chips que Nvidia crea para este tipo de aplicaciones.
Durante los últimos días, varios expertos en el campo han analizado el modelo tratando de encontrar una explicación a cómo un proyecto pequeño, de una compañía con recursos limitados y en un país con severas limitaciones a la compra del hardware especializado que se necesita para entrenar este tipo de modelos de lenguaje puede haber dado con un producto tan competitivo.
Las reacciones son variadas pero básicamente se dividen en dos campos: hay quienes creen que DeepSeek ha conseguido realmente dar con un proceso de entrenamiento mucho más eficaz usando algunas de las técnicas más punteras de aprendizaje máquina desarrolladas en los últimos años y quienes sostienen que la empresa está mintiendo y tiene acceso a mucha más capacidad de computación de la que puede admitir sin poner en un aprieto al gobierno de Beijing, que habría conseguido burlar las sanciones impuestas por EE.UU. desde hace dos años.
En este segundo grupo se encuentra, por ejemplo, Elon Musk. En su red social, X, Musk explicó que la compañía podría tener acceso a unas 50.000 unidades de proceso gráfico (GPU) H100 de Nvidia, en lugar de las 10.000 A100 (modelo inferior) que aseguran haber usado en el proceso de entrenamiento. El número es todavía muy inferior al que tienen empresas como Microsoft (proveedora de servicios de computación para OpenAI) o Meta pero ayudaría a explicar que DeepSeek sea tan bueno a la hora de razonar sus respuetas.
Entre los escépticos hay quienes señalan también las implicaciones geopolíticas y económicas detrás del anuncio. DeepSeek es un golpe a la moral estadounidense y la agenda del presidente Trump, que ha hecho de la supremacía en Inteligencia Artificial uno de los ejes de su agenda política. Es, además, una compañía fundada por Liang Wenfeng, exgerente de fondos de inversión y fundador del fondo de capital riesgo High-Flyer. Un anuncio como el de DeepSeek habría permitido a Liang crear una posición corta en acciones de Nvidia que reportase importantes beneficios en caso de caer la cotización.
Pero entre los quienes no dudan de las cifras, un grupo que incluye a muchos de los responsables de sus principales competidores, la llegada de DeepSeek ha sido bien recibida, al menos de cara al público.
Marc Andreessen, creador de Netscape y fundador del fondo de capital riesgo A16Z, ha calificado a DeepSeek como "el momento Sputnik de la inteligencia artificial", en referencia al satélite artificial soviético, el primero en orbitar la Tierra, y que que obligó a EE.UU. a acelerar su programa espacial.
Sam Altman, fundador y presidente de OpenAI, asegura que es "un modelo impresionante, sobre todo por los pocos recursos que necesita". El ejecutivo asegura que OpenAI adelantará algunos anuncios para competir mejor con esta alternativa de código abierto.
El mayor responsable de inteligencia artificial en Meta, Yann LeCun también parece creer que las cifras de DeepSeek son posibles y apunta a que la enorme cantidad de procesadores y capacidad de computación de empresas como Microsoft o la propia Meta no está dedicada exclusivamente a entrenar modelos, sino a lo que se conoce como "inferencia", que a grandes rasgos es la tarea de ejecutarlos, realizar consulta sobre ellos y mantenerlos. Para LeCun, lo mejor de DeepSeek es que cimienta la idea de que las alternativas de código abierto pueden igualar e incluso superar a los modelos cerrados como los que usan Google u OpenAI.
Satya Nadella, presidente de Microsoft, también considera que es una buena noticia, y cita la conocida como Paradoja de Jevons, un principio económico que indica que una mayor eficiencia conduce al mayor consumo de un recurso. "A medida que la IA se vuelva más eficiente y accesible, veremos que su uso se dispara, convirtiéndolo en un producto del que simplemente no podemos tener suficiente", explica.
La propia Nvidia, vapuleada en los mercados, ha defendido el modelo, calificándolo como "un avance excelente en el campo de la IA" y explicando que a largo plazo hará aumentar la demanda de sus chips.
Internamente, sin embargo, es difícil saber si en estas compañías la llegada de DeepSeek se ve con tan buenos ojos. Según la revista Fortune, Meta ha creado con urgencia cuatro equipos de ingeniería internos para analizar cómo DeepSeek ha conseguido mejorar tanto la eficiencia en entrenamiento de un modelo de lenguaje.
Meta está (o estaba) a punto de lanzar Llama 4, la nueva versión de su modelo de lenguaje, también de código abierto, pero, según Fortune, Mathew Oldham, director de infraestructura de IA en Meta, ha dado a entender a otros ingenieros de la compañía que DeepSeek podría estar por delante de esta próxima versión de Llama.
OpenAI también se ha visto obligada a reaccionar. Ha ampliado el acceso a su modelo de razonamiento más avanzado, o1, que hasta ahora sólo estaba disponible para usuarios dispuestos a pagar 200 dólares al mes, a usuarios de ChatGPT Plus, que tiene un coste 10 veces menor.