Des de l’aparició de ChatGPT el 2022 hi ha grans expectatives sobre l’impacte de la intel·ligència artificial generativa, amb episodis sonats com quan OpenAI va llançar la seva versió millorada, GPT-4, i ara, amb l’arribada de la xinesa DeepSeek. Però, són comparables els models? Són molt diferents les IA al mercat?
DeepSeek va llançar el seu model R1 el 20 de gener i en aquestes últimes hores ha liderat les llistes de descàrregues -encara que hi ha restriccions en el procés d’alta de nous usuaris per ciberatacs-, revolucionant els internautes però també sacsejant les borses de tot el món i obrint les portes a un possible canvi de les regles del sector tecnològic.
Les claus, el codi obert, els baixos costos del seu desenvolupament i la seva eficiència. Així ho assenyala a EFE Robert Clarisó, professor dels Estudis d’Informàtica, Multimèdia i Telecomunicació de la UOC (Universitat Oberta de Catalunya), que admet que, per les peculiaritats d’aquest llançament, “ara tothom està en estat de xoc”.
I és que, relata aquest expert, des de l’empresa DeepSeek s’ha aconseguit entrenar un model d’IA generativa molt competitiu, amb un cost molt, molt inferior al que es considerava estàndard al mercat, presentant-se, a més, com a alternativa a ChatGPT oa Gemini (Google).
Segons l’empresa xinesa, el seu model va ser entrenat durant 55 dies amb un pressupost de 5,57 milions de dòlars (5,33 milions d’euros), utilitzant processadors gràfics H800 de Nvidia, una versió de capacitat reduïda dissenyada per al mercat xinès. Aquest cost representa menys d’una desena part de la despesa a l’entrenament del model GPT4o d’OpenAI o una vintena part de l’entrenament d’o1, també d’OpenAI. Això tira per terra aquesta idea que els avenços a IA requereixen una quantitat ingent de recursos de còmput.