Kan AMD 130% stijgen dankzij DeepSeek?
Rens Boukema
2 dagen geleden
Chinese AI-lab DeepSeek heeft met zijn R1-model Amerikaanse AI-giganten zoals OpenAI, Meta en Anthropic overtroffen, ondanks lagere ontwikkelingsbudgetten en Amerikaanse sancties tegen China.
DeepSeek's model presteert beter dan concurrenten op benchmarks en werkt bovendien open-source, het draait naar verwachting op AMD-chips.
De groeiende adoptie van AMD’s MI300X-GPU’s, zoals bij Meta’s datacenters, onderstreept AMD’s concurrentievoordeel in inferentie-gedreven workloads met lagere latency en hogere efficiëntie.
De lancering van DeepSeek V3, een doorbraak in AI-modeltraining, heeft het speelveld veranderd voor de halfgeleidersector, en AMD (NASDAQ:AMD) staat in een sterke positie om hiervan te profiteren. Het model laat zien hoe de training van krachtige AI-systemen drastisch goedkoper kan worden, waardoor ontwikkelaars niet langer afhankelijk zijn van Nvidia's extreem dure Blackwell-GPU’s.
DeepSeek is gevestigd in Hangzhou, en gefinancierd door hedgefonds High-Flyer. Het nieuwe R1-model, een large language model (LLM), overtrof benchmarks van Amerikaanse giganten als OpenAI, Meta en Anthropic. Dat DeepSeek dit wist te bereiken ondanks beperkte middelen en Amerikaanse sancties, maakt de prestatie opmerkelijk.
DeepSeek plaatst zich, met vele malen goedkopere chips direct in de top-3: