Negli ultimi anni l’intelligenza artificiale generativa ha smesso di essere una curiosità per addetti ai lavori ed è diventata una tecnologia di uso quotidiano. Servizi come ChatGP…

Negli ultimi anni l’intelligenza artificiale generativa ha smesso di essere una curiosità per addetti ai lavori ed è diventata una tecnologia di uso quotidiano. Servizi come ChatGPT, Copilot o Gemini hanno moltiplicato le richieste di calcolo nei data center e, di conseguenza, hanno acceso i riflettori su un componente spesso poco conosciuto dal significativo pubblico ma fondamentale per le prestazioni dei sistemi AI: la memoria ad alta larghezza di banda, nota come HBM. Samsung Electronics, stando a indiscrezioni di settore, avrebbe deciso di aumentare del 20% i prezzi delle sue memorie HBM3E. Una scelta che riflette un equilibrio di mercato sempre più sbilanciato tra domanda e offerta. Le HBM sono in effetti indispensabili per i moderni acceleratori AI, perché consentono di trasferire enormi quantità di dati in tempi ridottissimi, riducendo i colli di bottiglia tipici delle memorie tradizionali. Il problema, dal punto di vista dei clienti, è che i produttori in grado di realizzare queste soluzioni avanzate si contano sulle dita di una mano. Oltre a Samsung, solo SK Hynix e Micron Technology producono memorie HBM di ultima generazione. Una concorrenza limitata che, unita a tempi di espansione produttiva piuttosto lunghi, rende difficile aumentare rapidamente l’offerta.


Fonte: HDBlog

Articolo elaborato automaticamente dal sistema TechTok Autosummary