unità di elaborazione grafica (GPU)

Un’unità di elaborazione grafica (GPU) è un chip per computer che rende grafica e immagini eseguendo rapidi calcoli matematici. Le GPU sono utilizzate sia per l’elaborazione professionale che per quella personale. Tradizionalmente, le GPU sono responsabili del rendering di immagini 2D e 3D, animazioni e video even anche se, ora, hanno una gamma di utilizzo più ampia.

Nei primi giorni di calcolo, l’unità di elaborazione centrale (CPU) eseguiva questi calcoli., Con lo sviluppo di applicazioni ad alta intensità grafica, tuttavia, le loro richieste hanno messo a dura prova la CPU e ridotto le prestazioni. Le GPU sono state sviluppate come un modo per scaricare tali attività dalle CPU e per migliorare il rendering della grafica 3D. Le GPU funzionano utilizzando un metodo chiamato elaborazione parallela, in cui più processori gestiscono parti separate della stessa attività.

Le GPU sono ben note nei giochi per PC (personal computer), consentendo un rendering grafico fluido e di alta qualità. Gli sviluppatori hanno anche iniziato a utilizzare le GPU come un modo per accelerare i carichi di lavoro in settori come l’intelligenza artificiale (AI).,

Casi d’uso GPU / A cosa servono oggi le GPU?

Oggi, i chip grafici vengono adattati a una più ampia varietà di compiti rispetto a quelli originariamente progettati, in parte perché le GPU moderne sono più programmabili di quanto non fossero in passato.

Alcuni esempi di casi d’uso della GPU includono:

  • Le GPU possono accelerare il rendering di applicazioni grafiche 2D e 3D in tempo reale.
  • L’editing video e la creazione di contenuti video sono migliorati con le GPU., Editor video e graphic designer, ad esempio, possono utilizzare l’elaborazione parallela di una GPU per rendere più veloce il rendering di video e grafica ad alta definizione.
  • La grafica dei videogiochi è diventata computazionalmente più intensa, quindi per tenere il passo con le tecnologie di visualizzazione-come 4K e alte frequenze di aggiornamento-è stata posta l’accento sulle GPU ad alte prestazioni.
  • Le GPU possono accelerare l’apprendimento automatico. Con l’elevata capacità computazionale di una GPU, i carichi di lavoro come il riconoscimento delle immagini possono essere migliorati.,
  • Le GPU possono condividere il lavoro delle CPU e formare reti neurali di apprendimento profondo per le applicazioni AI. Ogni nodo in una rete neurale esegue calcoli come parte di un modello analitico. I programmatori alla fine si resero conto che potevano usare la potenza delle GPU per aumentare le prestazioni dei modelli attraverso una matrice di apprendimento profondo-sfruttando molto più parallelismo di quanto sia possibile con le CPU convenzionali. I fornitori di GPU hanno preso nota di questo e ora creano GPU per usi di apprendimento profondo in particolare.
  • Le GPU sono state utilizzate anche per estrarre bitcoin e altre criptovalute come Ethereum.,

Come funziona una GPU

Una GPU può essere trovata integrata con una CPU sullo stesso circuito elettronico, su una scheda grafica o nella scheda madre di un personal computer o server. GPU e CPU sono abbastanza simili nella costruzione. Tuttavia, le GPU sono specificamente progettate per eseguire calcoli matematici e geometrici più complessi. Questi calcoli sono necessari per il rendering della grafica. Le GPU possono contenere più transistor di una CPU.,

Unità di elaborazione grafica

Le GPU utilizzeranno l’elaborazione parallela, dove più processori gestiscono parti separate della stessa attività. Una GPU avrà anche una propria RAM (random access memory) per memorizzare i dati sulle immagini che elabora. Vengono memorizzate informazioni su ciascun pixel, inclusa la sua posizione sul display. Un convertitore digitale-analogico (DAC) è collegato alla RAM e trasformerà l’immagine in un segnale analogico in modo che il monitor possa visualizzarla., La RAM video in genere funziona a velocità elevate.

Le GPU saranno disponibili in due tipi: integrate e discrete. Le GPU integrate sono incorporate accanto alla GPU, mentre le GPU discrete possono essere montate su un circuito separato.

Per le aziende che richiedono potenza di calcolo pesante, o lavorare con l’apprendimento automatico o visualizzazioni 3D, avendo GPU fissati nel cloud può essere una buona opzione. Un esempio di questo è Google Cloud GPU, che offrono GPU ad alte prestazioni su Google Cloud. L’hosting di GPU nel cloud avrà i vantaggi di liberare risorse locali, risparmiando tempo, costi e scalabilità., Gli utenti possono scegliere tra una gamma di tipi di GPU, ottenendo prestazioni flessibili in base alle loro esigenze.

GPU vs. CPU

Le GPU sono abbastanza simili alle architetture della CPU. Tuttavia, le CPU vengono utilizzate per rispondere ed elaborare le istruzioni di base che guidano un computer, mentre le GPU sono progettate specificamente per rendere rapidamente immagini e video ad alta risoluzione. Essenzialmente, le CPU sono responsabili dell’interpretazione della maggior parte dei comandi di un computer, mentre le GPU si concentrano sul rendering grafico.,

In generale, una GPU è progettata per il parallelismo dei dati e l’applicazione della stessa istruzione a più elementi di dati (SIMD). Una CPU è progettata per il parallelismo delle attività e per eseguire operazioni diverse.

Entrambi sono anche differenziati dal numero di core. Il core è essenzialmente il processore all’interno del processore. La maggior parte dei core della CPU sono numerati tra quattro e otto, anche se alcuni hanno fino a 32 core. Ogni core può elaborare le proprie attività o thread., Poiché alcuni processori hanno capacità di multithreading – in cui il core è diviso virtualmente, consentendo a un singolo core di elaborare due thread-il numero di thread può essere molto più alto del numero di core. Questo può essere utile nell’editing video e nella transcodifica. Le CPU possono eseguire due thread (istruzioni indipendenti) per core (l’unità del processore indipendente). Un core GPU può avere da quattro a 10 thread per core.

Una GPU è in grado di eseguire il rendering delle immagini più rapidamente di una CPU grazie alla sua architettura di elaborazione parallela, che consente di eseguire più calcoli contemporaneamente., Una singola CPU non ha questa capacità, anche se i processori multicore possono eseguire calcoli in parallelo combinando più di una CPU sullo stesso chip.

Una CPU ha anche una velocità di clock più elevata, il che significa che può eseguire un calcolo individuale più velocemente di una GPU, quindi è spesso meglio equipaggiata per gestire le attività di calcolo di base.

GPU contro scheda grafica: somiglianze e differenze

GPU e scheda grafica sono due termini che a volte vengono usati in modo intercambiabile. Tuttavia, ci sono alcune importanti distinzioni tra i due., La differenza principale è che la GPU è un’unità specifica all’interno di una scheda grafica. La GPU è ciò che esegue l’elaborazione reale dell’immagine e della grafica. Una scheda grafica è ciò che presenta le immagini all’unità di visualizzazione.

Le migliori GPU e schede grafiche sul mercato

Nvidia, Advanced Micro Devices (AMD), Intel e Arm sono alcuni dei principali attori del mercato delle GPU.,

Nel 2020, alcuni dei migliori Gpu e schede grafiche hanno incluso:

  • GeForce RTX 3080
  • GeForce RTX 3090
  • GeForce RTX 3060 Ti
  • AMD Radeon RX 6800 XT
  • AMD Radeon RX 5600 XT

Quando si cerca di acquistare una scheda grafica, un individuo dovrebbe tenere il suo prezzo, di valore generale, le prestazioni, le caratteristiche, la quantità di memoria video e la disponibilità in mente. Caratteristiche i consumatori possono preoccuparsi includono il supporto per 4K, 60 fps (fotogrammi al secondo) o più, e ray tracing., Il prezzo a volte sarà un fattore decisivo, poiché alcune GPU potrebbero essere il doppio del costo per solo il 10% -15% in più di prestazioni.

Storia delle GPU

Chip specializzati per l’elaborazione grafica esistono fin dagli albori dei videogiochi nel 1970. All’inizio, le funzionalità grafiche sono state incluse come parte di una scheda video, un circuito dedicato discreto, chip di silicio e raffreddamento necessario che fornisce calcoli 2D, 3D e talvolta anche general-purpose graphics processing (GPGPU) per un computer., Le schede moderne con calcoli integrati per l’impostazione del triangolo, la trasformazione e le funzioni di illuminazione per le applicazioni 3D sono in genere chiamate GPU. Una volta rare, le GPU di fascia più alta sono ora comuni e talvolta sono integrate nelle CPU stesse. Termini alternativi includono scheda grafica, scheda video, scheda video, scheda video e quasi qualsiasi combinazione delle parole in questi termini.

Le unità di elaborazione grafica sono arrivate ai computer aziendali ad alte prestazioni alla fine degli anni 1990 e Nvidia ha introdotto la prima GPU per personal computer, la GeForce 256, nel 1999.,

Nel corso del tempo, la potenza di elaborazione delle GPU ha reso i chip una scelta popolare per altre attività ad alta intensità di risorse non correlate alla grafica. Le prime applicazioni includevano calcoli scientifici e modellazione; a metà degli anni 2010, il GPU computing alimentava anche l’apprendimento automatico e il software AI.

Nel 2012, Nvidia ha rilasciato una GPU virtualizzata, che scarica la potenza di elaborazione grafica dalla CPU del server in un’infrastruttura desktop virtuale (VDI)., Le prestazioni grafiche sono state tradizionalmente una delle lamentele più comuni tra gli utenti di desktop e applicazioni virtuali e le GPU virtualizzate mirano a risolvere questo problema.

Ray tracing e altre tendenze recenti

Alcune tendenze recenti nella tecnologia GPU includono:

  • A partire dal 2019, i fornitori di GPU in genere forniscono la virtualizzazione GPU e nuovi e più potenti chip GPU stanno uscendo regolarmente.
  • Nel 2019, AMD ha introdotto la sua linea completa di GPU Radeon RX serie 5700. La serie è basata sull’architettura GPU Navi di AMD., Navi è visto come un aggiornamento alla tecnologia Graphics Core Next di AMD.
  • Arm si è rivolto al mercato della realtà aumentata mobile (AR) e della realtà virtuale (VR) con i suoi processori Mali-G77.
  • Nvidia ha continuato a spingere le sue capacità di ray tracing come parte della sua piattaforma RTX. Ray tracing è visto come il prossimo passo nell’evoluzione del rendering grafico dopo la rasterizzazione., Mentre la rasterizzazione utilizza oggetti creati da una mesh di triangoli per rappresentare un modello 3D, il ray tracing fornisce un’illuminazione realistica simulando il comportamento fisico della luce tracciando il percorso della luce come pixel in un piano dell’immagine e simulando gli effetti.
  • Le GPU per data center di livello enterprise aiutano le organizzazioni a sfruttare le capacità di elaborazione parallela tramite aggiornamenti hardware. Questo aiuta le organizzazioni ad accelerare i flussi di lavoro e le applicazioni ad alta intensità di grafica.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *