grafische verwerkingseenheid
GPU ‘ s gebruiken parallelle verwerking, waarbij meerdere processors afzonderlijke delen van dezelfde taak verwerken. Een GPU heeft ook zijn eigen RAM (random access memory) om gegevens op te slaan op de afbeeldingen die het verwerkt. Informatie over elke pixel wordt opgeslagen, inclusief de locatie op het scherm. Een digital-to-analoog converter (DAC) is aangesloten op het RAM en zal het beeld omzetten in een analoog signaal zodat de monitor het kan weergeven., Video RAM zal meestal werken op hoge snelheden.
GPU ‘ s zijn er in twee typen: geïntegreerd en discreet. Geïntegreerde GPU ’s komen ingebed naast de GPU’ s, terwijl discrete GPU ‘ s kunnen worden gemonteerd op een aparte printplaat.
voor bedrijven die veel rekenkracht nodig hebben, of werken met machine learning of 3D-visualisaties, kan het hebben van GPU ‘ s gefixeerd in de cloud een goede optie zijn. Een voorbeeld hiervan is Google ’s Cloud GPU’ s, die hoogwaardige GPU ‘ s bieden op Google Cloud. Het hosten van GPU ‘ s in de cloud heeft de voordelen van het vrijmaken van lokale middelen, waardoor tijd, kosten en schaalbaarheid worden bespaard., Gebruikers kunnen kiezen tussen een scala aan GPU-types terwijl het verkrijgen van flexibele prestaties op basis van hun behoeften.
GPU vs. CPU
GPU ‘ s zijn vrij vergelijkbaar met CPU-architecturen. CPU ’s worden echter gebruikt om te reageren op en verwerken van de basisinstructies die een computer besturen, terwijl GPU’ s speciaal zijn ontworpen om snel afbeeldingen en video ‘ s met hoge resolutie te maken. In wezen zijn CPU ’s verantwoordelijk voor het interpreteren van de meeste commando’ s van een computer, terwijl GPU ‘ s zich richten op grafische weergave.,
in het algemeen is een GPU ontworpen voor data-parallellisme en het toepassen van dezelfde instructie op multiple data-items (SIMD). Een CPU is ontworpen voor taak-parallellisme en het doen van verschillende bewerkingen.
beide worden ook onderscheiden door het aantal kernen. De kern is in wezen de processor binnen de processor. De meeste CPU-kernen zijn genummerd tussen vier en acht, hoewel sommige tot 32 kernen hebben. Elke kern kan zijn eigen taken, of threads te verwerken., Omdat sommige processors multithreading-mogelijkheden hebben – waarbij de kern virtueel verdeeld is, waardoor een enkele kern twee threads kan verwerken-kan het aantal threads veel hoger zijn dan het aantal kernen. Dit kan nuttig zijn bij videobewerking en transcodering. CPU ‘ s kunnen twee threads (onafhankelijke instructies) per core (de onafhankelijke processoreenheid) draaien. Een GPU-kern kan vier tot 10 threads per kern hebben.
een GPU is in staat om afbeeldingen sneller te renderen dan een CPU vanwege zijn parallelle verwerkingsarchitectuur, die het mogelijk maakt om meerdere berekeningen tegelijkertijd uit te voeren., Een enkele CPU heeft deze mogelijkheid niet, hoewel multicore processors berekeningen parallel kunnen uitvoeren door meer dan één CPU op dezelfde chip te combineren.
een CPU heeft ook een hogere kloksnelheid, wat betekent dat het een individuele berekening sneller kan uitvoeren dan een GPU, dus is het vaak beter uitgerust om basis computertaken te verwerken.
GPU vs. grafische kaart: gelijkenissen en verschillen
GPU en grafische kaart zijn twee termen die soms door elkaar worden gebruikt. Er zijn echter een aantal belangrijke verschillen tussen de twee., Het belangrijkste verschil is dat de GPU een specifieke eenheid binnen een grafische kaart is. De GPU is wat de werkelijke beeld-en grafische verwerking uitvoert. Een grafische kaart is wat beelden presenteert aan de display-eenheid.
Top GPU ‘ s en grafische kaarten op de markt
Nvidia, Advanced Micro Devices (AMD), Intel en Arm zijn enkele van de belangrijkste spelers op de GPU-markt.,
in 2020 zijn enkele top GPU ‘ s en grafische kaarten opgenomen:
- GeForce RTX 3080
- GeForce RTX 3090
- GeForce RTX 3060 Ti
- AMD Radeon RX 6800 XT
- AMD Radeon RX 5600 XT
bij het kopen van een grafische kaart, een individual moet zijn prijs, totale waarde, prestaties, functies, hoeveelheid videogeheugen en beschikbaarheid in het achterhoofd te houden. Features consumenten kunnen zorgen over onder andere ondersteuning voor 4K, 60 fps (frames per seconde) of meer, en Ray tracing., Prijs zal soms een beslissende factor, als sommige GPU ‘ s kunnen tweemaal de kosten voor slechts 10% -15% meer prestaties.
geschiedenis van GPU ‘ s
sinds het begin van de videogames in de jaren zeventig bestaan er gespecialiseerde chips voor grafische verwerking. in het begin werden grafische mogelijkheden opgenomen als onderdeel van een videokaart, een discrete speciale printplaat, siliciumchip en noodzakelijke koeling die 2D -, 3D-en soms zelfs algemene grafische verwerking (GPGPU) berekeningen voor een computer mogelijk maakt., Moderne kaarten met geïntegreerde berekeningen voor triangle setup, transformatie en verlichting functies voor 3D-toepassingen worden meestal GPU ‘ s genoemd. Eens zeldzaam, hogere-end GPU ’s zijn nu gebruikelijk en worden soms geïntegreerd in CPU’ s zelf. Alternatieve termen omvatten grafische kaart, display adapter, video-adapter, videokaart en bijna elke combinatie van de woorden in deze termen.
grafische verwerkingseenheden kwamen aan het eind van de jaren negentig op high-performance enterprise computers, en Nvidia introduceerde de eerste GPU voor personal computers, de GeForce 256, in 1999.,
na verloop van tijd maakte de rekenkracht van GPU ‘ s de chips een populaire keuze voor andere resource-intensieve taken die geen verband houden met graphics. Vroege toepassingen omvatten wetenschappelijke berekeningen en modellering; tegen het midden van 2010, GPU computing ook aangedreven machine learning en AI software.
in 2012 bracht Nvidia een gevirtualiseerde GPU uit, die grafische verwerkingskracht van de server CPU offloads in een virtual desktop infrastructure (VDI)., Grafische prestaties is van oudsher een van de meest voorkomende klachten onder gebruikers van virtuele desktops en applicaties, en gevirtualiseerde GPU ‘ s zijn bedoeld om dat probleem aan te pakken.
Ray tracing en andere recente trends
enkele recente trends in GPU-technologie zijn:
- vanaf 2019 bieden GPU-leveranciers doorgaans GPU-virtualisatie, en er komen regelmatig nieuwe en krachtigere GPU-chips uit.in 2019 introduceerde AMD zijn volledige lijn Radeon RX 5700 serie GPU ‘ s. De serie is gebaseerd op AMD ‘ s Navi GPU architectuur., Navi wordt gezien als een upgrade naar AMD ‘ s Graphics Core Next technologie.Arm richtte zich met zijn Mali-G77 processors op de markt voor mobiele augmented reality (AR) en virtual reality (VR).
- Nvidia bleef haar ray tracing mogelijkheden duwen als onderdeel van haar RTX platform. Ray tracing wordt gezien als de volgende stap in de evolutie van grafische rendering na rasterisatie., Terwijl rasterisatie objecten gebruikt die zijn gemaakt van een mesh van driehoeken om een 3D-model te vertegenwoordigen, biedt ray tracing realistische verlichting door het fysieke gedrag van licht te simuleren door het pad van licht als pixels in een beeldvlak te traceren en de effecten te simuleren.
- Enterprise-grade, datacenter GPU ‘ s helpen organisaties om parallelle verwerkingsmogelijkheden te benutten door middel van hardware-upgrades. Dit helpt organisaties om workflows en grafische-intensieve toepassingen te versnellen.