graphics processing unit (GPU)

een graphics processing unit (GPU) is een computerchip die afbeeldingen en afbeeldingen weergeeft door snelle wiskundige berekeningen uit te voeren. GPU ‘ s worden gebruikt voor zowel professionele als personal computing. Traditioneel zijn GPU ‘ s verantwoordelijk voor de weergave van 2D-en 3D-afbeeldingen, animaties en video-hoewel ze nu een breder gebruiksbereik hebben.

In de begindagen van de berekening voerde de centrale verwerkingseenheid (CPU) deze berekeningen uit., Naarmate meer grafische-intensieve toepassingen werden ontwikkeld, echter, hun eisen zetten een druk op de CPU en verminderde prestaties. GPU ’s werden ontwikkeld als een manier om deze taken van CPU’ s te verwijderen en om de weergave van 3D-graphics te verbeteren. GPU ‘ s werken met behulp van een methode genaamd parallelle verwerking, waarbij meerdere processors omgaan met afzonderlijke delen van dezelfde taak.

GPU ‘ s zijn bekend in PC (personal computer) gaming, waardoor een soepele, hoogwaardige grafische weergave mogelijk is. Ontwikkelaars begonnen ook GPU ‘ s te gebruiken als een manier om workloads te versnellen op gebieden zoals kunstmatige intelligentie (AI).,

GPU use cases / waarvoor worden GPU ‘ s vandaag gebruikt?

vandaag worden grafische chips aangepast aan een grotere verscheidenheid aan taken dan oorspronkelijk ontworpen voor, deels omdat moderne GPU ‘ s meer programmeerbaar zijn dan in het verleden.

enkele voorbeelden van GPU-gebruik zijn:

  • GPU ‘ s kunnen de rendering van real-time 2D-en 3D-Grafische toepassingen versnellen.
  • videobewerking en het aanmaken van video-inhoud is verbeterd met GPU ‘ s., Video-editors en grafisch ontwerpers kunnen bijvoorbeeld de parallelle verwerking van een GPU gebruiken om de weergave van high-definition video en afbeeldingen sneller te maken.
  • Videogame graphics zijn computationeel intensiever geworden, dus om gelijke tred te houden met display technologieën — zoals 4K en hoge refresh rates — is de nadruk gelegd op goed presterende GPU ‘ s.
  • GPU ‘ s kunnen machine learning versnellen. Met de high-computational vermogen van een GPU, workloads zoals beeldherkenning kunnen worden verbeterd.,
  • GPU ’s kunnen het werk van CPU’ s delen en deep learning neurale netwerken trainen voor AI-toepassingen. Elk knooppunt in een neuraal netwerk voert berekeningen uit als onderdeel van een analytisch model. Programmeurs realiseerden zich uiteindelijk dat ze de kracht van GPU ’s konden gebruiken om de prestaties van modellen over een diepe leermatrix te verhogen — gebruik makend van veel meer parallellisme dan mogelijk is met conventionele CPU’ s. GPU-leveranciers hebben hiervan kennis genomen en maken nu GPU ‘ s voor deep learning-toepassingen in het bijzonder.
  • GPU ‘ s zijn ook gebruikt om Bitcoin en andere cryptocurrencies zoals Ethereum te delven.,

hoe een GPU werkt

een GPU kan worden geïntegreerd met een CPU op hetzelfde elektronische circuit, op een grafische kaart of op het moederbord van een PC of server. GPU ’s en CPU’ s zijn vrij vergelijkbaar in de bouw. GPU ‘ s zijn echter speciaal ontworpen voor het uitvoeren van meer complexe wiskundige en geometrische berekeningen. Deze berekeningen zijn nodig om afbeeldingen weer te geven. GPU ‘ s kunnen meer transistors bevatten dan een CPU.,

grafische verwerkingseenheid

GPU ‘ s gebruiken parallelle verwerking, waarbij meerdere processors afzonderlijke delen van dezelfde taak verwerken. Een GPU heeft ook zijn eigen RAM (random access memory) om gegevens op te slaan op de afbeeldingen die het verwerkt. Informatie over elke pixel wordt opgeslagen, inclusief de locatie op het scherm. Een digital-to-analoog converter (DAC) is aangesloten op het RAM en zal het beeld omzetten in een analoog signaal zodat de monitor het kan weergeven., Video RAM zal meestal werken op hoge snelheden.

GPU ‘ s zijn er in twee typen: geïntegreerd en discreet. Geïntegreerde GPU ’s komen ingebed naast de GPU’ s, terwijl discrete GPU ‘ s kunnen worden gemonteerd op een aparte printplaat.

voor bedrijven die veel rekenkracht nodig hebben, of werken met machine learning of 3D-visualisaties, kan het hebben van GPU ‘ s gefixeerd in de cloud een goede optie zijn. Een voorbeeld hiervan is Google ’s Cloud GPU’ s, die hoogwaardige GPU ‘ s bieden op Google Cloud. Het hosten van GPU ‘ s in de cloud heeft de voordelen van het vrijmaken van lokale middelen, waardoor tijd, kosten en schaalbaarheid worden bespaard., Gebruikers kunnen kiezen tussen een scala aan GPU-types terwijl het verkrijgen van flexibele prestaties op basis van hun behoeften.

GPU vs. CPU

GPU ‘ s zijn vrij vergelijkbaar met CPU-architecturen. CPU ’s worden echter gebruikt om te reageren op en verwerken van de basisinstructies die een computer besturen, terwijl GPU’ s speciaal zijn ontworpen om snel afbeeldingen en video ‘ s met hoge resolutie te maken. In wezen zijn CPU ’s verantwoordelijk voor het interpreteren van de meeste commando’ s van een computer, terwijl GPU ‘ s zich richten op grafische weergave.,

in het algemeen is een GPU ontworpen voor data-parallellisme en het toepassen van dezelfde instructie op multiple data-items (SIMD). Een CPU is ontworpen voor taak-parallellisme en het doen van verschillende bewerkingen.

beide worden ook onderscheiden door het aantal kernen. De kern is in wezen de processor binnen de processor. De meeste CPU-kernen zijn genummerd tussen vier en acht, hoewel sommige tot 32 kernen hebben. Elke kern kan zijn eigen taken, of threads te verwerken., Omdat sommige processors multithreading-mogelijkheden hebben – waarbij de kern virtueel verdeeld is, waardoor een enkele kern twee threads kan verwerken-kan het aantal threads veel hoger zijn dan het aantal kernen. Dit kan nuttig zijn bij videobewerking en transcodering. CPU ‘ s kunnen twee threads (onafhankelijke instructies) per core (de onafhankelijke processoreenheid) draaien. Een GPU-kern kan vier tot 10 threads per kern hebben.

een GPU is in staat om afbeeldingen sneller te renderen dan een CPU vanwege zijn parallelle verwerkingsarchitectuur, die het mogelijk maakt om meerdere berekeningen tegelijkertijd uit te voeren., Een enkele CPU heeft deze mogelijkheid niet, hoewel multicore processors berekeningen parallel kunnen uitvoeren door meer dan één CPU op dezelfde chip te combineren.

een CPU heeft ook een hogere kloksnelheid, wat betekent dat het een individuele berekening sneller kan uitvoeren dan een GPU, dus is het vaak beter uitgerust om basis computertaken te verwerken.

GPU vs. grafische kaart: gelijkenissen en verschillen

GPU en grafische kaart zijn twee termen die soms door elkaar worden gebruikt. Er zijn echter een aantal belangrijke verschillen tussen de twee., Het belangrijkste verschil is dat de GPU een specifieke eenheid binnen een grafische kaart is. De GPU is wat de werkelijke beeld-en grafische verwerking uitvoert. Een grafische kaart is wat beelden presenteert aan de display-eenheid.

Top GPU ‘ s en grafische kaarten op de markt

Nvidia, Advanced Micro Devices (AMD), Intel en Arm zijn enkele van de belangrijkste spelers op de GPU-markt.,

in 2020 zijn enkele top GPU ‘ s en grafische kaarten opgenomen:

  • GeForce RTX 3080
  • GeForce RTX 3090
  • GeForce RTX 3060 Ti
  • AMD Radeon RX 6800 XT
  • AMD Radeon RX 5600 XT

bij het kopen van een grafische kaart, een individual moet zijn prijs, totale waarde, prestaties, functies, hoeveelheid videogeheugen en beschikbaarheid in het achterhoofd te houden. Features consumenten kunnen zorgen over onder andere ondersteuning voor 4K, 60 fps (frames per seconde) of meer, en Ray tracing., Prijs zal soms een beslissende factor, als sommige GPU ‘ s kunnen tweemaal de kosten voor slechts 10% -15% meer prestaties.

geschiedenis van GPU ‘ s

sinds het begin van de videogames in de jaren zeventig bestaan er gespecialiseerde chips voor grafische verwerking. in het begin werden grafische mogelijkheden opgenomen als onderdeel van een videokaart, een discrete speciale printplaat, siliciumchip en noodzakelijke koeling die 2D -, 3D-en soms zelfs algemene grafische verwerking (GPGPU) berekeningen voor een computer mogelijk maakt., Moderne kaarten met geïntegreerde berekeningen voor triangle setup, transformatie en verlichting functies voor 3D-toepassingen worden meestal GPU ‘ s genoemd. Eens zeldzaam, hogere-end GPU ’s zijn nu gebruikelijk en worden soms geïntegreerd in CPU’ s zelf. Alternatieve termen omvatten grafische kaart, display adapter, video-adapter, videokaart en bijna elke combinatie van de woorden in deze termen.

grafische verwerkingseenheden kwamen aan het eind van de jaren negentig op high-performance enterprise computers, en Nvidia introduceerde de eerste GPU voor personal computers, de GeForce 256, in 1999.,

na verloop van tijd maakte de rekenkracht van GPU ‘ s de chips een populaire keuze voor andere resource-intensieve taken die geen verband houden met graphics. Vroege toepassingen omvatten wetenschappelijke berekeningen en modellering; tegen het midden van 2010, GPU computing ook aangedreven machine learning en AI software.

in 2012 bracht Nvidia een gevirtualiseerde GPU uit, die grafische verwerkingskracht van de server CPU offloads in een virtual desktop infrastructure (VDI)., Grafische prestaties is van oudsher een van de meest voorkomende klachten onder gebruikers van virtuele desktops en applicaties, en gevirtualiseerde GPU ‘ s zijn bedoeld om dat probleem aan te pakken.

Ray tracing en andere recente trends

enkele recente trends in GPU-technologie zijn:

  • vanaf 2019 bieden GPU-leveranciers doorgaans GPU-virtualisatie, en er komen regelmatig nieuwe en krachtigere GPU-chips uit.in 2019 introduceerde AMD zijn volledige lijn Radeon RX 5700 serie GPU ‘ s. De serie is gebaseerd op AMD ‘ s Navi GPU architectuur., Navi wordt gezien als een upgrade naar AMD ‘ s Graphics Core Next technologie.Arm richtte zich met zijn Mali-G77 processors op de markt voor mobiele augmented reality (AR) en virtual reality (VR).
  • Nvidia bleef haar ray tracing mogelijkheden duwen als onderdeel van haar RTX platform. Ray tracing wordt gezien als de volgende stap in de evolutie van grafische rendering na rasterisatie., Terwijl rasterisatie objecten gebruikt die zijn gemaakt van een mesh van driehoeken om een 3D-model te vertegenwoordigen, biedt ray tracing realistische verlichting door het fysieke gedrag van licht te simuleren door het pad van licht als pixels in een beeldvlak te traceren en de effecten te simuleren.
  • Enterprise-grade, datacenter GPU ‘ s helpen organisaties om parallelle verwerkingsmogelijkheden te benutten door middel van hardware-upgrades. Dit helpt organisaties om workflows en grafische-intensieve toepassingen te versnellen.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *