graphics processing unit (GPU) (Dansk)

en graphics processing unit (GPU) er en computerchip, der gengiver grafik og billeder ved at udføre hurtige matematiske beregninger. GPU ‘ er bruges til både professionel og personlig computing. Traditionelt er GPU ‘ er ansvarlige for gengivelse af 2D-og 3D-billeder, animationer og video-selvom de nu har et bredere anvendelsesområde.

i de tidlige dage af computing udførte centralbehandlingsenheden (CPU) disse beregninger., Efterhånden som der blev udviklet flere grafikintensive applikationer, lægger deres krav imidlertid en belastning på CPU ‘ en og nedsat ydelse. GPU ‘er blev udviklet som en måde at losse disse opgaver fra CPU’ er og forbedre gengivelsen af 3D-grafik. GPU ‘ er fungerer ved hjælp af en metode kaldet parallel processing, hvor flere processorer håndterer separate dele af den samme opgave.

GPU ‘ er er velkendte i PC-spil (personal computer), hvilket giver mulighed for glat grafik af høj kvalitet. Udviklere begyndte også at bruge GPU ‘ er som en måde at fremskynde arbejdsmængder på områder som kunstig intelligens (AI).,

GPU use cases / Hvad bruges GPU ‘ er til i dag?

i dag tilpasses grafikchips til en bredere vifte af opgaver end oprindeligt designet til, delvis fordi moderne GPU ‘ er er mere programmerbare end de var tidligere.

nogle eksempler på GPU-brugssager inkluderer:

  • GPU ‘ er kan fremskynde gengivelsen af 2D-og 3D-grafikapplikationer i realtid.
  • videoredigering og oprettelse af videoindhold er forbedret med GPU ‘ er., Videoredigerere og grafiske designere kan for eksempel bruge den parallelle behandling af en GPU til at gøre gengivelsen af high-definition video og grafik hurtigere.
  • videospilgrafik er blevet mere intensiv beregningsmæssigt, så for at holde trit med displayteknologier-som 4K og høje opdateringshastigheder-er der lagt vægt på højtydende GPU ‘ er.
  • GPU ‘ er kan fremskynde maskinindlæring. Med en GPU ‘ s højcomputationsevne kan arbejdsbelastninger som billedgenkendelse forbedres.,
  • GPU ‘er kan dele arbejdet med CPU’ er og træne dybe læringsneurale netværk til AI-applikationer. Hver knude i et neuralt netværk udfører beregninger som en del af en analytisk model. Programmører til sidst indså, at de kunne bruge den strøm af Gpu ‘er til at øge effektiviteten af modeller på tværs af en dyb læring matrix — drage fordel af langt mere parallelitet, end det er muligt med konventionelle Cpu’ er. GPU-leverandører har noteret sig dette og opretter nu GPU ‘ er til især dyb læringsbrug.
  • GPU ‘ er er også blevet brugt til at minde bitcoin og andre cryptocurrencies som Ethereum.,

Sådan fungerer en GPU

en GPU kan findes integreret med en CPU på det samme elektroniske kredsløb, på et grafikkort eller i bundkortet på en personlig computer eller server. GPU ‘er og CPU’ er er ret ens i konstruktion. GPU ‘ er er dog specielt designet til at udføre mere komplekse matematiske og geometriske beregninger. Disse beregninger er nødvendige for at gengive grafik. GPU ‘ er kan indeholde flere transistorer end en CPU.,

Graphics Processing Unit

Gpu ‘ er vil bruge parallel behandling, hvor flere processorer håndtere særskilte dele af den samme opgave. En GPU vil også have sin egen RAM (random access memory) til at gemme data på de billeder, den behandler. Oplysninger om hver pi .el gemmes, herunder dens placering på displayet. En digital-til-analog konverter (DAC) er forbundet til RAM og vil gøre billedet til et analogt signal, så skærmen kan vise det., Video RAM vil typisk fungere ved høje hastigheder.

GPU ‘ er kommer i to typer: integreret og diskret. Integrerede GPU ‘er kommer indlejret ved siden af GPU’ en, mens diskrete GPU ‘ er kan monteres på et separat printkort.

for virksomheder, der kræver tung computerkraft, eller arbejder med maskinlæring eller 3D-visualiseringer, kan det være en god mulighed at have GPU ‘ er fikseret i skyen. Et eksempel på dette er Googles Cloud GPU ‘er, der tilbyder højtydende GPU’ er på Google Cloud. Hosting af GPU ‘ er i skyen vil have fordelene ved at frigøre lokale ressourcer, hvilket sparer tid, omkostninger og skalerbarhed., Brugere kan vælge mellem en række GPU-typer, mens de får fleksibel ydelse baseret på deres behov.

GPU vs. CPU

GPU ‘ er ligner nogenlunde CPU-arkitekturer. CPU ‘er bruges dog til at reagere på og behandle de grundlæggende instruktioner, der kører en computer, mens GPU’ er er designet specifikt til hurtigt at gengive billeder og video i høj opløsning. I det væsentlige er CPU ‘er ansvarlige for at fortolke de fleste af en computers kommandoer, mens GPU’ er fokuserer på grafikgengivelse.,

generelt er en GPU designet til data-parallelisme og anvendelse af samme instruktion til flere dataelementer (SIMD). En CPU er designet til opgave-parallelisme og gør forskellige operationer.

begge er også differentieret af antallet af kerner. Kernen er i det væsentlige processoren i processoren. De fleste CPU-kerner er nummereret mellem fire og otte, selvom nogle har op til 32 kerner. Hver kerne kan behandle sine egne opgaver eller tråde., Fordi nogle processorer har multithreading kapacitet – hvor kernen er delt næsten, så en enkelt kerne til at behandle to tråde-antallet af tråde kan være meget højere end antallet af kerner. Dette kan være nyttigt i videoredigering og transcoding. CPU ‘ er kan køre to tråde (uafhængige instruktioner) pr kerne (den uafhængige processor enhed). En GPU-kerne kan have fire til 10 tråde pr.

EN GPU er i stand til at gengive billeder hurtigere end en CPU på grund af sin parallel-processing arkitektur, som gør det muligt at udføre flere beregninger på samme tid., En enkelt CPU har ikke denne kapacitet, selvom multicore-processorer kan udføre beregninger parallelt ved at kombinere mere end en CPU på den samme chip.

en CPU har også en højere clockhastighed, hvilket betyder, at den kan udføre en individuel beregning hurtigere end en GPU, så den er ofte bedre rustet til at håndtere grundlæggende computeropgaver.

GPU vs. grafikkort: ligheder og forskelle

GPU og grafikkort er to udtryk, der undertiden bruges om hverandre. Der er dog nogle vigtige sondringer mellem de to., Den væsentligste forskel er, at GPU ‘ en er en bestemt enhed inden for et grafikkort. GPU ‘ en er, hvad der udfører den faktiske billed-og grafikbehandling. Et grafikkort er det, der præsenterer billeder til displayenheden.

Top GPU ‘ er og grafikkort på markedet

Nvidia, Advanced Micro Devices (AMD), Intel og Arm er nogle af de største aktører på GPU-markedet.,

I 2020, nogle af de bedste Gpu ‘ er og grafikkort er:

  • GeForce RTX 3080
  • GeForce RTX 3090
  • GeForce RTX 3060 Ti
  • AMD Radeon RX 6800 XT
  • AMD Radeon RX 5600 XT

Når du ønsker at købe et grafik kort, et individ bør holde sin pris, den samlede værdi, ydelse, funktioner, mængden af video hukommelse og tilgængelighed. Funktioner forbrugerne kan bekymre sig om omfatte støtte til 4K, 60 fps (frames per sekund) eller mere, og ray tracing., Pris vil undertiden være en afgørende faktor, da nogle GPU ‘ er kan være dobbelt så meget som prisen for kun 10% -15% mere ydelse.

Historie af Gpu ‘ er

Specialiserede chips til behandling af grafik har eksisteret siden begyndelsen af videospil i 1970’erne. Tidlig på, grafik kapaciteter blev optaget som en del af en video card, en diskret dedikeret kredsløb, silicium-chip, og der er nødvendige køling, som giver 2D -, 3D-og nogle gange endda generelle formål graphics processing (GPGPU) beregninger for en computer., Moderne kort med integrerede beregninger for Trekant setup, transformation og belysning funktioner til 3D-applikationer kaldes typisk GPU ‘ er. Når sjældne, højere-end GPU ‘er er nu almindelige og er undertiden integreret i CPU’ er selv. Alternative udtryk inkluderer grafikkort, skærmadapter, videoadapter, videokort og næsten enhver kombination af ordene i disse udtryk.

grafikbehandlingsenheder kom til højtydende virksomhedscomputere i slutningen af 1990 ‘ erne, og Nvidia introducerede den første GPU til personlige computere, GeForce 256, i 1999.,

Over tid gjorde processorkraften af GPU ‘ er chipsene til et populært valg til andre ressourceintensive opgaver, der ikke var relateret til grafik. Tidlige applikationer omfattede videnskabelige beregninger og modellering; i midten af 2010 ‘ erne drev GPU computing også maskinlæring og AI-soft .are.

i 2012 frigav Nvidia en virtualiseret GPU, der aflaster grafikprocessorkraft fra serverens CPU i en virtuel desktop-infrastruktur (VDI)., Grafikydelse har traditionelt været en af de mest almindelige klager blandt brugere af virtuelle desktops og applikationer, og virtualiserede GPU ‘ er sigter mod at løse dette problem.

strålesporing og andre nylige tendenser

et par nylige tendenser inden for GPU-teknologi inkluderer:

  • fra 2019 leverer GPU-leverandører typisk GPU-virtualisering, og nye og mere kraftfulde GPU-chips kommer regelmæssigt ud.
  • i 2019 introducerede AMD sin fulde serie af Radeon r.5700 serie GPU ‘ er. Serien er baseret på AMDs Navi GPU-arkitektur., Navi ses som en opgradering til AMDs grafikkern ne .t-teknologi.
  • Arm målrettede markedet for mobil augmented reality (AR) og virtual reality (VR) med sine Mali-G77-processorer.
  • NVIDIA fortsatte med at skubbe sine strålesporingsfunktioner som en del af sin rt. – platform. Ray tracing ses som det næste skridt i udviklingen af grafik rendering efter rasterisering., Mens rasterisering bruger objekter oprettet fra et net af trekanter til at repræsentere en 3D-model, giver strålesporing realistisk belysning ved at simulere lysets fysiske opførsel ved at spore lysets vej som Pi .els i et billedplan og simulere effekterne.
  • Enterprise-grade, data center GPU ‘ er hjælper organisationer udnytte parallelle behandling kapaciteter gennem hard .are opgraderinger. Dette hjælper organisationer med at fremskynde arbejdsgange og grafikintensive applikationer.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *