En GPU (graphics processing unit) er en chip som gjør grafikk og bilder ved å utføre raske matematiske beregninger. Gpu-er brukt for både faglig og personlig databehandling. Tradisjonelt, Gpu-er, som er ansvarlig for utførelsen av 2D-og 3D-bilder, animasjoner og video-selv om, nå, de har en bredere bruk varierer.
I de tidlige dagene av computing, central processing unit (CPU) utført slike beregninger., Som mer grafikkintensive programmer ble utviklet, men deres krav sette en belastning på CPU og redusert ytelse. Gpu ble utviklet som en måte å avlaste de oppgaver fra Cpuer og for å forbedre gjengivelsen av 3D-grafikk. Gpu-arbeid ved hjelp av en metode som kalles parallell prosessering, der flere prosessorer håndterer separate deler av den samme oppgaven.
Gpuer er godt kjent i PC (personal computer) spill, slik at for jevn, høy kvalitet grafikk rendering. Utviklerne også begynte å bruke Gpu-er, som en måte å akselerere arbeidsbelastninger i områder som kunstig intelligens (AI).,
GPU bruk saker/Hva er Gpu-er brukt for i dag?
i Dag, grafikk chips blir tilpasset til et bredere spekter av oppgaver enn det som opprinnelig ble utviklet for, delvis fordi moderne Gpuer er mer programmerbare enn de var i fortiden.
Noen eksempler på GPU bruke tilfeller inkluderer:
- Gpu-er, som kan akselerere gjengivelse av real-time 2D-og 3D-grafikk-programmer.
- Video redigering og oppretting av video innhold har økt med Gpu-er., Video redaktører og grafiske designere, for eksempel, kan bruke parallell behandling av en GPU for å gjøre gjengivelse av hd-video og grafikk raskere.
- Video game grafikk har blitt mer intensiv beregninger, så for å holde tritt med display teknologi — som 4K og høy oppdateringsfrekvens — vekt har blitt lagt på høy ytelse Gpu-er.
- Gpu-er, som kan akselerere maskinlæring. Med høy computational muligheten for en GPU, arbeidsbelastninger som bilde anerkjennelse kan bli bedre.,
- Gpu-er, som kan dele arbeidet på Cpuer og tog dybdekunnskap nevrale nettverk for AI programmer. Hver node i en neural nettverk som utfører beregninger som en del av en analytisk modell. Programmerere til slutt innså at de kunne bruke kraften av Gpu-er i stand til å øke ytelsen for modeller over en dyp læring matrix-å ta nytte av langt mer parallellitet enn det som er mulig med konvensjonelle Cpuer. GPU leverandører har tatt hensyn til dette, og nå opprette Gpu for dybdekunnskap bruker spesielt.
- Gpuer har også blitt brukt til å utvinne bitcoin og andre cryptocurrencies som Ethereum.,
Hvordan en GPU fungerer
EN GPU kan bli funnet integrert med en CPU på samme elektroniske krets, på et skjermkort eller på hovedkortet av en personlig datamaskin eller server. Gpu og Cpu-er nokså lik i utførelse. Imidlertid, Gpu-er, som er spesielt designet for å utføre mer komplekse matematiske og geometriske beregninger. Disse beregningene er nødvendig for å rendre grafikk. Gpu-er kan inneholde flere transistorer enn en CPU.,
Gpu vil bruke parallell prosessering, der flere prosessorer håndterer separate deler av den samme oppgaven. En GPU vil også ha sin egen RAM (random access memory) til å lagre data på bildene er det prosesser. Informasjon om hver pixel er lagret, inkludert dens plassering på skjermen. En digital-til-analog omformer (DAC) er koblet til RAM og vil snu bildet til et analogt signal, slik at skjermen kan vise det., Video-RAM vil vanligvis opererer ved høye hastigheter.
Gpu-er vil komme i to typer: integrerte og diskrete. Integrert Gpu kommer innlagt sammen med GPU, mens diskret Gpu-er, som kan monteres på et eget kretskort.
For selskaper som krever mye datakraft, eller arbeide med maskinen læring eller 3D-visualiseringer, etter å ha Gpu-er fiksert i skyen kan være et godt alternativ. Et eksempel på dette er Google Cloud Gpu-er, som tilbyr høy ytelse Gpuer på Google Sky. Hosting Gpu-er i skyen vil ha fordeler av å frigjøre lokale ressurser, for å spare tid, kostnad og skalerbarhet., Brukere kan velge mellom en rekke av GPU typer samtidig få fleksible ytelse basert på deres behov.
GPU og CPU vs.
Gpuer er ganske lik CPU-arkitektur. Men Cpuer er brukt til å svare på og behandle de grunnleggende instruksjonene som driver en datamaskin, mens Gpu-er, som er spesielt utviklet for å raskt gjengi bilder med høy oppløsning og video. I hovedsak, Cpuer er ansvarlig for å tolke de fleste av datamaskinens kommandoer, mens Gpu fokus på grafikk rendering.,
generelt, en GPU er designet for data-parallellitet og anvendelse av den samme undervisning til flere data-elementer (SIMD). En CPU er designet for oppgave-parallellitet og gjør ulike operasjoner.
Begge er også inndelt etter antall kjerner. Kjernen er i hovedsak prosessoren i prosessoren. De fleste CPU-kjerner er nummerert mellom fire og åtte, men noen har opp til 32 kjerner. Hver kjerne kan behandle sine egne oppgaver, eller tråder., Fordi noen prosessorer har multithreading evne-der kjernen er delt nesten, slik at en enkelt kjerne til å behandle to tråder — antall tråder kan være mye høyere enn antall kjerner. Dette kan være nyttig i videoredigering og transkoding. Cpuer kan kjøre to tråder (uavhengig instruksjoner) per kjerne (den uavhengige prosessor). En GPU kjerne kan ha fire til 10 tråder per kjerne.
EN GPU er i stand til å gjengi bilder raskere enn en CPU på grunn av sin parallell-prosessering arkitektur, som gjør det mulig å utføre flere beregninger på samme tid., En enkelt CPU ikke har denne muligheten, selv om flerkjernede prosessorer kan utføre beregninger parallelt ved å kombinere mer enn én CPU på samme brikke.
EN CPU har også en høyere klokkehastighet, noe som betyr at det kan utføre en individuell beregning raskere enn en GPU, så er det ofte bedre rustet til å håndtere grunnleggende oppgaver.
GPU vs. grafikk-kort: Likheter og forskjeller
GPU og grafikkort er to begreper som ofte brukes om hverandre. Det er imidlertid noen viktige forskjeller mellom de to., Den viktigste forskjellen er at GPU er en bestemt enhet i en grafikk-kort. GPU er hva som utfører selve bildet og grafikk behandling. En grafikk-kort er hva som presenterer bilder til display.
Topp Gpu og grafikk kort i markedet
Nvidia, Advanced Micro Devices (AMD), Intel-og Arm er noen av de store aktørene i GPU markedet.,
I 2020, noen av de beste Gpu og grafikk kort har inkludert:
- GeForce RTX 3080
- GeForce RTX 3090
- GeForce RTX 3060 Ti
- AMD Radeon RX 6800 XT
- AMD Radeon RX 5600 XT
Når du ønsker å kjøpe en grafikk-kort, en person bør holde sin pris, verdi, ytelse, funksjoner, mengden videominne og tilgjengelighet i tankene. Funksjoner kan forbrukere bryr seg om å inkludere støtte for 4K -, 60 fps (bilder per sekund) eller mer, og ray tracing., Prisen vil noen ganger være en avgjørende faktor, som enkelte Gpu-er kan bli det dobbelte av kostnadene for bare 10%-15% mer ytelse.
Historie Gpu
Spesialisert chips for behandling grafikk har eksistert siden begynnelsen av video spill på 1970-tallet. Tidlig på, grafikk evner ble inkludert som en del av et skjermkort, en egen dedikert kretskort, silisium chip og nødvendig kjøling som gir 2D -, 3D-og noen ganger også generell graphics processing (GPGPU) beregninger for en datamaskin., Moderne-kort med integrert beregninger for trekant oppsett, transformasjon og belysning funksjoner for 3D-programmer er vanligvis kalt Gpu-er. En gang det er sjelden, høyere-end Gpu-er nå vanlig, og noen ganger er integrert i Cpu-er seg selv. Alternative vilkår inkluderer grafikk kort, skjermkort, skjerm -, video-brett og nesten hvilken som helst kombinasjon av ord i disse vilkårene.
Graphics processing units kom til høy-ytelse enterprise datamaskiner i slutten av 1990-tallet, og Nvidia lansert den første GPU for personlige datamaskiner, GeForce 256, i 1999.,
Over tid, prosessorkraft Gpu-er laget chips et populært valg for andre ressurskrevende oppgaver som ikke er relatert til grafikk. Tidlig programmer inkludert vitenskapelige beregninger og modellering; ved midten av 2010s, GPU computing også drevet maskinlæring og kunstig INTELLIGENS programvare.
I 2012, Nvidia lansert en virtualisert GPU, som offloads grafikk prosessorkraft fra server CPU i et virtual desktop infrastructure (VDI)., Grafikkytelse har tradisjonelt vært en av de mest vanlige plager blant brukere av virtuelle skrivebord og programmer, og virtualisert Gpu-er, tar sikte på å løse det problemet.
Ray tracing og andre nyere trender
noen nye trender i GPU-teknologi inkluderer:
- Som av 2019, GPU leverandører gir vanligvis GPU virtualisering, og nye og kraftigere GPU chips kommer ut på en jevnlig basis.
- I 2019, AMD lansert sin full linje av Radeon RX 5700-serien Gpu-er. Serien er basert på amds Navi-GPU-arkitektur., Navi er sett på som en oppgradering til AMD ‘ s Graphics Core Next-teknologi.
- Arm målrettet mobile augmented reality (AR) og virtual reality (VR) markedet med sin Mali-G77-prosessorer.
- Nvidia fortsatte å presse sin ray tracing evner som en del av sin RTX plattform. Ray tracing er sett på som neste skritt i utviklingen av grafikk rendering etter rasterization., Mens rasterization bruker objekter som er opprettet fra et nett av trekanter til å representere en 3D-modell, ray tracing gir realistisk belysning ved å simulere den fysiske oppførselen til lys ved å spore banen til lys som punkter i et bilde fly og simulere virkninger.
- Enterprise-klasse, data center Gpu er å hjelpe organisasjoner med sele parallell prosessering evner gjennom maskinvare oppgraderinger. Dette hjelper organisasjoner å akselerere arbeidsflyter og grafikkintensive programmer.