en grafikbehandlingsenhet (GPU) är ett datorchip som gör grafik och bilder genom att utföra snabba matematiska beräkningar. GPU används för både professionell och personlig databehandling. Traditionellt är GPU: er ansvariga för rendering av 2D-och 3D-bilder, animationer och video-även om de nu har ett bredare användningsområde.
i början av datoranvändningen utförde centralprocessorn (CPU) dessa beräkningar., Eftersom fler grafikintensiva applikationer utvecklades, sätter deras krav på CPU och minskad prestanda. GPU utvecklades som ett sätt att avlasta dessa uppgifter från processorer och för att förbättra rendering av 3D-grafik. GPU fungerar med hjälp av en metod som kallas parallell bearbetning, där flera processorer hanterar separata delar av samma uppgift.
GPU: er är välkända i PC (persondator) spel, vilket möjliggör smidig, högkvalitativ grafikåtergivning. Utvecklare började också använda GPU som ett sätt att påskynda arbetsbelastningen inom områden som artificiell intelligens (AI).,
GPU användningsfall / vad används GPU för idag?
idag anpassas grafikchips till ett bredare utbud av uppgifter än vad som ursprungligen utformades för, delvis eftersom moderna GPU-enheter är mer programmerbara än de var tidigare.
några exempel på GPU-användningsfall inkluderar:
- GPU kan påskynda renderingen av 2D-och 3D-grafikprogram i realtid.
- videoredigering och skapande av videoinnehåll har förbättrats med GPU., Videoredigerare och grafiska designers kan till exempel använda parallell bearbetning av en GPU för att göra renderingen av HD-video och grafik snabbare.
- videospelgrafik har blivit mer intensiv beräkningsmässigt, så för att hålla jämna steg med displayteknik-som 4K och höga uppdateringshastigheter-har betoning lagts på högpresterande GPU: er.
- GPU kan påskynda maskininlärning. Med en GPU: s höga beräkningsförmåga kan arbetsbelastningar som bildigenkänning förbättras.,
- GPU kan dela arbetet med processorer och träna djupt lärande neurala nätverk för AI-applikationer. Varje nod i ett neuralt nätverk utför beräkningar som en del av en analytisk modell. Programmerare insåg så småningom att de kunde använda kraften i GPU för att öka prestandan hos modeller över en djup inlärningsmatris – dra nytta av mycket mer parallellitet än vad som är möjligt med konventionella processorer. GPU-leverantörer har noterat detta och skapar nu GPU för djupa inlärningsändamål i synnerhet.
- Grafikprocessorer har också använts för att mina bitcoin och andra cryptocurrencies som Ethereum.,
hur en GPU fungerar
en GPU kan hittas integrerad med en CPU på samma elektroniska krets, på ett grafikkort eller i moderkortet på en persondator eller server. GPU och processorer är ganska lika i konstruktion. GPU är dock speciellt utformade för att utföra mer komplexa matematiska och geometriska beräkningar. Dessa beräkningar är nödvändiga för att göra grafik. GPU kan innehålla fler transistorer än en CPU.,
GPU: er kommer att använda parallell bearbetning, där flera processorer hanterar separata delar av samma uppgift. En GPU kommer också att ha sin egen RAM (random access memory) för att lagra data på de bilder som den behandlar. Information om varje pixel lagras, inklusive dess plats på displayen. En digital-till-analog omvandlare (DAC) är ansluten till RAM och kommer att göra bilden till en analog signal så att bildskärmen kan visa den., Video RAM fungerar vanligtvis vid höga hastigheter.
GPU: erna kommer att finnas i två typer: integrerade och diskreta. Integrerade GPU: er kommer inbäddade vid sidan av GPU, medan diskreta GPU: er Kan monteras på ett separat kretskort.
för företag som kräver stor datorkraft, eller arbetar med maskininlärning eller 3D-visualiseringar, kan det vara ett bra alternativ att ha GPU-fixerade i molnet. Ett exempel på detta är Googles Cloud GPU, som erbjuder högpresterande GPU: er på Google Cloud. Hosting GPU i molnet kommer att ha fördelarna med att frigöra lokala resurser, spara tid, kostnad och skalbarhet., Användare kan välja mellan en rad GPU-typer samtidigt som de får flexibel prestanda baserat på deras behov.
GPU vs CPU
GPU: er är ganska lik CPU-arkitekturer. Processorer används dock för att svara på och bearbeta de grundläggande instruktionerna som kör en dator, medan GPU: er är utformade speciellt för att snabbt göra högupplösta bilder och video. I huvudsak är Processorer ansvariga för att tolka de flesta av en dators kommandon, medan GPU fokuserar på grafikåtergivning.,
i allmänhet är en GPU utformad för dataparallelism och tillämpar samma instruktion till flera dataobjekt (SIMD). En CPU är utformad för uppgift-parallellitet och gör olika operationer.
båda är också differentierade med antalet kärnor. Kärnan är i huvudsak processorn inom processorn. De flesta CPU-kärnor är numrerade mellan fyra och åtta, men vissa har upp till 32 kärnor. Varje kärna kan bearbeta sina egna uppgifter eller trådar., Eftersom vissa processorer har multitrådskapacitet – där kärnan är uppdelad praktiskt taget, vilket gör att en enda kärna kan bearbeta två trådar – kan antalet trådar vara mycket högre än antalet kärnor. Detta kan vara användbart vid videoredigering och omkodning. Processorer kan köra två trådar (oberoende instruktioner) per kärna (den oberoende processorn). En GPU-kärna kan ha fyra till 10 trådar per kärna.
en GPU kan göra bilder snabbare än en CPU på grund av sin parallellbehandlingsarkitektur, vilket gör det möjligt att utföra flera beräkningar samtidigt., En enda CPU har inte denna förmåga, även om multicore-processorer kan utföra beräkningar parallellt genom att kombinera mer än en CPU på samma chip.
en CPU har också en högre klockhastighet, vilket innebär att den kan utföra en individuell beräkning snabbare än en GPU, så det är ofta bättre utrustat för att hantera grundläggande datoruppgifter.
GPU vs grafikkort: likheter och skillnader
GPU och grafikkort är två termer som ibland används omväxlande. Det finns dock några viktiga skillnader mellan de två., Den största skillnaden är att GPU är en specifik enhet inom ett grafikkort. GPU är vad som utför den faktiska bilden och grafikbehandling. Ett grafikkort är det som presenterar bilder till displayenheten.
Topp Grafikprocessorer och grafikkort på marknaden
Nvidia, Advanced Micro Devices (AMD), Intel och Arm är några av de stora aktörerna på GPU-marknaden.,
år 2020 har några av de bästa GPU: erna och grafikkorten inkluderat:
- GeForce RTX 3080
- GeForce RTX 3090
- GeForce RTX 3060 Ti
- AMD Radeon RX 6800 XT
- AMD Radeon RX 5600 XT
När du vill köpa ett grafikkort, bör en individ behålla sitt pris, övergripande värde, prestanda, funktioner, mängden videominne och tillgänglighet i åtanke. Funktioner konsumenterna kan bry sig om inkluderar stöd för 4K, 60 fps (bilder per sekund) eller mer, och ray spårning., Priset kommer ibland att vara en avgörande faktor, eftersom vissa GPU kan vara dubbelt så mycket som kostnaden för endast 10% -15% mer prestanda.
historia GPU
specialiserade marker för bearbetning av grafik har funnits sedan början av videospel på 1970-talet. tidigt, grafikfunktioner inkluderades som en del av ett grafikkort, en diskret dedikerad kretskort, kisel chip och nödvändig kylning som ger 2D, 3D och ibland till och med allmänt ändamål grafikbehandling (GPGPU) beräkningar för en dator., Moderna kort med integrerade beräkningar för triangle setup, transformation och belysningsfunktioner för 3D-applikationer kallas vanligtvis GPU. När sällsynta, högre-end GPU är nu vanliga och ibland integreras i processorer själva. Alternativa termer inkluderar grafikkort, bildskärmskort, videoadapter, videokort och nästan vilken kombination av orden som helst i dessa termer.
grafikbehandlingsenheter kom till högpresterande företagsdatorer i slutet av 1990-talet, och Nvidia introducerade den första GPU för persondatorer, GeForce 256, 1999.,
med tiden gjorde processorkraften hos GPU-enheter chipsen ett populärt val för andra resursintensiva uppgifter som inte var relaterade till grafik. Tidiga tillämpningar inkluderade Vetenskapliga Beräkningar och modellering; i mitten av 2010-talet, GPU computing också drivs maskininlärning och AI programvara.
under 2012 släppte Nvidia en virtualiserad GPU, som avlastar grafikprocessorkraft från serverns CPU i en virtuell skrivbordsinfrastruktur (VDI)., Grafikprestanda har traditionellt varit en av de vanligaste klagomålen bland användare av virtuella skrivbord och applikationer, och virtualiserade GPU syftar till att ta itu med det problemet.
Ray tracing och andra senaste trender
några senaste trender i GPU-teknik inkluderar:
- från och med 2019 tillhandahåller GPU-leverantörer vanligtvis GPU-virtualisering, och nya och kraftfullare GPU-chips kommer regelbundet ut.
- i 2019 introducerade AMD sin fulla rad Radeon RX 5700-serie GPU: er. Serien är baserad på AMDs Navi GPU-arkitektur., Navi ses som en uppgradering till AMDs grafikkärna nästa teknik.
- Arm riktade den mobila augmented reality (AR) och virtual reality (VR) marknaden med sina Mali-G77-processorer.
- Nvidia fortsatte att driva sina ray-spårningsfunktioner som en del av sin RTX-plattform. Ray spårning ses som nästa steg i utvecklingen av grafik rendering efter rasterisering., Medan rasterisering använder objekt som skapats från ett nät av trianglar för att representera en 3D-modell, ger ray tracing realistisk belysning genom att simulera ljusets fysiska beteende genom att spåra ljusets väg som pixlar i ett bildplan och simulera effekterna.
- enterprise-grade, data center GPU: er hjälper organisationer att utnyttja parallella bearbetningsfunktioner genom hårdvaruuppgraderingar. Detta hjälper organisationer att påskynda arbetsflöden och grafikintensiva applikationer.