graphics processing unit (GPU) (Magyar)

a graphics processing unit (GPU) egy számítógépes chip, amely gyors matematikai számítások elvégzésével teszi a grafikát és a képeket. A GPU-kat mind a professzionális, mind a személyi számítástechnikában használják. Hagyományosan a GPU-k felelősek a 2D-s és 3D-s képek, animációk és videók megjelenítéséért-annak ellenére, hogy most szélesebb Felhasználási tartományuk van.

a számítástechnika korai napjaiban a központi feldolgozó egység (CPU) elvégezte ezeket a számításokat., Mivel azonban több grafikai igényű alkalmazást fejlesztettek ki, igényeik megterhelték a CPU-t és csökkentették a teljesítményt. A GPU-kat úgy fejlesztették ki, hogy ezeket a feladatokat le lehessen tölteni a CPU-król, valamint hogy javítsák a 3D grafika megjelenítését. A GPU-k egy párhuzamos feldolgozásnak nevezett módszerrel dolgoznak, ahol több processzor kezeli ugyanazon feladat különálló részeit.

a GPU-k jól ismertek a PC (személyi számítógép) játékokban, lehetővé téve a sima, kiváló minőségű grafikus megjelenítést. A fejlesztők elkezdték a GPU-k használatát is, hogy felgyorsítsák a munkaterhelést olyan területeken, mint a mesterséges intelligencia (AI).,

GPU használati esetek / mit használnak ma a GPU-k?

ma a grafikus chipeket az eredetileg tervezettnél szélesebb körű feladatokhoz igazítják, részben azért, mert a modern GPU-k programozhatóbbak, mint a múltban.

néhány példa a GPU Használati esetekre:

  • a GPU-k felgyorsíthatják a valós idejű 2D és 3D grafikus alkalmazások megjelenítését.
  • videószerkesztés és videotartalom létrehozása javult a GPU-kkal., A videószerkesztők és a grafikusok például a GPU párhuzamos feldolgozásával gyorsabbá tehetik a nagyfelbontású videók és grafikák megjelenítését.
  • Videó, játék, grafika lett intenzívebb számításigényes, ezért annak érdekében, hogy lépést tartson a kijelző technológiák-mint a 4K, magas frissítési árak — hangsúly került nagy teljesítményű Gpu.
  • a GPU-k felgyorsíthatják a gépi tanulást. A GPU nagy számítási képességével javítható a munkaterhelés, például a képfelismerés.,
  • a GPU-k megoszthatják a CPU-k munkáját, valamint mély tanulási neurális hálózatokat képezhetnek az AI alkalmazásokhoz. A neurális hálózat minden csomópontja számításokat végez egy analitikai modell részeként. A programozók végül rájöttek, hogy a GPU-k erejét felhasználhatják a modellek teljesítményének növelésére egy mély tanulási mátrixon keresztül-kihasználva a sokkal több párhuzamosságot, mint a hagyományos CPU-kkal lehetséges. A GPU-gyártók tudomásul vették ezt, most pedig GPU-kat hoznak létre különösen a mély tanulási célokra.
  • a GPU-kat a bitcoin és más kriptovaluták, például az Ethereum bányászatára is használták.,

hogyan működik a GPU

a GPU ugyanazon az elektronikus áramkörön, grafikus kártyán vagy személyi számítógép vagy szerver alaplapján található CPU-val integrálva található. A GPU-k és a CPU-k meglehetősen hasonlóak az építőiparban. A GPU-kat azonban kifejezetten komplexebb matematikai és geometriai számítások elvégzésére tervezték. Ezek a számítások szükségesek a grafika megjelenítéséhez. A GPU-k több tranzisztort tartalmazhatnak, mint egy CPU.,

grafikus feldolgozó egység

a GPU-k párhuzamos feldolgozást használnak, ahol több processzor kezeli ugyanazon feladat különálló részeit. A GPU-nak saját RAM-ja is van (véletlen hozzáférésű memória) az általa feldolgozott képek adatainak tárolására. Az egyes képpontokra vonatkozó információk tárolódnak, beleértve annak helyét a kijelzőn. Egy digitális-analóg átalakító (DAC) csatlakozik a RAM-hoz, amely analóg jelré alakítja a képet, így a monitor képes megjeleníteni., A Video RAM általában nagy sebességgel fog működni.

a GPU-k kétféle típusból állnak: integrált és diszkrét. Az integrált GPU-k a GPU mellé ágyazódnak, míg a különálló GPU-k külön áramköri lapra szerelhetők.

azoknak a vállalatoknak, amelyek nagy számítási teljesítményt igényelnek, vagy gépi tanulással vagy 3D-s megjelenítésekkel dolgoznak, a felhőben rögzített GPU-k jó választás lehet. Erre példa a Google Cloud GPU-k, amelyek nagy teljesítményű GPU-kat kínálnak a Google felhőben. Hosting GPU a felhő lesz az előnye, hogy felszabadítja a helyi források, időt takaríthat meg, költség, skálázhatóság., A felhasználók választhatnak egy sor GPU típusok, miközben egyre rugalmas teljesítményt igényeik alapján.

GPU vs. CPU

a GPU-k meglehetősen hasonlóak a CPU architektúrákhoz. A CPU-kat azonban arra használják, hogy reagáljanak és feldolgozzák a számítógépet vezető alapvető utasításokat, míg a GPU-kat kifejezetten nagy felbontású képek és videók gyors megjelenítésére tervezték. Lényegében a CPU-k felelősek a számítógép legtöbb parancsának értelmezéséért, míg a GPU-k a grafikus megjelenítésre összpontosítanak.,

általánosságban elmondható, hogy a GPU-t adat párhuzamosításra tervezték, és ugyanazt az utasítást több adatelemre (SIMD) alkalmazva. A CPU célja a feladat-párhuzamosság, különböző műveleteket.

mindkettőt a magok száma is megkülönbözteti. A mag lényegében a processzoron belüli processzor. A legtöbb CPU mag négy-nyolc között van számozva, bár néhánynak legfeljebb 32 magja van. Minden mag feldolgozhatja saját feladatait vagy szálait., Mivel egyes processzorok többszálú képességgel rendelkeznek-amelyben a mag gyakorlatilag fel van osztva, lehetővé téve egy mag két szál feldolgozását -, a szálak száma sokkal magasabb lehet, mint a magok száma. Ez hasznos lehet videószerkesztésben és átkódolásban. A CPU-k két szálat (független utasításokat) futtathatnak magonként (a független processzor egység). A GPU mag négy-10 szálat tartalmazhat magonként.

a GPU párhuzamos feldolgozási architektúrája miatt gyorsabban képes képeket megjeleníteni, mint egy CPU, amely lehetővé teszi több számítás egyidejű elvégzését., Egyetlen CPU nem rendelkezik ezzel a képességgel, bár a többmagos processzorok párhuzamos számításokat végezhetnek úgy, hogy egynél több CPU-t egyesítenek ugyanarra a chipre.

A CPU nagyobb órajel-sebességgel is rendelkezik, ami azt jelenti, hogy az egyéni számítást gyorsabban tudja elvégezni, mint egy GPU, ezért gyakran jobban fel van szerelve az alapvető számítási feladatok kezelésére.

GPU vs. grafikus kártya: hasonlóságok és különbségek

a GPU és a grafikus kártya két kifejezés, amelyeket néha felcserélhetően használnak. Van azonban néhány fontos különbség a kettő között., A fő különbség az, hogy a GPU egy adott egység a grafikus kártyán belül. A GPU az, ami elvégzi a tényleges kép-és grafikus feldolgozást. A grafikus kártya bemutatja a képeket a megjelenítőegységnek.

Top GPU-k és grafikus kártyák a piacon

az Nvidia, az Advanced Micro Devices (AMD), az Intel és az Arm a GPU piacának néhány meghatározó szereplője.,

2020-Ban, néhány felső Gpu-s grafikus kártya tartalmazza:

  • GeForce RTX 3080
  • GeForce RTX 3090
  • GeForce RTX 3060 Ti
  • AMD Radeon RX 6800 XT
  • AMD Radeon RX 5600 XT

Ha vásárolni egy grafikus kártya, egyedi kell tartani az árat, általános az érték, a teljesítmény, jellemzők, videomemóriával, valamint a rendelkezésre álló elme. Jellemzők a fogyasztók érdekelhetik a 4K, 60 fps (képkocka másodpercenként) vagy annál nagyobb támogatást, valamint a sugárkövetést., Ár néha döntő tényező, mivel néhány GPU lehet kétszerese a költség csak 10% -15% több teljesítményt.

Történelem Gpu

Speciális chips feldolgozásra grafika létezett hajnala óta, a video játékok-ban az 1970-es években. Korán, grafikus képességek volt része egy videokártya, egy diszkrét külön áramkört, szilícium chip szükséges hűtés, amely 2D-s, 3D-s néha még általános célú grafikus feldolgozó (GPGPU) számítások egy számítógép., Modern kártyák integrált számítások háromszög beállítás, átalakítás, világítás funkciók 3D alkalmazások általában az úgynevezett GPU. A ritka, magasabb szintű GPU-k ma már gyakoriak, és néha maguk is integrálódnak a CPU-kba. Alternatív kifejezések közé tartozik a grafikus kártya, kijelző adapter, video adapter, videokártya, szinte bármilyen kombinációja a szavak ezekben a kifejezésekben.

A grafikus feldolgozó egységek az 1990-es évek végén érkeztek a nagy teljesítményű vállalati számítógépekhez, az Nvidia pedig 1999-ben mutatta be az első GPU-t személyi számítógépekhez, a GeForce 256-ot.,

Az idő múlásával a GPU-k feldolgozási teljesítménye a chipeket népszerű választássá tette más, a grafikától független erőforrás-igényes feladatok számára. A korai alkalmazások közé tartozott a tudományos számítások és a modellezés; a 2010-es évek közepére a GPU computing gépi tanulást és AI szoftvert is fejlesztett.

2012 – ben az Nvidia kiadott egy virtualizált GPU-t, amely letölti a grafikus feldolgozási teljesítményt a szerver CPU-ból egy virtuális asztali infrastruktúrában (VDI)., A grafikus teljesítmény hagyományosan az egyik leggyakoribb panasz a virtuális asztali számítógépek és alkalmazások felhasználói körében, a virtualizált GPU-k célja ennek a problémának a kezelése.

Ray tracing and other recent trends

a GPU technológia néhány legújabb trendje a következő:

  • 2019-től a GPU-gyártók jellemzően GPU virtualizációt biztosítanak, és rendszeresen új és erősebb GPU-chipek jelennek meg.
  • 2019-ben az AMD bemutatta a Radeon RX 5700 sorozatú GPU-k teljes sorozatát. A sorozat az AMD Navi GPU architektúráján alapul., Navi tekintik frissítés AMD grafikus mag következő technológia.
  • az Arm a mobil kiterjesztett valóság (AR) és a virtuális valóság (VR) piacot célozta meg Mali-G77 processzoraival.
  • az Nvidia RTX platformjának részeként tovább nyomta sugárkövetési képességeit. Ray nyomkövetés tekintik a következő lépés az evolúció grafikus renderelés után raszterezés., Míg a raszterezés háromszöghálóból létrehozott objektumokat használ egy 3D modell ábrázolására, a ray tracing reális világítást biztosít a fény fizikai viselkedésének szimulálásával úgy, hogy a fény útját képpontként követi egy képsíkban, és szimulálja a hatásokat.
  • vállalati szintű adatközpont GPU-k segítik a szervezeteket a párhuzamos feldolgozási képességek hardverfrissítések révén történő kihasználásában. Ez segít a szervezeteknek felgyorsítani a munkafolyamatokat és a grafika-intenzív alkalmazásokat.

Vélemény, hozzászólás?

Az email címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük