graphics processing unit (GPU) on mikrosiru, joka tekee grafiikkaa ja kuvia tekemällä nopea matemaattisia laskelmia. Gpuja käytetään sekä ammatillisessa että henkilökohtaisessa tietojenkäsittelyssä. Perinteisesti Gput vastaavat 2D-ja 3D-kuvien, animaatioiden ja videoiden renderöinnistä-vaikka nyt niillä on laajempi käyttöalue.
laskentatoimen alkuaikoina keskusyksikkö (CPU) suoritti nämä laskelmat., Kun grafiikkapainotteisempia sovelluksia kehitettiin, niiden vaatimukset kuitenkin rasittivat suoritinta ja heikensivät suorituskykyä. Gpu kehitettiin tapa purkaa niitä tehtäviä Prosessorit ja parantaa renderöinti 3D-grafiikkaa. GPU toimii rinnakkaisprosessoinniksi kutsutulla menetelmällä, jossa useat prosessorit käsittelevät saman tehtävän erillisiä osia.
Gput ovat tunnettuja PC (personal computer)-pelaamisessa, mikä mahdollistaa sujuvan, laadukkaan grafiikan renderöinnin. Kehittäjät alkoivat myös käyttää GPUs: ia nopeuttaakseen työtaakkaa esimerkiksi tekoälyn (tekoäly) alueilla.,
GPU: n käyttökotelot / mihin GPU: ta käytetään nykyään?
Tänään, grafiikka pelimerkkejä ovat sopeutuneet monipuolisempia tehtäviä kuin alun perin oli suunniteltu, osittain koska moderni Gpu: t ovat ohjelmoitavia kuin ne olivat aikaisemmin.
esimerkkejä GPU käyttö tapaukset ovat:
- Gpu voi nopeuttaa renderöinti reaaliaikainen 2D-ja 3D-grafiikka sovelluksia.
- videomuokkaus ja videosisällön luominen on parantunut GPUs: n myötä., Esimerkiksi videotoimittajat ja graafiset suunnittelijat voivat käyttää GPU: n rinnakkaista käsittelyä teräväpiirtovideon ja grafiikan renderöinnin nopeuttamiseksi.
- Video pelin grafiikka on tullut intensiivisempää laskennallisesti, joten jotta voit pysyä näyttö teknologioita kuten 4K ja korkea virkistystaajuutta — pääpaino on ollut laittaa high-performing Gpu.
- GPUs voi nopeuttaa koneoppimista. Korkea-laskennallinen kyky GPU, työmääriä, kuten kuva tunnustaminen voidaan parantaa.,
- GPUs voi jakaa suorittimien työtä ja kouluttaa SYVÄOPPIVIA neuroverkkoja TEKOÄLYSOVELLUKSIIN. Jokainen hermoverkon solmu suorittaa laskelmat osana analyyttistä mallia. Ohjelmoijat lopulta tajusi, että he voisivat käyttää valtaa Gpu parantaa suorituskykyä malleja halki syvä oppiminen matriisi — hyödyntää paljon enemmän rinnakkaisuus kuin on mahdollista perinteisillä Suorittimia. GPU myyjät ovat ottaneet tämän huomioon ja nyt luoda GPU syväoppimiseen erityisesti.
- Gpu on käytetty myös minun bitcoin ja muut cryptocurrencies kuten Ethereum.,
Kuinka GPU toimii
GPU voi löytyä integroitu CPU on sama elektroninen piiri, näytönohjain tai emolevy henkilökohtainen tietokone tai palvelin. GPU ja suorittimet ovat rakenteeltaan melko samanlaisia. Gput on kuitenkin erityisesti suunniteltu suorittamaan monimutkaisempia matemaattisia ja geometrisia laskelmia. Nämä laskelmat ovat tarpeen tehdä grafiikkaa. GPU: ssa voi olla enemmän transistoreja kuin suorittimessa.,
Gpu käyttää rinnakkainen käsittely, jossa useita suorittimia käsitellä eri osissa sama tehtävä. GPU: lla on myös oma RAM-muistinsa (random access memory), joka tallentaa käsittelemiensä kuvien tietoja. Tiedot jokaisesta pikselistä tallennetaan, mukaan lukien sen sijainti näytöllä. Digitaalinen-analoginen muunnin (DAC) on kytketty RAM ja muuttaa kuvan analoginen signaali, jotta monitori voi näyttää sen., Video RAM toimii tyypillisesti suurilla nopeuksilla.
GPUs tulee kahta tyyppiä: integroituna ja diskreettinä. Integroitu GPU tulevat upotettu rinnalla GPU, kun taas diskreetti GPU voidaan asentaa erilliseen piirilevyyn.
yrityksille, jotka tarvitsevat raskasta laskentatehoa tai työskentelevät koneoppimisen tai 3D-visualisointien kanssa, kun GPUs on kiinnitetty pilveen, voi olla hyvä vaihtoehto. Esimerkkinä tästä on Googlen Cloud GPUs, joka tarjoaa korkean suorituskyvyn GPUs Google Cloudissa. GPUs: n isännöinti pilvipalvelussa tarjoaa etuja paikallisten resurssien vapauttamisesta, ajan säästämisestä, kustannuksista ja skaalautuvuudesta., Käyttäjät voivat valita erilaisia GPU tyyppejä ja saada joustavaa suorituskykyä tarpeiden mukaan.
GPU vs. CPU
GPU muistuttavat melko paljon suoritinarkkitehtuureja. Kuitenkin, Suorittimia käytetään reagoida ja käsitellä perus ohjeita, jotka ajaa tietokoneen, kun taas Gpu on suunniteltu erityisesti nopeasti tehdä korkean resoluution kuvia ja videoita. Pohjimmiltaan suorittimet vastaavat useimpien tietokoneen komentojen tulkinnasta, kun taas GPUs keskittyy grafiikan renderointiin.,
yleensä, GPU on suunniteltu data-rinnakkaisuus ja soveltamalla samoja ohjeita useita data-kohteita (SIMD). Suoritin on suunniteltu tehtävämallinnukseen ja erilaisten toimintojen tekemiseen.
molemmat eriytyvät myös ytimien lukumäärän mukaan. Ydin on pohjimmiltaan prosessori prosessorin sisällä. Suurin osa SUORITINYTIMISTÄ on numeroitu neljän ja kahdeksan välillä, joskin joissakin on jopa 32 ydintä. Jokainen ydin voi käsitellä omia tehtäviään eli kierteitä., Koska jotkut suorittimia, on moniajo-ominaisuus-jossa ydin on jaettu käytännössä, jolloin yhden ytimen käsitellä kaksi kierteet — säikeiden määrä voi olla paljon suurempi kuin määrä sydämiä. Tästä voi olla hyötyä videon muokkauksessa ja transkoodauksessa. Suorittimet voivat suorittaa kaksi kiertettä (riippumattomat ohjeet) per ydin (riippumaton suoritinyksikkö). GPU ydin voi olla neljä-10 kierteet per ydin.
GPU pystyy tehdä kuvia nopeammin kuin CPU, koska sen parallel-processing arkkitehtuuri, jonka avulla se voi suorittaa useita laskutoimituksia samanaikaisesti., Yhdellä suorittimella ei ole tätä ominaisuutta, vaikka multicore-suorittimet voivat suorittaa laskelmia rinnakkain yhdistämällä useamman kuin yhden suorittimen samalle sirulle.
CPU on myös korkeampi kellotaajuus, eli se voi suorittaa yksittäisen laskennan nopeampi GPU, joten se on usein paremmat valmiudet käsitellä perus computing tehtäviä.
vs. GPU näytönohjain: Yhtäläisyydet ja erot
GPU ja näytönohjain ovat kaksi termiä, jotka ovat joskus käytetään samassa merkityksessä. Näiden kahden välillä on kuitenkin joitakin merkittäviä eroja., Suurin ero on, että GPU on tietty yksikkö näytönohjaimen sisällä. GPU suorittaa varsinaisen kuvan ja grafiikan käsittelyn. Näytönohjain esittelee kuvia näyttöyksikölle.
Top-Näytönohjaimet, ja näytönohjaimet markkinoilla
Nvidia, AMD (Advanced Micro Devices), Intel ja Arm ovat joitakin merkittäviä toimijoita GPU markkinoilla.,
Vuonna 2020, jotkut alkuun Näytönohjaimet, ja näytönohjaimet ovat mukana:
- GeForce RTX 3080
- GeForce RTX 3090
- GeForce RTX 3060 Ti
- AMD Radeon RX 6800 XT
- AMD Radeon RX 5600 XT
Kun katsot ostaa näytönohjain, yksilön pitäisi pitää sen hinnan, yleistä arvo, suorituskyky, ominaisuudet, määrä muistia ja saatavuus mielessä. Ominaisuudet kuluttajat voivat välittää sisältävät tukea 4K, 60 fps (kehykset sekunnissa) tai enemmän, ja ray tracing., Hinta on joskus ratkaiseva tekijä, koska jotkut GPU voi olla kaksi kertaa kustannukset vain 10% -15% enemmän suorituskykyä.
Historia Gpu
Erikoistuneita sirut käsittely grafiikka on ollut olemassa vuodesta kynnyksellä video pelit 1970-luvulla. Varhain, grafiikkaominaisuudet olivat mukana osana näytönohjain, erillinen oma piirilevy, silicon chip ja tarvittavat jäähdytys, joka tarjoaa 2D -, 3D-ja joskus jopa general-purpose graphics processing (GPGPU) laskelmien tietokone., Nykyaikaiset kortit, joissa on integroidut laskelmat kolmion asennukseen, muuntamiseen ja valaistukseen 3D-sovellusten ominaisuuksia kutsutaan tyypillisesti Gpuiksi. Kun ne ovat harvinaisia, ylemmät Gput ovat nykyään yleisiä, ja ne ovat joskus integroituneet suorittimiin itse. Vaihtoehtoisia termejä ovat näytönohjain, näyttösovitin, videosovitin, videotaulu ja lähes mikä tahansa näiden termien sanojen yhdistelmä.
Grafiikka käsittely yksikköä tuli korkean suorituskyvyn yritysten tietokoneet 1990-luvun lopulla, ja Nvidia esitteli ensimmäisen GPU henkilökohtaiset tietokoneet, GeForce 256, vuonna 1999.,
ajan, laskentatehoa Gpu teki pelimerkkejä täydellinen valinta, kun muita resursseja vaativia tehtäviä, jotka eivät liity grafiikka. Varhaisia sovelluksia olivat tieteelliset laskelmat ja mallinnus; 2010-luvun puoliväliin mennessä GPU computing käytti myös koneoppimista ja tekoäly-ohjelmistoja.
Vuonna 2012, Nvidia julkaisi virtualisoitu GPU, joka lastin purkamisesta grafiikkaa laskentatehoa palvelimelta CPU virtual desktop infrastructure (VDI)., Grafiikan suorituskykyä on perinteisesti ollut yksi yleisimmistä valituksia käyttäjien keskuudessa virtuaalisia työpöytiä ja sovelluksia, ja virtualisoitu Gpu pyritään vastaamaan tähän ongelmaan.
Ray tracing ja muita viimeaikaisia suuntauksia
muutama viimeaikainen kehitys GPU technology ovat:
- vuonna 2019, GPU toimittajat tarjoavat tyypillisesti GPU virtualisointi, ja uusi ja tehokkaampi GPU sirut ovat tulossa ulos säännöllisesti.
- vuonna 2019 AMD esitteli koko Radeon RX 5700-sarjan GPUs-mallistonsa. Sarja perustuu AMD: n Navi GPU-arkkitehtuuriin., Navi nähdään parannuksena AMD: n Graphics Core Next-teknologiaan.
- Arm kohdisti Mali-G77-suorittimillaan mobile augmented reality (AR) – ja virtual reality (VR) – markkinat.
- Nvidia jatkoi työntää sen ray tracing valmiuksia osana RTX-alustan. Ray tracing nähdään seuraavana askeleena grafiikan renderöinnin kehityksessä rasteroinnin jälkeen., Kun rasteroinnin käyttää esineitä luotu mesh kolmioista edustaa 3D-malli, ray-tracing tarjoaa realistinen valaistus simuloimalla fyysistä käyttäytymistä valoa tracing polku valo pikseliä kuvan tasossa ja simuloida vaikutuksia.
- Enterprise-grade, data center GPUs auttavat organisaatioita valjastamaan rinnakkaiset prosessointiominaisuudet laitteistopäivitysten avulla. Tämä auttaa organisaatioita nopeuttamaan työnkulkuja ja graafisia sovelluksia.