Grafikverarbeitungseinheit (GPU)

Eine Grafikverarbeitungseinheit (GPU) ist ein Computerchip, der Grafiken und Bilder durch schnelle mathematische Berechnungen rendert. GPUs werden sowohl für professionelles als auch für persönliches Computing verwendet. Traditionell sind GPUs für das Rendern von 2D-und 3D-Bildern, Animationen und Videos verantwortlich-obwohl sie jetzt einen breiteren Einsatzbereich haben.

In den frühen Tagen des Rechnens führte die Zentraleinheit (CPU) diese Berechnungen durch., Da jedoch grafikintensivere Anwendungen entwickelt wurden, belasteten ihre Anforderungen die CPU und verringerten die Leistung. GPUs wurden entwickelt, um diese Aufgaben von CPUs zu entlasten und das Rendering von 3D-Grafiken zu verbessern. GPUs arbeiten mit einer Methode namens Parallel Processing, bei der mehrere Prozessoren separate Teile derselben Aufgabe verarbeiten.

GPUs sind in PC-Spielen (Personal Computer) bekannt und ermöglichen eine reibungslose und qualitativ hochwertige Grafikwiedergabe. Entwickler begannen auch, GPUs zu verwenden, um Workloads in Bereichen wie künstlicher Intelligenz (KI) zu beschleunigen.,

GPU-use-cases/Was sind GPUs für heute verwendet?

Heute werden Grafikchips an eine größere Vielfalt von Aufgaben angepasst als ursprünglich vorgesehen, teilweise weil moderne GPUs programmierbarer sind als in der Vergangenheit.

Einige Beispiele für GPU-Anwendungsfälle sind:

  • GPUs können das Rendern von 2D-und 3D-Grafikanwendungen in Echtzeit beschleunigen.
  • Die Videobearbeitung und Erstellung von Videoinhalten wurde mit GPUs verbessert., Videoeditoren und Grafikdesigner können beispielsweise die parallele Verarbeitung einer GPU verwenden, um das Rendern von hochauflösenden Videos und Grafiken zu beschleunigen.
  • Videospielgrafiken sind rechenintensiver geworden, daher wurde der Schwerpunkt auf leistungsstarken GPUs gelegt, um mit Displaytechnologien wie 4K und hohen Bildwiederholraten Schritt zu halten.
  • GPUs können maschinelles Lernen beschleunigen. Mit der hohen Rechenleistung einer GPU können Workloads wie die Bilderkennung verbessert werden.,
  • GPUs können die Arbeit von CPUs teilen und tieflernende neuronale Netzwerke für KI-Anwendungen trainieren. Jeder Knoten in einem neuronalen Netzwerk führt Berechnungen als Teil eines Analysemodells durch. Programmierer erkannten schließlich, dass sie die Leistung von GPUs nutzen konnten, um die Leistung von Modellen über eine Deep-Learning-Matrix hinweg zu steigern-und dabei weitaus mehr Parallelität zu nutzen, als dies mit herkömmlichen CPUs möglich ist. GPU-Anbieter haben dies zur Kenntnis genommen und erstellen nun insbesondere GPUs für Deep Learning-Anwendungen.
  • GPUs wurden auch verwendet, um Bitcoin und andere Kryptowährungen wie Ethereum abzubauen.,

Funktionsweise einer GPU

Eine GPU ist möglicherweise in eine CPU auf derselben elektronischen Schaltung, auf einer Grafikkarte oder auf dem Motherboard eines PCS oder Servers integriert. GPUs und CPUs sind im Aufbau ziemlich ähnlich. GPUs wurden jedoch speziell für komplexere mathematische und geometrische Berechnungen entwickelt. Diese Berechnungen sind zum Rendern von Grafiken erforderlich. GPUs können mehr Transistoren als eine CPU enthalten.,

Graphics Processing Unit

GPUs verwenden eine parallele Verarbeitung, bei der mehrere Prozessoren separate Teile derselben Aufgabe verarbeiten. Eine GPU verfügt außerdem über einen eigenen RAM (Random Access Memory), um Daten auf den von ihr verarbeiteten Bildern zu speichern. Informationen zu jedem Pixel werden gespeichert, einschließlich seiner Position auf dem Display. Ein Digital-Analog-Wandler (DAC) ist mit dem RAM verbunden und verwandelt das Bild in ein analoges Signal, damit der Monitor es anzeigen kann., Video-RAM wird in der Regel mit hohen Geschwindigkeiten arbeiten.

GPUs gibt es in zwei Typen: integriert und diskret. Integrierte GPUs sind neben der GPU eingebettet, während diskrete GPUs auf einer separaten Leiterplatte montiert werden können.

Für Unternehmen, die hohe Rechenleistung benötigen oder mit maschinellem Lernen oder 3D-Visualisierungen arbeiten, kann es eine gute Option sein, GPUs in der Cloud zu fixieren. Ein Beispiel dafür sind die Cloud-GPUs von Google, die Hochleistungs-GPUs in der Google Cloud anbieten. Das Hosting von GPUs in der Cloud hat die Vorteile, lokale Ressourcen freizugeben, Zeit, Kosten und Skalierbarkeit zu sparen., Benutzer können zwischen einer Reihe von GPU-Typen wählen und dabei je nach Bedarf eine flexible Leistung erzielen.

GPU vs. CPU

GPUs sind ziemlich ähnlich wie CPU-Architekturen. CPUs werden jedoch verwendet, um auf die grundlegenden Anweisungen zu reagieren und diese zu verarbeiten, die einen Computer antreiben, während GPUs speziell für das schnelle Rendern hochauflösender Bilder und Videos entwickelt wurden. Im Wesentlichen sind CPUs für die Interpretation der meisten Befehle eines Computers verantwortlich, während GPUs sich auf das Rendern von Grafiken konzentrieren.,

Im Allgemeinen ist eine GPU für Datenparallelität ausgelegt und wendet dieselbe Anweisung auf mehrere Datenelemente (SIMD) an. Eine CPU ist für Aufgabenparallelität und verschiedene Operationen ausgelegt.

Beide unterscheiden sich auch durch die Anzahl der Kerne. Der Kern ist im Wesentlichen der Prozessor innerhalb des Prozessors. Die meisten CPU-Kerne sind zwischen vier und acht nummeriert, obwohl einige bis zu 32 Kerne haben. Jeder Kern kann seine eigenen Aufgaben oder Threads verarbeiten., Da einige Prozessoren Multithreading-Fähigkeit haben-in dem der Kern virtuell geteilt wird, so dass ein einzelner Kern zwei Threads verarbeiten – die Anzahl der Threads kann viel höher sein als die Anzahl der Kerne. Dies kann bei der Videobearbeitung und Transcodierung nützlich sein. CPUs können zwei Threads (unabhängige Anweisungen) pro Kern (die unabhängige Prozessoreinheit) ausführen. Ein GPU-Kern kann vier bis 10 Threads pro Kern haben.

Eine GPU kann Bilder aufgrund ihrer Parallelverarbeitungsarchitektur, mit der mehrere Berechnungen gleichzeitig ausgeführt werden können, schneller rendern als eine CPU., Eine einzelne CPU verfügt nicht über diese Fähigkeit, obwohl Multicore-Prozessoren Berechnungen parallel durchführen können, indem sie mehr als eine CPU auf demselben Chip kombinieren.

Eine CPU hat auch eine höhere Taktrate, was bedeutet, dass sie eine individuelle Berechnung schneller durchführen kann als eine GPU, sodass sie oft besser für grundlegende Rechenaufgaben gerüstet ist.

GPU vs. Grafikkarte: Ähnlichkeiten und Unterschiede

GPU und Grafikkarte sind zwei Begriffe, die manchmal synonym verwendet werden. Es gibt jedoch einige wichtige Unterschiede zwischen den beiden., Der Hauptunterschied besteht darin, dass die GPU eine bestimmte Einheit innerhalb einer Grafikkarte ist. Die GPU führt die eigentliche Bild-und Grafikverarbeitung durch. Eine Grafikkarte ist, was präsentiert Bilder an die Anzeigeeinheit.

Top-GPUs und Grafikkarten auf dem Markt

Nvidia, Advanced Micro Devices (AMD), Intel und Arm sind einige der wichtigsten Akteure auf dem GPU-Markt.,

Im Jahr 2020 haben einige der Top-GPUs und Grafikkarten Folgendes enthalten:

  • GeForce RTX 3080
  • GeForce RTX 3090
  • GeForce RTX 3060 Ti
  • AMD Radeon RX 6800 XT
  • AMD Radeon RX 5600 XT

Wenn Sie eine Grafikkarte kaufen möchten, sollten Sie den Preis, den Gesamtwert, die Leistung, die Funktionen, die verfügbarkeit im Auge. Zu den Funktionen, die den Verbrauchern am Herzen liegen, gehören die Unterstützung für 4K, 60 fps (Bilder pro Sekunde) oder mehr sowie Raytracing., Der Preis wird manchmal ein entscheidender Faktor sein, da einige GPUs für nur 10% -15% mehr Leistung doppelt so teuer sein können.

Geschichte der GPUs

Spezialisierte Chips für die Verarbeitung von Grafiken gibt es seit den Anfängen der Videospiele in den 1970er Jahren. Zu Beginn wurden Grafikfunktionen als Teil einer Grafikkarte, einer diskreten dedizierten Leiterplatte, eines Siliziumchips und der erforderlichen Kühlung enthalten, die 2D -, 3D-und manchmal sogar GPGPU-Berechnungen (General-Purpose Graphics Processing) für einen Computer ermöglichen., Moderne Karten mit integrierten Berechnungen für Triangle Setup -, Transformations-und Beleuchtungsfunktionen für 3D-Anwendungen werden typischerweise als GPUs bezeichnet. Einst selten, sind High-End-GPUs heute üblich und manchmal selbst in CPUs integriert. Alternative Begriffe umfassen Grafikkarte, Displayadapter, Videoadapter, Grafikkarte und fast jede Kombination der Wörter in diesen Begriffen.

Grafikverarbeitungseinheiten kamen Ende der 1990er Jahre auf Hochleistungs-Unternehmenscomputern, und Nvidia führte 1999 die erste GPU für PCS, die GeForce 256, ein.,

Im Laufe der Zeit machte die Rechenleistung von GPUs die Chips zu einer beliebten Wahl für andere ressourcenintensive Aufgaben, die nichts mit Grafiken zu tun hatten. Frühe Anwendungen umfassten wissenschaftliche Berechnungen und Modellierung; Mitte der 2010er Jahre betrieb GPU Computing auch maschinelles Lernen und KI-Software.

Im Jahr 2012 veröffentlichte Nvidia eine virtualisierte GPU, die Grafikverarbeitungsleistung von der Server-CPU in einer Virtual Desktop Infrastructure (VDI) entlastet., Die Grafikleistung war traditionell eine der häufigsten Beschwerden bei Benutzern virtueller Desktops und Anwendungen, und virtualisierte GPUs zielen darauf ab, dieses Problem anzugehen.

Raytracing und andere aktuelle Trends

Zu den jüngsten Trends in der GPU-Technologie gehören:

  • Ab 2019 bieten GPU-Anbieter in der Regel GPU-Virtualisierung und neue und leistungsstärkere GPU-Chips kommen regelmäßig heraus.
  • Im Jahr 2019 stellte AMD seine vollständige Reihe von GPUs der Radeon RX 5700-Serie vor. Die Serie basiert auf AMDs Navi GPU Architektur., Navi wird als Upgrade auf AMDs Grafikkern Next-Technologie gesehen.
  • Arm zielte mit seinen Mali-G77-Prozessoren auf den Markt für mobile Augmented Reality (AR) und Virtual Reality (VR) ab.
  • Nvidia setzte seine Raytracing-Funktionen als Teil seiner RTX-Plattform fort. Raytracing wird als der nächste Schritt in der Entwicklung des Grafik-Renderings nach der Rasterisierung gesehen., Während bei der Rasterisierung Objekte verwendet werden, die aus einem Dreiecksnetz erstellt wurden, um ein 3D-Modell darzustellen, bietet die Raytracing-Funktion eine realistische Beleuchtung, indem das physikalische Verhalten von Licht simuliert wird, indem der Lichtweg als Pixel in einer Bildebene verfolgt und die Effekte simuliert werden.
  • GPUs für Rechenzentren in Unternehmensqualität helfen Unternehmen dabei, parallele Verarbeitungsfunktionen durch Hardware-Upgrades zu nutzen. Dies hilft Unternehmen, Workflows und grafikintensive Anwendungen zu beschleunigen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.