Eine neue Version von die Allzweck-Grafikprogrammier-API NVIDIA CUDA 10.2, fast zehn Monate nach Version 10.1. Diese Bibliothek Beinhaltet die Hinzufügung einer vollständigen API für die Verwaltung des virtuellen Speichers auf der Grafikkarte mit genaueren Funktionen für die Speicherzuordnung und die Speicheradressbereiche.
Cuda ist eine von Nvidia entwickelte Parallel-Computing-Plattform Dies kann verwendet werden, um die Leistung zu steigern, indem die Leistung der Grafikverarbeitungseinheit (GPU) in Ihrem System genutzt wird. Cuda ist eine Softwareschicht Softwareentwicklern den Zugriff auf den virtuellen Befehlssatz der GPU ermöglichen und zu den parallelen Rechenelementen für die Ausführung der Rechenkerne.
CUDA Versuchen Sie, die Vorteile von GPUs gegenüber CPUs zu nutzen Allzweck unter Verwendung der Parallelität, die durch seine mehreren Kerne geboten wird, die den Start einer sehr hohen Anzahl gleichzeitiger Threads ermöglichen.
Wenn eine Anwendung mit mehreren Threads entworfen wurde, die unabhängige Aufgaben ausführen (was GPUs bei der Verarbeitung von Grafiken tun, ihre natürliche Aufgabe), kann eine GPU daher eine hervorragende Leistung bieten.
Was ist neu in Nvidia CUDA 10.2?
Diese Version ist vollgepackt mit Bibliotheken, die neue und erweiterte Funktionen bieten., Fehlerkorrekturen und Leistungsverbesserungen für einzelne und mehrere GPU-Umgebungen.
In dieser Version hat eine neue Interoperabilitätsschicht von hinzugefügt Ihr Betriebssystem in Echtzeit (RTOS) für NVIDIA DRIVE OS, Llamado Interoperabilität der NVIDIA-Software-Kommunikationsschnittstelle.
Es stehen zwei Hauptschnittstellen zur Verfügung: NvSciBuf für den Austausch vollständiger Speicherbereiche und NvSciSync für die Synchronisation. Diese Funktionen sind in der Vorschau enthalten.
Auf der Ebene der verwalteten Plattformen CUDA 10.2 ist die neueste Version, die für macOS verfügbar sein wird. Darüber hinaus wird RHEL 6 nicht mehr unterstützt, da RHEL 2010 in der nächsten Version von CUDA (wie auch Microsoft C ++ - Compiler 2013 bis XNUMX) überhaupt nicht mehr unterstützt wird.
Darüber hinaus bereitet Nvidia einen kleinen Typ für die verfügbaren Funktionen vor. Da nvJPEG nun eine separate Bibliothek ist, verschwinden die entsprechenden NPP-Komprimierungsprimitivfunktionen.
Von den anderen Änderungen, die sich von der Anzeige abheben, Wir können feststellen, dass Leistung und Skalierbarkeit für die folgenden Anwendungsfälle verbessert wurden:
- Multi-GPU ohne 2 Transformationsleistung
- R2C- und Z2D-Transformationen ungerader Größe
- 2D-Transformationen mit kleinen Größen und einer großen Anzahl von Stapeln.
Wenn Sie mehr über diese neue Version von CUDA erfahren möchten, wenden Sie sich an den folgenden Link.
Wie installiere ich Nvidia CUDA unter Ubuntu und Derivaten?
Um CUDA auf dem System zu installieren, Es ist notwendig, dass wir die Nvidia-Treiber haben Eingerichtet. Wenn Sie sie noch nicht haben, können Sie sich beraten der folgende Artikel.
Nun als erster Schritt Wir müssen das CUDA-Installationsskript herunterladen, die wir von einem Terminal erhalten können, indem wir den folgenden Befehl eingeben:
wget http://developer.download.nvidia.com/compute/cuda/10.2/Prod/local_installers/cuda_10.2.89_440.33.01_linux.run
Fertig jetzt Wir müssen dem Skript Ausführungsberechtigungen erteilen mit:
sudo chmod +x cuda_10.2.89_440.33.01_linux.run
Wir werden einige notwendige Pakete installieren.
sudo apt-get install gcc-6 g++-6 linux-headers-$(uname -r) -y sudo apt-get install freeglut3 freeglut3-dev libxi-dev libxmu-dev
Und jetzt werden wir das Skript ausführen mit:
sudo sh cuda_10.2.89_440.33.01_linux.run
Während des Installationsvorgangs Wir werden einige Fragen gestellt bekommen von denen wir antworten müssen, werden wir grundsätzlich gefragt, ob wir die Nutzungsbedingungen akzeptieren, ob wir unter anderem das Standardverzeichnis ändern wollen.
Wo Sie sollten darauf achten, wenn sie gefragt werden, ob Sie die Nvidia-Treiber installieren möchten Dort antworten sie mit Nein, da sie installiert sein müssen.
Nachdem Sie die Installation abgeschlossen haben, Sie müssen nur ihre Umgebungsvariablen festlegen in der Datei, die wir im folgenden Pfad erstellen werden: /etc/profile.d/cuda.sh.
sudo nano /etc/profile.d/cuda.sh
Und in der Wir werden den folgenden Inhalt platzieren:
export PATH=$PATH:/usr/local/cuda/bin export CUDADIR=/usr/local/cuda
Sie erstellen auch die Datei:
sudo nano /etc/ld.so.conf.d/cuda.conf
Und wir fügen die Zeile hinzu:
/usr/local/cuda/lib64
Und schließlich führen wir aus:
export PATH=/usr/local/cuda-10.2/bin:/usr/local/cuda-10.2/NsightCompute-2019.1${PATH:+:${PATH}}
export LD_LIBRARY_PATH=/usr/local/cuda-10.2/lib64\
${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}
sudo ldconfig