fbpx
Wikipedia

CUDA

CUDA son las siglas de Compute Unified Device Architecture (Arquitectura Unificada de Dispositivos de Cómputo) que hace referencia a una plataforma de computación en paralelo incluyendo un compilador y un conjunto de herramientas de desarrollo creadas por Nvidia que permiten a los programadores usar una variación del lenguaje de programación C (CUDA C) para codificar algoritmos en GPU de Nvidia.

CUDA
Información general
Tipo de programa GPGPU
Desarrollador NVIDIA Corporation
Lanzamiento inicial 23 de junio de 2007
Licencia Propietaria, Freeware
Versiones
Última versión estable 11.4.0 ( 29 de julio de 2021 (3 meses y 13 días))
Enlaces
Nvidia's CUDA Sitio web oficial

Por medio de wrappers se puede usar Python, Fortran, Julia y Java en vez de C/C++.

Funciona en todas las GPU Nvidia de la serie G8X en adelante, incluyendo GeForce, Quadro, ION y la línea Tesla.[1]Nvidia afirma que los programas desarrollados para la serie GeForce 8 también funcionarán sin modificaciones en todas las futuras tarjetas Nvidia, gracias a la compatibilidad binaria provista por el conjunto de instrucciones PTX (Parallel Thread Execution).[2]

CUDA intenta explotar las ventajas de las GPU frente a las CPU de propósito general utilizando el paralelismo que ofrecen sus múltiples núcleos, que permiten el lanzamiento de un altísimo número de hilos simultáneos. Por ello, si una aplicación está diseñada utilizando numerosos hilos que realizan tareas independientes (que es lo que hacen las GPU al procesar gráficos, su tarea natural), una GPU podrá ofrecer un gran rendimiento en campos que podrían ir desde la biología computacional a la criptografía, por ejemplo.

El primer SDK se publicó en febrero de 2007 en un principio para Windows, Linux, y más adelante en su versión 2.0 para macOS. Actualmente se ofrece para Windows XP/Vista/7/8/10,[3]​ para Linux 32/64 bits[4]​ y para macOS.[5]

Ejemplo de flujo de procesamiento CUDA
1. Se copian los datos de la memoria principal a la memoria de la GPU
2. La CPU encarga el proceso a la GPU
3. La GPU lo ejecuta en paralelo en cada núcleo
4. Se copia el resultado de la memoria de la GPU a la memoria principal

Ventajas

CUDA presenta ciertas ventajas sobre otros tipos de computación sobre GPU utilizando APIs gráficas.

  • Lecturas dispersas: se puede consultar cualquier posición de memoria.
  • Memoria compartida: CUDA pone a disposición del programador un área de memoria de 16KB (o 48KB en la serie Fermi) que se compartirá entre hilos del mismo bloque. Dado su tamaño y rapidez puede ser utilizada como caché.
  • Lecturas más rápidas de y hacia la GPU.
  • Soporte para enteros y operadores a nivel de bit.

Limitaciones

  • No se pueden utilizar variables estáticas dentro de funciones o funciones con número de parámetros variable.
  • No está soportado el renderizado de texturas.
  • En precisión simple no soporta números desnormalizados o NaNs.
  • Puede existir un cuello de botella entre la CPU y la GPU por los anchos de banda de los buses y sus latencias.
  • Por razones de eficiencia, los threads o hilos de ejecución deben lanzarse en grupos de al menos 32, con miles de hilos en total.

El modelo CUDA

CUDA intenta aprovechar el gran paralelismo, y el alto ancho de banda de la memoria en las GPU en aplicaciones con un gran coste aritmético frente a realizar numerosos accesos a memoria principal, lo que podría actuar de cuello de botella.

El modelo de programación de CUDA está diseñado para que se creen aplicaciones que de forma transparente escalen su paralelismo para poder incrementar el número de núcleos computacionales. Este diseño contiene tres puntos claves, que son la jerarquía de grupos de hilos, las memorias compartidas y las barreras de sincronización.

La estructura que se utiliza en este modelo está definido por un grid, dentro del cual hay bloques de hilos que están formados por como máximo 1024 hilos distintos.

Cada hilo en un bloque está identificado con un identificador único, que se accede con la variable threadIdx. Esta variable es muy útil para repartir el trabajo entre distintos hilos. threadIdx tiene 3 componentes (x, y, z), coincidiendo con las dimensiones de bloques de hilos. Así, cada elemento de una matriz, por ejemplo, lo podría tratar su homólogo en un bloque de hilos de dos dimensiones.

Al igual que los hilos, los bloques se identifican mediante blockIdx (en sus componentes x, y, z). Algunas otras funciones útiles son blockDim, para acceder al tamaño de bloque y gridDim, para acceder a la forma de la grid.

Kernel

Un kernel en “C for CUDA”, es una función la cual al ejecutarse lo hará en N distintos hilos en lugar de en secuencial. Se define incluyendo __global__ en la declaración. Por ejemplo:

//Definición del kernel __global__ void f(int a, int b, int c) { } 

Si nuestra función f queremos que calcule la diferencia entre dos vectores A y B y lo almacene en un tercero C:

__global__ void f(int* A, int* B, int* C) {  int i = threadIdx.x;  C[i] = A[i] - B[i]; } 

Esta función se ejecutaría una vez en cada hilo, reduciendo el tiempo total de ejecución en gran medida, y dividiendo su complejidad, O(n), por una constante directamente relacionada con el número de procesadores disponibles.

El mismo ejemplo con matrices sería:

__global__ void f(int** A, int** B, int** C) {  int i = threadIdx.x; //Columna del bloque que ocupa este determinado hilo  int j= threadIdx.y; //Fila  C[i][j] = A[i][j] - B[i][j]; } 

Invocaciones a un kernel

En una llamada a un kernel, se le ha de pasar el tamaño de grid y de bloque, por ejemplo, en el main del ejemplo anterior podríamos añadir:

dim3 bloque(N,N); //Definimos un bloque de hilos de N*N dim3 grid(M,M) //Grid de tamaño M*M f<<<grid, bloque>>>(A, B, C); 

En el momento que se invoque esta función, los bloques de un grid se enumerarán y distribuirán por los distintos multiprocesadores libres.

Sincronización

Como los distintos hilos colaboran entre ellos y pueden compartir datos, se requieren unas directivas de sincronización. En un kernel, se puede explicitar una barrera incluyendo una llamada a __syncthreads(), en la que todos los hilos se esperarán a que los demás lleguen a ese mismo punto.

Jerarquía de memoria

Los hilos en CUDA pueden acceder a distintas memorias, unas compartidas y otras no.

  • En primer lugar, está la memoria privada de cada hilo, solamente accesible desde él mismo.
  • Cada bloque de hilos posee también un espacio de memoria, compartida en este caso por los hilos del bloque y con un ámbito de vida igual que el del propio bloque.
  • Todos los hilos pueden acceder a una memoria global.

Además, existen otros dos espacios de memoria más, que son de solo lectura y accesibles por todos los hilos. Son la memoria constante y la de texturas. Todas las memorias de acceso global persisten mientras esté el kernel en ejecución.

Arquitectura CUDA

Un multiprocesador contiene ocho procesadores escalares, dos unidades especiales para funciones trascendentales, una unidad multihilo de instrucciones y una memoria compartida. El multiprocesador crea y maneja los hilos sin ningún tipo de overhead por la planificación, lo cual unido a una rápida sincronización por barreras y una creación de hilos muy ligera, consigue que se pueda utilizar CUDA en problemas de muy baja granularidad, incluso asignando un hilo a un elemento por ejemplo de una imagen (un píxel).

Tarjetas Soportadas

Lista completa, con la versión soportada de CUDA: https://developer.nvidia.com/cuda-gpus

Nvidia GeForce
GeForce RTX 3090
GeForce RTX 3080
GeForce RTX 3070
GeForce RTX TITAN
GeForce RTX 2080 SUPER
GeForce RTX 2080TI
GeForce RTX 2080
GeForce RTX 2070 SUPER
GeForce RTX 2070
GeForce RTX 2060 SUPER
GeForce RTX 2060
GeForce GTX 1660 SUPER
GeForce GTX 1660TI
GeForce GTX 1660
GeForce GTX 1650 SUPER
GeForce GTX 1650TI
GeForce GTX 1650
GeForce GTX TITAN V
GeForce GTX TITAN XP
GeForce GTX 1080Ti
GeForce GTX 1080
GeForce GTX 1070TI
GeForce GTX 1070
GeForce GTX 1060
GeForce GTX 1050Ti
GeForce GTX 1050
GeForce GTX TITAN X
GeForce GTX 980Ti
GeForce GTX 980
GeForce GTX 970
GeForce GTX 960
GeForce GTX 950
GeForce GTX TITAN Z
GeForce GTX TITAN
GeForce GTX 780Ti
GeForce GTX 780
GeForce GTX 770
GeForce GTX 760
GeForce GTX 750Ti
GeForce GTX 750
GeForce GTX 690
GeForce GTX 680
GeForce GTX 670
GeForce GTX 650
GeForce GT 640
GeForce GTX 590
GeForce GTX 580
GeForce GTX 570
GeForce GTX 560
GeForce GTX 550
GeForce GTX 480
GeForce GTX 470
GeForce GTX 465
GeForce GTX 460
GeForce GTS 450
GeForce GT 440
GeForce GT 430
GeForce GTX 295
GeForce GTX 285
GeForce GTX 280
GeForce GTX 275
GeForce GTX 260
GeForce GTS 250
GeForce GTS 240
GeForce GT 240
GeForce GT 220
GeForce 210/G210
GeForce 9800 GX2
GeForce 9800 GTX+
GeForce 9800 GTX
GeForce 9800 GT
GeForce 9600 GSO
GeForce 9600 GT
GeForce 9500 GT
GeForce 9400 GT
GeForce 9400 m
GeForce 9300 m
GeForce 9100 m
GeForce 8800 Ultra
GeForce 8800 GTX
GeForce 8800 GTS
GeForce 8800 GT
GeForce 8800 GS
GeForce 8600 GTS
GeForce 8600 GT
GeForce 8600 m
GeForce 8500 GT
GeForce 8400 GS
GeForce 8300 m
GeForce 8200 m
GeForce 8100 m
Nvidia GeForce Mobile GeForce RTX 2080 MaxQ
GeForce RTX 2070 MaxQ
GeForce RTX 2060 MaxQ
GeForce GTX 1660
GeForce GTX 1650
GeForce GTX 1080 MaxQ
GeForce GTX 1070 MaxQ
GeForce GTX 1060 MaxQ
GeForce GTX 1050 MaxQ
GeForce GTX 880M
GeForce GTX 780M
GeForce GTX 770M
GeForce GTX 765M
GeForce GTX 760M
GeForce GT 750M
GeForce GT 745M
GeForce GT 740M
GeForce GT 735M
GeForce GT 730M
GeForce GTX 680MX
GeForce GTX 680M
GeForce GTX 675MX
GeForce GTX 675M
GeForce GTX 670MX
GeForce GTX 670M
GeForce GTX 660M
GeForce GT 650M
GeForce GT 645M
GeForce GT 640M
GeForce GTX 580M
GeForce GTX 570M
GeForce GTX 560M
GeForce GT 555M
GeForce GT 550M
GeForce GT 540M
GeForce GT 525M
GeForce GT 520M
GeForce GTX 480M
GeForce GTX 285M
GeForce GTX 280M
GeForce GTX 260M
GeForce GTS 360M
GeForce GTS 350M
GeForce GTS 260M
GeForce GTS 250M
GeForce GT 620M
GeForce GT 335M
GeForce GT 330M
GeForce GT 325M
GeForce GT 320M
GeForce 310M
GeForce GT 240M
GeForce GT 230M
GeForce GT 220M
GeForce G210M
GeForce GTS 160M
GeForce GTS 150M
GeForce GT 130M
GeForce GT 120M
GeForce G110M
GeForce G105M
GeForce G103M
GeForce G102M
GeForce G100
GeForce 9800M GTX
GeForce 9800M GTS
GeForce 9800M GT
GeForce 9800M GS
GeForce 9700M GTS
GeForce 9700M GT
GeForce 9650M GT
GeForce 9650M GS
GeForce 9600M GT
GeForce 9600M GS
GeForce 9500M GS
GeForce 9500M G
GeForce 9400M G
GeForce 9300M GS
GeForce 9300M G
GeForce 9200M GS
GeForce 9100M G
GeForce 8800M GTX
GeForce 8800M GTS
GeForce 8700M GT
GeForce 8600M GT
GeForce 8600M GS
GeForce 8400M GT
GeForce 8400M GS
GeForce 8400M G
GeForce 8200M G
Nvidia Quadro
Quadro RTX 8000
Quadro RTX 6000
Quadro RTX 5000
Quadro RTX 4000
Quadro GP100
Quadro GV100
Quadro P6000
Quadro P5000
Quadro P4000
Quadro P2200
Quadro P2000
Quadro P1000
Quadro P620
Quadro P600
Quadro 6000
Quadro 5000
Quadro 4000
Quadro FX 5800
Quadro FX 5600
Quadro FX 4800
Quadro FX 4700 X2
Quadro FX 4600
Quadro FX 3800
Quadro FX 3700
Quadro FX 1800
Quadro FX 1700
Quadro FX 580
Quadro FX 570
Quadro FX 380
Quadro FX 370
Quadro NVS 450
Quadro NVS 420
Quadro NVS 295
Quadro NVS 290
Quadro Plex 1000 Model IV
Quadro Plex 1000 Model S4
Nvidia Quadro Mobile
Quadro FX 3800M
Quadro FX 3700M
Quadro FX 3600M
Quadro FX 2800M
Quadro FX 2700M
Quadro FX 1800M
Quadro FX 1700M
Quadro FX 1600M
Quadro FX 880M
Quadro FX 770M
Quadro FX 570M
Quadro FX 380M
Quadro FX 370M
Quadro FX 360M
Quadro NVS 320M
Quadro NVS 160M
Quadro NVS 150M
Quadro NVS 140M
Quadro NVS 135M
Quadro NVS 130M
Nvidia Tesla
Tesla C2050
Tesla S1070
Tesla M1060
Tesla C1060
Tesla C870
Tesla D870
Tesla S870

Referencias

  1. «Productos aptos para CUDA - NVIDIA». 
  2. «Parallel Thread Execution ISA Version 7.4». docs.nvidia.com (en inglés estadounidense). Consultado el 7 de agosto de 2021. 
  3. «CUDA Installation Guide for Microsoft Windows». docs.nvidia.com (en inglés estadounidense). Consultado el 9 de junio de 2019. 
  4. «NVIDIA CUDA Installation Guide for Linux». docs.nvidia.com (en inglés estadounidense). Consultado el 9 de junio de 2019. 
  5. «NVIDIA CUDA Installation Guide for Mac OS X». docs.nvidia.com (en inglés estadounidense). Consultado el 9 de junio de 2019. 

Véase también

Enlaces externos

  • Zona CUDA de Nvidia
  • Guía de programación para CUDA C (en inglés)
  •   Datos: Q477690
  •   Multimedia: CUDA

cuda, siglas, compute, unified, device, architecture, arquitectura, unificada, dispositivos, cómputo, hace, referencia, plataforma, computación, paralelo, incluyendo, compilador, conjunto, herramientas, desarrollo, creadas, nvidia, permiten, programadores, usa. CUDA son las siglas de Compute Unified Device Architecture Arquitectura Unificada de Dispositivos de Computo que hace referencia a una plataforma de computacion en paralelo incluyendo un compilador y un conjunto de herramientas de desarrollo creadas por Nvidia que permiten a los programadores usar una variacion del lenguaje de programacion C CUDA C para codificar algoritmos en GPU de Nvidia CUDAInformacion generalTipo de programaGPGPUDesarrolladorNVIDIA CorporationLanzamiento inicial23 de junio de 2007LicenciaPropietaria FreewareVersionesUltima version estable11 4 0 29 de julio de 2021 3 meses y 13 dias EnlacesNvidia s CUDA Sitio web oficial editar datos en Wikidata Por medio de wrappers se puede usar Python Fortran Julia y Java en vez de C C Funciona en todas las GPU Nvidia de la serie G8X en adelante incluyendo GeForce Quadro ION y la linea Tesla 1 Nvidia afirma que los programas desarrollados para la serie GeForce 8 tambien funcionaran sin modificaciones en todas las futuras tarjetas Nvidia gracias a la compatibilidad binaria provista por el conjunto de instrucciones PTX Parallel Thread Execution 2 CUDA intenta explotar las ventajas de las GPU frente a las CPU de proposito general utilizando el paralelismo que ofrecen sus multiples nucleos que permiten el lanzamiento de un altisimo numero de hilos simultaneos Por ello si una aplicacion esta disenada utilizando numerosos hilos que realizan tareas independientes que es lo que hacen las GPU al procesar graficos su tarea natural una GPU podra ofrecer un gran rendimiento en campos que podrian ir desde la biologia computacional a la criptografia por ejemplo El primer SDK se publico en febrero de 2007 en un principio para Windows Linux y mas adelante en su version 2 0 para macOS Actualmente se ofrece para Windows XP Vista 7 8 10 3 para Linux 32 64 bits 4 y para macOS 5 Ejemplo de flujo de procesamiento CUDA 1 Se copian los datos de la memoria principal a la memoria de la GPU 2 La CPU encarga el proceso a la GPU 3 La GPU lo ejecuta en paralelo en cada nucleo 4 Se copia el resultado de la memoria de la GPU a la memoria principal Indice 1 Ventajas 2 Limitaciones 3 El modelo CUDA 4 Kernel 5 Invocaciones a un kernel 6 Sincronizacion 7 Jerarquia de memoria 8 Arquitectura CUDA 9 Tarjetas Soportadas 10 Referencias 11 Vease tambien 12 Enlaces externosVentajas EditarCUDA presenta ciertas ventajas sobre otros tipos de computacion sobre GPU utilizando APIs graficas Lecturas dispersas se puede consultar cualquier posicion de memoria Memoria compartida CUDA pone a disposicion del programador un area de memoria de 16KB o 48KB en la serie Fermi que se compartira entre hilos del mismo bloque Dado su tamano y rapidez puede ser utilizada como cache Lecturas mas rapidas de y hacia la GPU Soporte para enteros y operadores a nivel de bit Limitaciones EditarNo se pueden utilizar variables estaticas dentro de funciones o funciones con numero de parametros variable No esta soportado el renderizado de texturas En precision simple no soporta numeros desnormalizados o NaNs Puede existir un cuello de botella entre la CPU y la GPU por los anchos de banda de los buses y sus latencias Por razones de eficiencia los threads o hilos de ejecucion deben lanzarse en grupos de al menos 32 con miles de hilos en total El modelo CUDA EditarCUDA intenta aprovechar el gran paralelismo y el alto ancho de banda de la memoria en las GPU en aplicaciones con un gran coste aritmetico frente a realizar numerosos accesos a memoria principal lo que podria actuar de cuello de botella El modelo de programacion de CUDA esta disenado para que se creen aplicaciones que de forma transparente escalen su paralelismo para poder incrementar el numero de nucleos computacionales Este diseno contiene tres puntos claves que son la jerarquia de grupos de hilos las memorias compartidas y las barreras de sincronizacion La estructura que se utiliza en este modelo esta definido por un grid dentro del cual hay bloques de hilos que estan formados por como maximo 1024 hilos distintos Cada hilo en un bloque esta identificado con un identificador unico que se accede con la variable threadIdx Esta variable es muy util para repartir el trabajo entre distintos hilos threadIdx tiene 3 componentes x y z coincidiendo con las dimensiones de bloques de hilos Asi cada elemento de una matriz por ejemplo lo podria tratar su homologo en un bloque de hilos de dos dimensiones Al igual que los hilos los bloques se identifican mediante blockIdx en sus componentes x y z Algunas otras funciones utiles son blockDim para acceder al tamano de bloque y gridDim para acceder a la forma de la grid Kernel EditarUn kernel en C for CUDA es una funcion la cual al ejecutarse lo hara en N distintos hilos en lugar de en secuencial Se define incluyendo global en la declaracion Por ejemplo Definicion del kernel global void f int a int b int c Si nuestra funcion f queremos que calcule la diferencia entre dos vectores A y B y lo almacene en un tercero C global void f int A int B int C int i threadIdx x C i A i B i Esta funcion se ejecutaria una vez en cada hilo reduciendo el tiempo total de ejecucion en gran medida y dividiendo su complejidad O n por una constante directamente relacionada con el numero de procesadores disponibles El mismo ejemplo con matrices seria global void f int A int B int C int i threadIdx x Columna del bloque que ocupa este determinado hilo int j threadIdx y Fila C i j A i j B i j Invocaciones a un kernel EditarEn una llamada a un kernel se le ha de pasar el tamano de grid y de bloque por ejemplo en el main del ejemplo anterior podriamos anadir dim3 bloque N N Definimos un bloque de hilos de N N dim3 grid M M Grid de tamano M M f lt lt lt grid bloque gt gt gt A B C En el momento que se invoque esta funcion los bloques de un grid se enumeraran y distribuiran por los distintos multiprocesadores libres Sincronizacion EditarComo los distintos hilos colaboran entre ellos y pueden compartir datos se requieren unas directivas de sincronizacion En un kernel se puede explicitar una barrera incluyendo una llamada a syncthreads en la que todos los hilos se esperaran a que los demas lleguen a ese mismo punto Jerarquia de memoria EditarLos hilos en CUDA pueden acceder a distintas memorias unas compartidas y otras no En primer lugar esta la memoria privada de cada hilo solamente accesible desde el mismo Cada bloque de hilos posee tambien un espacio de memoria compartida en este caso por los hilos del bloque y con un ambito de vida igual que el del propio bloque Todos los hilos pueden acceder a una memoria global Ademas existen otros dos espacios de memoria mas que son de solo lectura y accesibles por todos los hilos Son la memoria constante y la de texturas Todas las memorias de acceso global persisten mientras este el kernel en ejecucion Arquitectura CUDA EditarUn multiprocesador contiene ocho procesadores escalares dos unidades especiales para funciones trascendentales una unidad multihilo de instrucciones y una memoria compartida El multiprocesador crea y maneja los hilos sin ningun tipo de overhead por la planificacion lo cual unido a una rapida sincronizacion por barreras y una creacion de hilos muy ligera consigue que se pueda utilizar CUDA en problemas de muy baja granularidad incluso asignando un hilo a un elemento por ejemplo de una imagen un pixel Tarjetas Soportadas EditarLista completa con la version soportada de CUDA https developer nvidia com cuda gpus Nvidia GeForceGeForce RTX 3090GeForce RTX 3080GeForce RTX 3070GeForce RTX TITANGeForce RTX 2080 SUPERGeForce RTX 2080TIGeForce RTX 2080GeForce RTX 2070 SUPERGeForce RTX 2070GeForce RTX 2060 SUPERGeForce RTX 2060GeForce GTX 1660 SUPERGeForce GTX 1660TIGeForce GTX 1660GeForce GTX 1650 SUPERGeForce GTX 1650TIGeForce GTX 1650GeForce GTX TITAN VGeForce GTX TITAN XPGeForce GTX 1080TiGeForce GTX 1080GeForce GTX 1070TIGeForce GTX 1070GeForce GTX 1060GeForce GTX 1050TiGeForce GTX 1050GeForce GTX TITAN XGeForce GTX 980TiGeForce GTX 980GeForce GTX 970GeForce GTX 960GeForce GTX 950GeForce GTX TITAN ZGeForce GTX TITANGeForce GTX 780TiGeForce GTX 780GeForce GTX 770GeForce GTX 760GeForce GTX 750TiGeForce GTX 750GeForce GTX 690GeForce GTX 680GeForce GTX 670GeForce GTX 650GeForce GT 640GeForce GTX 590GeForce GTX 580GeForce GTX 570GeForce GTX 560GeForce GTX 550GeForce GTX 480GeForce GTX 470GeForce GTX 465GeForce GTX 460GeForce GTS 450GeForce GT 440GeForce GT 430GeForce GTX 295GeForce GTX 285GeForce GTX 280GeForce GTX 275GeForce GTX 260GeForce GTS 250GeForce GTS 240GeForce GT 240GeForce GT 220GeForce 210 G210GeForce 9800 GX2GeForce 9800 GTX GeForce 9800 GTXGeForce 9800 GTGeForce 9600 GSOGeForce 9600 GTGeForce 9500 GTGeForce 9400 GTGeForce 9400 mGeForce 9300 mGeForce 9100 mGeForce 8800 UltraGeForce 8800 GTXGeForce 8800 GTSGeForce 8800 GTGeForce 8800 GSGeForce 8600 GTSGeForce 8600 GTGeForce 8600 mGeForce 8500 GTGeForce 8400 GSGeForce 8300 mGeForce 8200 mGeForce 8100 m Nvidia GeForce Mobile GeForce RTX 2080 MaxQGeForce RTX 2070 MaxQGeForce RTX 2060 MaxQGeForce GTX 1660GeForce GTX 1650GeForce GTX 1080 MaxQGeForce GTX 1070 MaxQGeForce GTX 1060 MaxQGeForce GTX 1050 MaxQGeForce GTX 880MGeForce GTX 780MGeForce GTX 770MGeForce GTX 765MGeForce GTX 760MGeForce GT 750MGeForce GT 745MGeForce GT 740MGeForce GT 735MGeForce GT 730MGeForce GTX 680MXGeForce GTX 680MGeForce GTX 675MXGeForce GTX 675MGeForce GTX 670MXGeForce GTX 670MGeForce GTX 660MGeForce GT 650MGeForce GT 645MGeForce GT 640MGeForce GTX 580MGeForce GTX 570MGeForce GTX 560MGeForce GT 555MGeForce GT 550MGeForce GT 540MGeForce GT 525MGeForce GT 520MGeForce GTX 480MGeForce GTX 285MGeForce GTX 280MGeForce GTX 260MGeForce GTS 360MGeForce GTS 350MGeForce GTS 260MGeForce GTS 250MGeForce GT 620MGeForce GT 335MGeForce GT 330MGeForce GT 325MGeForce GT 320MGeForce 310MGeForce GT 240MGeForce GT 230MGeForce GT 220MGeForce G210MGeForce GTS 160MGeForce GTS 150MGeForce GT 130MGeForce GT 120MGeForce G110MGeForce G105MGeForce G103MGeForce G102MGeForce G100GeForce 9800M GTXGeForce 9800M GTSGeForce 9800M GTGeForce 9800M GSGeForce 9700M GTSGeForce 9700M GTGeForce 9650M GTGeForce 9650M GSGeForce 9600M GTGeForce 9600M GSGeForce 9500M GSGeForce 9500M GGeForce 9400M GGeForce 9300M GSGeForce 9300M GGeForce 9200M GSGeForce 9100M GGeForce 8800M GTXGeForce 8800M GTSGeForce 8700M GTGeForce 8600M GTGeForce 8600M GSGeForce 8400M GTGeForce 8400M GSGeForce 8400M GGeForce 8200M G Nvidia QuadroQuadro RTX 8000Quadro RTX 6000Quadro RTX 5000Quadro RTX 4000Quadro GP100Quadro GV100Quadro P6000Quadro P5000Quadro P4000Quadro P2200Quadro P2000Quadro P1000Quadro P620Quadro P600Quadro 6000Quadro 5000Quadro 4000Quadro FX 5800Quadro FX 5600Quadro FX 4800Quadro FX 4700 X2Quadro FX 4600Quadro FX 3800Quadro FX 3700Quadro FX 1800Quadro FX 1700Quadro FX 580Quadro FX 570Quadro FX 380Quadro FX 370Quadro NVS 450Quadro NVS 420Quadro NVS 295Quadro NVS 290Quadro Plex 1000 Model IVQuadro Plex 1000 Model S4Nvidia Quadro MobileQuadro FX 3800MQuadro FX 3700MQuadro FX 3600MQuadro FX 2800MQuadro FX 2700MQuadro FX 1800MQuadro FX 1700MQuadro FX 1600MQuadro FX 880MQuadro FX 770MQuadro FX 570MQuadro FX 380MQuadro FX 370MQuadro FX 360MQuadro NVS 320MQuadro NVS 160MQuadro NVS 150MQuadro NVS 140MQuadro NVS 135MQuadro NVS 130MNvidia TeslaTesla C2050Tesla S1070Tesla M1060Tesla C1060Tesla C870Tesla D870Tesla S870Referencias Editar Productos aptos para CUDA NVIDIA Parallel Thread Execution ISA Version 7 4 docs nvidia com en ingles estadounidense Consultado el 7 de agosto de 2021 CUDA Installation Guide for Microsoft Windows docs nvidia com en ingles estadounidense Consultado el 9 de junio de 2019 NVIDIA CUDA Installation Guide for Linux docs nvidia com en ingles estadounidense Consultado el 9 de junio de 2019 NVIDIA CUDA Installation Guide for Mac OS X docs nvidia com en ingles estadounidense Consultado el 9 de junio de 2019 Vease tambien EditarOpenCL GPGPU GPUEnlaces externos EditarZona CUDA de Nvidia Guia de programacion para CUDA C en ingles Datos Q477690 Multimedia CUDA Obtenido de https es wikipedia org w index php title CUDA amp oldid 138860656, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos