Articles of cuda

¿Número entero de 128 bits en cuda?

Me las arreglé para instalar mi cuda SDK bajo Linux Ubuntu 10.04. Mi tarjeta gráfica es una NVIDIA geForce GT 425M, y me gustaría usarla para algunos problemas computacionales pesados. Lo que me pregunto es: ¿hay alguna forma de utilizar algunos int bits de 128 bits sin signo? Cuando uso gcc para ejecutar mi progtwig […]

Estructura de matrices frente a matriz de estructuras en CUDA

De algunos comentarios que he leído aquí, ¿por alguna razón es preferible tener Structure of Arrays ( SoA ) sobre Array of Structures ( AoS ) para implementaciones paralelas como CUDA? Si eso es cierto, ¿alguien puede explicar por qué? ¡Gracias por adelantado!

¿Cómo puedo implementar una función atómica personalizada que involucre varias variables?

Me gustaría implementar esta función atómica en CUDA: __device__ float lowest; // global var __device__ int lowIdx; // global var float realNum; // thread reg var int index; // thread reg var if(realNum < lowest) { lowest= realNum; // the new lowest lowIdx= index; // update the 'low' index } No creo que pueda hacer […]

¿Alguien puede proporcionar un código de muestra que demuestre el uso del punto flotante de 16 bits en cuda?

Cuda 7.5 admite variables de coma flotante de 16 bits. ¿Alguien puede proporcionar un código de muestra que demuestre su uso?

Copiar un objeto al dispositivo?

¿Puedo copiar un objeto C ++ al dispositivo? decir que tengo: class CudaClass { public: int* data; CudaClass(int x) { data = new int[1]; data[0] = x; } }; __global__ void useClass(CudaClass cudaClass) { printf(“%d” cudaClass.data[0]); }; int main() { CudaClass c(1); } Ahora, ¿cómo copio “c” en la memoria del dispositivo e inicio kernel […]

¿Cómo se dividen los bloques CUDA en warps?

Si comienzo mi kernel con una grilla cuyos bloques tienen dimensiones: dim3 block_dims(16,16); ¿Cómo se dividen ahora los bloques de malla en warps? ¿Las primeras dos filas de dicho bloque forman una urdimbre, o las dos primeras columnas, o se ordena arbitrariamente? Supongamos una capacidad de cálculo GPU de 2.0.

nvidia-smi Explicación de utilización de la GPU volátil?

Sé que nvidia-smi -l 1 dará el uso de la GPU cada segundo (similar al siguiente). Sin embargo, agradecería una explicación sobre lo que realmente significa Volatile GPU-Util . ¿Es esa la cantidad de SMs usados ​​sobre el SM total, o la ocupación, o alguna otra cosa? +—————————————————————————–+ | NVIDIA-SMI 367.48 Driver Version: 367.48 | […]

Comstackndo el código de Cuda en Qt Creator en Windows

He intentado durante días obtener un archivo de proyecto Qt ejecutándose en un sistema Windows 7 de 32 bits, en el que quiero / necesito incluir el código Cuda. Esta combinación de cosas es tan simple que nadie se molestó en poner un ejemplo en línea, o tan difícil que nadie tuvo éxito, al parecer. […]

Las aplicaciones CUDA se agotan y fallan después de varios segundos. ¿Cómo solucionar esto?

Me he dado cuenta de que las aplicaciones CUDA tienden a tener un tiempo de ejecución máximo aproximado de 5-15 segundos antes de que fallen y salgan. Me doy cuenta de que es ideal no tener la aplicación CUDA durante tanto tiempo, pero suponiendo que es la opción correcta para usar CUDA y debido a […]

¿Por qué CUDA cubrió la memoria tan rápido?

Observo aceleraciones sustanciales en la transferencia de datos cuando uso la memoria fija para las transferencias de datos CUDA. En Linux, la llamada al sistema subyacente para lograr esto es mlock. Desde la página man de mlock, indica que bloquear la página evita que se cancele: mlock () bloquea las páginas en el rango de […]