Potente y fiable modelo de programación y kit de herramientas informáticas

NVIDIA CUDA Toolkit

NVIDIA CUDA Toolkit

  -  3 GB  -  Gratis
  • Última Versión

    NVIDIA CUDA Toolkit 12.6.0 (for Windows 11) ÚLTIMO

  • Revisado por

    Daniel Leblanc

  • Sistema Operativo

    Windows 11

  • Ránking Usuario

    Haga clic para votar
  • Autor / Producto

    NVIDIA Corporation / Enlace Externo

  • Nombre de Fichero

    cuda_12.6.0_560.76_windows.exe

NVIDIA CUDA Toolkit proporciona un entorno de desarrollo para crear aplicaciones aceleradas por GPU de alto rendimiento. Con el kit de herramientas CUDA, puede desarrollar, optimizar e implementar sus aplicaciones en sistemas integrados acelerados por GPU, estaciones de trabajo de escritorio, centros de datos empresariales, plataformas basadas en la nube y supercomputadoras HPC. El kit de herramientas incluye bibliotecas aceleradas por GPU, herramientas de depuración y optimización, un compilador de C / C ++ y una biblioteca de tiempo de ejecución para implementar su aplicación.

Las bibliotecas de CUDA aceleradas por GPU permiten la aceleración en varios dominios, como el álgebra lineal, el procesamiento de imágenes y videos, el aprendizaje profundo y el análisis gráfico. Para desarrollar algoritmos personalizados, puede utilizar las integraciones disponibles con los idiomas y paquetes numéricos más utilizados, así como las API de desarrollo bien publicadas.

Sus aplicaciones CUDA se pueden implementar en todas las familias de GPU de NVIDIA disponibles en las instalaciones y en las instancias de GPU en la nube. Mediante el uso de capacidades integradas para la distribución de cómputos en configuraciones de múltiples GPU, los científicos e investigadores pueden desarrollar aplicaciones que escalan desde estaciones de trabajo de GPU individuales hasta instalaciones en la nube con miles de GPU.

IDE con herramientas gráficas y de línea de comando para la depuración, la identificación de cuellos de botella en el rendimiento de la GPU y la CPU, y proporciona una guía de optimización sensible al contexto. Desarrolle aplicaciones utilizando un lenguaje de programación que ya conoce, incluyendo C, C ++, Fortran y Python.

Para comenzar, navegue por los recursos de inicio en línea, guías de optimización, ejemplos ilustrativos y colabore con la comunidad de desarrolladores en rápido crecimiento. ¡Descarga NVIDIA CUDA Toolkit para PC hoy!

Características y destacados

  •     Marca de tiempo de GPU: marca de tiempo de inicio
  •     Método: Nombre del método GPU. Esto es "memcpy *" para copias en memoria o el nombre de un kernel de GPU. Las copias en memoria tienen un sufijo que describe el tipo de transferencia de memoria, por ejemplo, "memcpyDToHasync" significa una transferencia asíncrona de la memoria del dispositivo a la memoria del host
  •     Tiempo de GPU: Es el tiempo de ejecución del método en GPU
  •     Tiempo de CPU: es la suma del tiempo de GPU y la sobrecarga de la CPU para iniciar ese Método. A nivel de datos generados por el controlador, el tiempo de CPU es solo una sobrecarga de la CPU para iniciar el método para los métodos sin bloqueo; para los métodos de bloqueo es la suma del tiempo de GPU y la sobrecarga de la CPU. Todos los lanzamientos del kernel por defecto son no bloqueantes. Pero si algún contador de perfiles está habilitado, los lanzamientos de kernel están bloqueando. Las solicitudes asíncronas de copia de memoria en diferentes flujos no son bloqueantes
  •     Id. De secuencia: número de identificación de la secuencia
  •     Columnas solo para los métodos del kernel.
  •     Ocupación: Ocupación es la relación entre el número de deformaciones activas por multiprocesador y el número máximo de deformaciones activas
  •     Contadores de perfiles: consulte la sección de contadores de perfiles para obtener una lista de los contadores compatibles
  •     tamaño de cuadrícula: el número de bloques en la cuadrícula a lo largo de las dimensiones X, Y y Z se muestra como [num_blocks_X num_blocks_Y num_blocks_Z] en una sola columna
  •     tamaño de bloque: el número de subprocesos en un bloque a lo largo de las dimensiones X, Y y Z se muestra como [num_threads_X num_threads_Y num_threads_Z]] en una sola columna
  •     dyn smem por bloque: tamaño de memoria dinámica compartida por bloque en bytes
  •     Sta smem por bloque: tamaño de memoria compartida estática por bloque en bytes
  •     registro por hilo: número de registros por hilo
  •     Columnas solo para metodos memcopy
  •     tamaño de transferencia mem: tamaño de transferencia de memoria en bytes
  •     tipo de transferencia de memoria de host: especifica si una transferencia de memoria utiliza la memoria "Pagable" o "Página bloqueada"