내 연락처 정보
우편메소피아@프로톤메일.com
2024-07-12
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
#include <stdio.h>
// includes CUDA Runtime
#include <cuda_runtime.h>
#include <cuda_profiler_api.h>
// includes, project
#include <helper_cuda.h>
#include <helper_functions.h> // helper utility functions
__global__ void increment_kernel(int *g_data, int inc_value) {
int idx = blockIdx.x * blockDim.x + threadIdx.x;
g_data[idx] = g_data[idx] + inc_value;
}
bool correct_output(int *data, const int n, const int x) {
for (int i = 0; i < n; i++)
if (data[i] != x) {
printf("Error! data[%d] = %d, ref = %dn", i, data[i], x);
return false;
}
return true;
}
int main(int argc, char *argv[]) {
int devID;
cudaDeviceProp deviceProps;
printf("[%s] - Starting...n", argv[0]);
// This will pick the best possible CUDA capable device
devID = findCudaDevice(argc, (const char **)argv);
// get device name
checkCudaErrors(cudaGetDeviceProperties(&deviceProps, devID));
printf("CUDA device [%s]n", deviceProps.name);
int n = 16 * 1024 * 1024;
int nbytes = n * sizeof(int);
int value = 26;
// allocate host memory
int *a = 0;
checkCudaErrors(cudaMallocHost((void **)&a, nbytes));
memset(a, 0, nbytes);
// allocate device memory
int *d_a = 0;
checkCudaErrors(cudaMalloc((void **)&d_a, nbytes));
checkCudaErrors(cudaMemset(d_a, 255, nbytes));
// set kernel launch configuration
dim3 threads = dim3(512, 1);
dim3 blocks = dim3(n / threads.x, 1);
// create cuda event handles
cudaEvent_t start, stop;
checkCudaErrors(cudaEventCreate(&start));
checkCudaErrors(cudaEventCreate(&stop));
StopWatchInterface *timer = NULL;
sdkCreateTimer(&timer);
sdkResetTimer(&timer);
checkCudaErrors(cudaDeviceSynchronize());
float gpu_time = 0.0f;
// asynchronously issue work to the GPU (all to stream 0)
checkCudaErrors(cudaProfilerStart());
sdkStartTimer(&timer);
cudaEventRecord(start, 0);
cudaMemcpyAsync(d_a, a, nbytes, cudaMemcpyHostToDevice, 0);
increment_kernel<<<blocks, threads, 0, 0>>>(d_a, value);
cudaMemcpyAsync(a, d_a, nbytes, cudaMemcpyDeviceToHost, 0);
cudaEventRecord(stop, 0);
sdkStopTimer(&timer);
checkCudaErrors(cudaProfilerStop());
// have CPU do some work while waiting for stage 1 to finish
unsigned long int counter = 0;
while (cudaEventQuery(stop) == cudaErrorNotReady) {
counter++;
}
checkCudaErrors(cudaEventElapsedTime(&gpu_time, start, stop));
// print the cpu and gpu times
printf("time spent executing by the GPU: %.2fn", gpu_time);
printf("time spent by CPU in CUDA calls: %.2fn", sdkGetTimerValue(&timer));
printf("CPU executed %lu iterations while waiting for GPU to finishn",
counter);
// check the output for correctness
bool bFinalResults = correct_output(a, n, value);
// release resources
checkCudaErrors(cudaEventDestroy(start));
checkCudaErrors(cudaEventDestroy(stop));
checkCudaErrors(cudaFreeHost(a));
checkCudaErrors(cudaFree(d_a));
exit(bFinalResults ? EXIT_SUCCESS : EXIT_FAILURE);
}
장비초기화: findCudaDevice 함수는 최상의 CUDA 장치를 선택하고 장치 ID를 반환하는 데 사용됩니다.
devID = findCudaDevice(argc, (const char **)argv);
장치 속성 가져오기: cudaGetDeviceProperties 함수는 장치 이름 및 기타 정보를 포함하는 지정된 장치의 속성을 가져옵니다.
checkCudaErrors(cudaGetDeviceProperties(&deviceProps, devID));
메모리 할당: cudaMallocHost를 사용하여 CPU에서 액세스할 수 있는 페이지 잠금 메모리를 할당하고, cudaMalloc을 사용하여 장치에 메모리를 할당합니다.
int *a = 0;
checkCudaErrors(cudaMallocHost((void **)&a, nbytes));
스레드 블록 및 그리드 설정: 여기서 스레드 블록 크기는 512 스레드로 설정되고 그리드 크기는 데이터 크기에 따라 동적으로 계산됩니다.
dim3 threads = dim3(512, 1);
dim3 blocks = dim3(n / threads.x, 1);
CUDA 이벤트 및 타이머 생성: CUDA 이벤트는 시간을 기록하는 데 사용되고 타이머는 CPU 실행 시간을 측정하는 데 사용됩니다.
cudaEvent_t start, stop;
checkCudaErrors(cudaEventCreate(&start));
checkCudaErrors(cudaEventCreate(&stop));
CUDA 스트림 처리: 비동기 메모리 복사를 위해 cudaMemcpyAsync 사용, <<<blocks, threads> >>구문은 동시에 실행되는 CUDA 커널 함수 increment_kernel을 시작합니다.
cudaMemcpyAsync(d_a, a, nbytes, cudaMemcpyHostToDevice, 0);
increment_kernel<<<blocks, threads, 0, 0>>>(d_a, value);
cudaMemcpyAsync(a, d_a, nbytes, cudaMemcpyDeviceToHost, 0);
타이밍 및 대기: cudaEventRecord는 이벤트를 기록하고 GPU 실행 시간을 계산하는 데 사용됩니다. cudaEventQuery(stop)를 통해 GPU 작업이 완료될 때까지 기다립니다.
cudaEventRecord(start, 0);
// ...
cudaEventRecord(stop, 0);
결과 검증: GPU 계산 결과의 정확성을 검증하려면 right_output 함수를 사용하십시오.
bool bFinalResults = correct_output(a, n, value);
리소스 릴리스: 할당된 메모리 및 CUDA 이벤트를 릴리스합니다.
checkCudaErrors(cudaEventDestroy(start));
checkCudaErrors(cudaEventDestroy(stop));
checkCudaErrors(cudaFreeHost(a));
checkCudaErrors(cudaFree(d_a));
CUDA 커널 함수 increment_kernel:
이 간단한 CUDA 커널 함수는 지정된 값 inc_value만큼 배열의 각 요소를 증가시키는 데 사용됩니다. blockIdx.x와 threadIdx.x는 각 스레드의 글로벌 인덱스 idx를 계산한 후 추가 작업을 수행하는 데 사용됩니다.
__global__ void increment_kernel(int *g_data, int inc_value) {
int idx = blockIdx.x * blockDim.x + threadIdx.x;
g_data[idx] = g_data[idx] + inc_value;
}
기타 보조 기능
checkCudaErrors:CUDA 확인함수 호출에 오류가 있는지 여부입니다.
sdkCreateTimer 및 sdkResetTimer: 타이머를 생성하고 재설정하는 데 사용됩니다.
sdkStartTimer 및 sdkStopTimer: 타이머를 시작 및 중지하고 CPU 실행 시간을 기록하는 데 사용됩니다.