В настоящее время у меня есть параллельный цикл for, подобный этому:
int testValues[16]={5,2,2,10,4,4,2,100,5,2,4,3,29,4,1,52};
parallel_for (1, 100, 1, [&](int i){
int var4;
int values[16]={-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1};
/*...nested for loops */
for (var4=0; var4<16; var4++) {
if (values[var4] != testValues[var4]) break;
}
/*...end nested loops */
}
Я оптимизировал столько, сколько Я могу до такой степени, что единственное, что я могу сделать, это добавить больше ресурсов.
Я заинтересован в использовании графического процессора для параллельной обработки задачи. Я читал, что подобные до неприличия параллельные задачи могут весьма эффективно использовать современный графический процессор.
Используя любой язык, как проще всего использовать GPU для простого параллельного цикла for, подобного этому?
Я ничего не знаю об архитектуре графических процессоров или родном коде графических процессоров.