Самый простой способ использовать GPU для параллельного цикла for

В настоящее время у меня есть параллельный цикл for, подобный этому:

int testValues[16]={5,2,2,10,4,4,2,100,5,2,4,3,29,4,1,52};
parallel_for (1, 100, 1, [&](int i){ 
    int var4;
    int values[16]={-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1};
    /*...nested for loops */
        for (var4=0; var4<16; var4++) {
            if (values[var4] != testValues[var4]) break;
        }
    /*...end nested loops */
}

Я оптимизировал столько, сколько Я могу до такой степени, что единственное, что я могу сделать, это добавить больше ресурсов.

Я заинтересован в использовании графического процессора для параллельной обработки задачи. Я читал, что подобные до неприличия параллельные задачи могут весьма эффективно использовать современный графический процессор.

Используя любой язык, как проще всего использовать GPU для простого параллельного цикла for, подобного этому?

Я ничего не знаю об архитектуре графических процессоров или родном коде графических процессоров.

6
задан Flash 10 April 2012 в 09:19
поделиться