Возможно, вы можете использовать объект «dict» Python? http://docs.python.org/tutorial/datastructures.html#dictionaries
Проверьте CUDA Nvidia, IMO, это - самая легкая платформа, чтобы сделать программирование GPU. Существуют тонны прохладных материалов для чтения. http://www.nvidia.com/object/cuda_home.html
Привет мир должен был бы сделать любой вид вычисления с помощью GPU.
Hope, которая помогает.
Я думаю, что другие ответили на Ваш второй вопрос. Что касается первого, "Привет Мир" CUDA, я не думаю, существует стандарт набора, но лично, я рекомендовал бы параллельный сумматор (т.е. программа, которая суммирует целые числа N).
, Если Вы смотрите пример "сокращения" в SDK NVIDIA, поверхностно простая задача может быть расширена для демонстрации многочисленных соображений CUDA, таких как объединенные чтения, конфликты сегмента памяти и развертывание цикла.
Посмотрите это представление для большего количества информации:
http://www.gpgpu.org/sc2007/SC07_CUDA_5_Optimization_Harris.pdf
Смотрите на Поток ATI Вычислительный SDK. Это основано BrookGPU, разработанный в Стэнфорде.
В будущем вся работа GPU будет стандартизирована с помощью OpenCL. Это - спонсируемая Apple инициатива, которая будет нейтральным поставщиком видеокарты.
CUDA является превосходной платформой для запуска с. Это позволяет Вам записать ядра GPGPU в C. Компилятор произведет микрокод GPU из Вашего кода и отправит все, что работает на ЦП к Вашему обычному компилятору. Это - NVIDIA только, хотя и только работает над картами с 8 рядами или лучше. Можно проверить зона CUDA для наблюдения то, что может быть сделано с нею. Существуют некоторые большие демонстрации в CUDA SDK. Документация, которая идет с SDK, является довольно хорошей начальной точкой для того, чтобы на самом деле записать код. Это обойдет Вас посредством записи ядра умножения матриц, которое является великолепным местом для начала.
Попробуйте GPU ++ и , ссылка libSh
LibSh имеет хорошее описание того, как они связали язык программирования с графическими примитивами (и очевидно, сами примитивы), и GPU ++ описывает что все о, оба с примерами кода.