Введение к [закрытому] программированию GPU

Возможно, вы можете использовать объект «dict» Python? http://docs.python.org/tutorial/datastructures.html#dictionaries

169
задан George Stocker 24 November 2008 в 23:21
поделиться

6 ответов

Проверьте CUDA Nvidia, IMO, это - самая легкая платформа, чтобы сделать программирование GPU. Существуют тонны прохладных материалов для чтения. http://www.nvidia.com/object/cuda_home.html

Привет мир должен был бы сделать любой вид вычисления с помощью GPU.

Hope, которая помогает.

66
ответ дан Nazgob 4 November 2019 в 16:35
поделиться

Я думаю, что другие ответили на Ваш второй вопрос. Что касается первого, "Привет Мир" CUDA, я не думаю, существует стандарт набора, но лично, я рекомендовал бы параллельный сумматор (т.е. программа, которая суммирует целые числа N).

, Если Вы смотрите пример "сокращения" в SDK NVIDIA, поверхностно простая задача может быть расширена для демонстрации многочисленных соображений CUDA, таких как объединенные чтения, конфликты сегмента памяти и развертывание цикла.

Посмотрите это представление для большего количества информации:

http://www.gpgpu.org/sc2007/SC07_CUDA_5_Optimization_Harris.pdf

8
ответ дан biozinc 4 November 2019 в 16:35
поделиться

Смотрите на Поток ATI Вычислительный SDK. Это основано BrookGPU, разработанный в Стэнфорде.

В будущем вся работа GPU будет стандартизирована с помощью OpenCL. Это - спонсируемая Apple инициатива, которая будет нейтральным поставщиком видеокарты.

7
ответ дан graphics 4 November 2019 в 16:35
поделиться

CUDA является превосходной платформой для запуска с. Это позволяет Вам записать ядра GPGPU в C. Компилятор произведет микрокод GPU из Вашего кода и отправит все, что работает на ЦП к Вашему обычному компилятору. Это - NVIDIA только, хотя и только работает над картами с 8 рядами или лучше. Можно проверить зона CUDA для наблюдения то, что может быть сделано с нею. Существуют некоторые большие демонстрации в CUDA SDK. Документация, которая идет с SDK, является довольно хорошей начальной точкой для того, чтобы на самом деле записать код. Это обойдет Вас посредством записи ядра умножения матриц, которое является великолепным местом для начала.

6
ответ дан Jay Conrod 4 November 2019 в 16:35
поделиться

Попробуйте GPU ++ и , ссылка libSh

LibSh имеет хорошее описание того, как они связали язык программирования с графическими примитивами (и очевидно, сами примитивы), и GPU ++ описывает что все о, оба с примерами кода.

3
ответ дан gbjbaanb 4 November 2019 в 16:35
поделиться
  1. Вы получаете программируемую вершину и пиксельные шейдеры, которые позволяют выполнению кода непосредственно GPU управлять буферами, которые должны быть оттянуты. Эти языки (т.е. Программа построения теней GL OpenGL Lang и Программа построения теней Высокого уровня Lang и эквиваленты DirectX), синтаксис стиля C, и действительно простой в использовании. Некоторые примеры HLSL могут быть найдены здесь для игровой студии XNA и Прямыми X. У меня нет достойных ссылок GLSL, но я уверен, что существует много вокруг. Эти языки программы построения теней дают огромную сумму питания управлять тем, что оттянуто на уровне на пиксель или на вершину, непосредственно на видеокарте, делая вещи как тени, освещение и цветок действительно легкими реализовать.
  2. вторая вещь, которая приходит на ум, использует openCL для кодирования для новых строк GPU общего назначения. Я не уверен, как использовать это, но мое понимание - то, что openCL дает Вам начало способности получить доступ к процессорам и на видеокарте и на нормальном CPU. Это еще не общепринятая технология и, кажется, управляется Apple.
  3. CUDA, кажется, горячая тема. CUDA является способом Nvidia получить доступ к питанию GPU. Здесь некоторые введения
16
ответ дан Conspicuous Compiler 4 November 2019 в 16:35
поделиться
Другие вопросы по тегам:

Похожие вопросы: