Параллелизм, 4 Приложения CUDA, конкурирующие за ресурсы графического процессора

Что бы произошло, если бы четыре одновременных приложения CUDA конкурировали за ресурсы в одном единственном GPU чтобы они могли переложить работу на графическую карту ?. В Cuda Programming Guide 3.1 упоминается, что там

Применяется ли этот тип параллелизма только к потокам в рамках одного приложения cuda, но это невозможно, когда есть целые разные приложения, запрашивающие ресурсы графического процессора ??

Означает ли это, что поддержка одновременного доступа только доступна в 1 приложении (контекст ???) и что 4 приложения будут работать одновременно, так что методы могут перекрываться переключением контекста в ЦП, но 4 приложения должны ждать, пока графический процессор не будет освобожден другими приложениями? (т.е. запуск ядра из приложения 4 ожидает завершения запуска ядра из приложения 1 ..)

Если это так, как эти 4 приложения могут получить доступ к ресурсам графического процессора без длительного ожидания?

6
задан Georg Schölly 14 September 2010 в 14:00
поделиться