0
ответов

Как работает MPI_SENDRECV?

У меня есть вопрос о MPI_SENDRECV. вот пример: PROGRAM sendrecv IMPLICIT NONE INCLUDE "mpif.h" INTEGER a,b,myrank,nprocs,ierr integer istat(MPI_STATUS_SIZE) CALL MPI_INIT(ierr) ...
вопрос задан: 13 June 2012 15:23
0
ответов

Как запускаются процессы MPI?

При запуске задания MPI с помощью mpirun или mpiexec я могу понять, как можно запускать каждый отдельный процесс. Однако, без какой-либо магии компилятора, как эти исполняемые файлы-оболочки...
вопрос задан: 6 June 2012 10:54
0
ответов

MPI_ERR_BUFFER: неверный указатель на буфер

Какова наиболее распространенная причина этой ошибки MPI_ERR_BUFFER: неверный указатель на буфер что является результатом вызовов MPI_Bsend() и MPI_Rcev()? Программа работает нормально, когда число параллельных ...
вопрос задан: 5 June 2012 19:17
0
ответов

Что именно происходит, когда мы используем функции mpi_send/receive?

Что происходит, когда мы используем функции mpi_send/receive? Я имею в виду, что эта связь осуществляется по значению или адресу переменной, которую мы хотим отправить и получить (например, процесс 0 хочет отправить ...
вопрос задан: 1 June 2012 13:04
0
ответов

Тип данных MPI для 2D-массива

В течение нескольких часов я пытался отправить 2D-массив через MPI в другой поток. Код выглядит так (я оставлю комментарии, чтобы показать трюки, которые я уже пробовал): Определение типа: // Определяем тип данных //...
вопрос задан: 30 May 2012 21:26
0
ответов

Асинхронный MPI с разделяемой памятью SysV

У нас есть большая кодовая база Fortran/MPI, которая использует сегменты разделяемой памяти system-V на узле. Мы работаем на толстых узлах с 32 процессорами, но только с 2 или 4 сетевыми картами и относительно небольшим объемом памяти на процессор; ...
вопрос задан: 19 May 2012 01:05
0
ответов

Инструменты для измерения затрат на связь MPI [закрыто]

Я использую MPI и хочу измерить затраты на связь, чтобы затем сравнить их с затратами на «обработку», например, сколько времени я нужно разбросать список по n процессам, а затем...
вопрос задан: 15 May 2012 19:46
0
ответов

Использование fseek/fwrite из нескольких процессов для записи в разные области файла?

Недавно я наткнулся на немного плохо протестированного устаревшего кода для записи данных, распределенных по нескольким процессам (которые являются частью параллельных вычислений на основе MPI) в один и тот же файл. Является ...
вопрос задан: 12 May 2012 18:45
0
ответов

MPI Internals: Реализация связи между процессами

фактическая коммуникация процессов происходит внутри коммуникаторов MPI. У меня есть 8 узлов, каждый из которых имеет 12 ядер (работает 96 экземпляров). Каждому процессу присваивается уникальный ранг...
вопрос задан: 11 May 2012 20:45
0
ответов

Создание MPI _Тип данных для структуры, содержащей указатели

У меня есть следующая структура. структура typedef { int *Ай; двойной *Топор; инт нз; }столбец; Я хочу передать эту структуру, используя MPI _Send и MPI _Receive. Как мне создать тип данных MPI _для этого...
вопрос задан: 3 May 2012 07:09
0
ответов

Как получить прямой и эффективный доступ к очень большому текстовому файлу?

У меня есть очень большие текстовые файлы (+10 ГБ ), которые я хочу прочитать для некоторых методов интеллектуального анализа данных. Для этого я использую параллельную технику с MPI, поэтому многие процессы могут одновременно обращаться к одному и тому ж
вопрос задан: 30 April 2012 08:40
0
ответов

Циклическая матрица чтения и записи блока ввода/вывода MPI

У меня есть школьный проект по умножению матриц в распределенной системе HPC. Мне нужно считать матрицу из параллельной системы ввода-вывода и использовать pblacs для параллельного выполнения умножения матриц...
вопрос задан: 26 April 2012 23:21
0
ответов

MPI, GPU и Hadoop, в чем основное различие между этими тремя параллелизмами?

Я знаю некоторые алгоритмы машинного обучения, такие как случайный лес, которые по своей природе должны реализовываться параллельно. Я делаю домашнюю работу и нахожу эти три фреймворка параллельного программирования, так что...
вопрос задан: 19 April 2012 21:58
0
ответов

MPI + GPU: как сочетать эти две технологии

Моя программа хорошо подходит для MPI. Каждый ЦП выполняет свою собственную специфическую (сложную) работу, создает один дубль, а затем я использую MPI_Reduce для умножения результата от каждого ЦП. Но повторюсь...
вопрос задан: 9 April 2012 14:37
0
ответов

MPI Spawn: корневой процесс не взаимодействует с дочерними процессами

(вопрос новичка) Я пытаюсь динамически порождать процессы с помощью MPI_Comm_Spawn, а затем транслировать сообщение дочерним процессам, но программа останавливается в трансляции из корневой процесс в ...
вопрос задан: 2 April 2012 03:01
0
ответов

Развертывание приложения MPI в Windows Azure

Существует существующее научное приложение MPI, написанное на C (для Linux), которое я хотел бы запустить в Windows Azure. Это возможно? Если возможно, как развернуть приложение? Это…
вопрос задан: 27 March 2012 22:28
0
ответов

Несколько экземпляров программы на многоядерной машине

Я предполагая, что для следующих вопросов используется двухъядерный (2 ядра на процессор) компьютер с 2 процессорами; итого 4 "ядра". Таким образом, возникли некоторые естественные вопросы: Предположим, я написал простой последовательный ...
вопрос задан: 20 March 2012 23:39
0
ответов

Как отправить сообщение без указания адресата в MPI?

Я хочу отправить сообщение одному из рангов, получив сообщение с определенным тегом. Если есть какой-либо ранг, полученное сообщение и сообщение потребляется. В MPI_Recv() мы можем получить сообщение...
вопрос задан: 15 March 2012 11:59
0
ответов

Создавать процессы MPI на лету с помощью форка?

Если я использую MPI, у меня есть несколько процессов, указанных при запуске основной программы. Однако я хотел бы начать с одного процесса и динамически решать во время выполнения, если и когда мне нужно больше, чтобы разветвить больше ...
вопрос задан: 14 March 2012 17:33
0
ответов

MPI на многоядерной машине

Моя ситуация довольно проста: я хочу запустить программу с поддержкой MPI на одной многопроцессорной/ядерной машине, скажем, 8. Моя реализация MPI — MPICH2. Насколько я понимаю, у меня есть несколько вариантов: $ ...
вопрос задан: 8 March 2012 14:11
0
ответов

MPI_Recv - Как определить счетчик?

Допустим, у меня есть программа MPI с 2 процессами, ранг 0 и ранг 1. int i [ 20], j [20], темп, размер; В процессе с рангом 0 у меня for (temp = 0; temp <20; temp ++) i [temp] = temp; ...
вопрос задан: 6 March 2012 20:03
0
ответов

Практики кодирования MPI в больших проектах с несколькими MPI_Finalize(); или только один?

Привет, для больших проектов mpi на c++ с несколькими файлами .hp и .cpp, должен быть MPI_Finalize(); в конце каждого файла заголовка или cpp, который использует функцию mpi? или должен быть только глобальный...
вопрос задан: 22 February 2012 02:33
0
ответов

Лучший подход для чтения и записи больших файлов с коллективным MPI-IO

Я хотел бы читать и писать большие наборы данных в Fortran с помощью MPI-IO. Я предпочитаю использовать тип MPI, определенный с помощью MPI_type_create_subarray, с одним измерением для описания ...
вопрос задан: 18 February 2012 22:24
0
ответов

MPI Получить процессор с минимальным значением

В MPI я выполняю операцию уменьшения (минимум) над значением. Это работает нормально, но как мне получить номер процессора, с которого пришел минимум, и запросить у этого процессора дополнительную информацию (или отправить ...
вопрос задан: 14 February 2012 23:00
0
ответов

Является ли MPI_Reduce блокирующим (или естественным барьером)?

У меня есть приведенный ниже фрагмент кода на C ++, который в основном вычисляет число Пи с использованием классической техники Монте-Карло. srand48 ((беззнаковое) время (0) + my_rank); for (int i = 0; i
вопрос задан: 14 February 2012 21:27
0
ответов

отправка блоков двумерного массива на языке C с использованием MPI

Как отправить блоки двумерного массива на разные процессоры? Предположим, что размер 2D-массива составляет 400x400, и я хочу отправлять блоки размером 100X100 на разные процессоры. Идея состоит в том, что каждый процессор ...
вопрос задан: 13 February 2012 12:07
0
ответов

Передача аргументов через командную строку с помощью MPI

Я использую вызовы MPI для запуска процедуры в нескольких процессах с использованием C ++. Первые несколько строк в моей функции Main выглядят так: int main (int argc, char * argv []) { int comm_sz; int my_rank; MPI_Init (& ...
вопрос задан: 7 February 2012 23:50
0
ответов

Последовательная основная функция MPI

Это довольно простой вопрос о MPI, но я не могу осмыслить его. У меня есть основная функция, которая вызывает другую функцию, использующую MPI. Я хочу, чтобы основная функция выполнялась последовательно, а другая ...
вопрос задан: 31 January 2012 17:52
0
ответов

отправка нескольких неблокирующих посылок mpi - сохранит ли он порядок отправки

скажем, у меня есть 3 неблокирующих посылки, подобные этому MPI_Isend (); MPI_Isend (); MPI_Isend (); и 3 соответствующих получает MPI_Recv (); MPI_Recv (); MPI_Recv (); Теперь ...
вопрос задан: 29 January 2012 18:03
0
ответов

C # HPC - MPI и OpenMP [закрыто]

Мне нужны советы по C # и параллельному программированию. Я знаю, что MPI .NET существует, а OpenMP не поддерживается. Тогда мой вопрос: есть ли какая-нибудь другая библиотека (TPL?) Или функция, которая может ...
вопрос задан: 26 January 2012 21:34