Выполнимость GPU как ЦП? [закрытый]

События

$(document).on('ready', handler) связывают с готовым событием из jQuery. Обработчик вызывается при загрузке DOM. Активы, подобные изображениям, возможно, все еще отсутствуют. Он никогда не будет вызываться, если документ готов к моменту привязки. jQuery использует для этого DOMContentLoaded -Event, эмулируя его, если он недоступен.

$(document).on('load', handler) - это событие, которое будет запущено после загрузки всех ресурсов с сервера. Теперь изображения загружаются. В то время как onload является сырым HTML-событием, ready построен jQuery.

Функции

$(document).ready(handler) на самом деле являются обещают . Обработчик будет вызываться немедленно, если документ готов во время вызова. В противном случае он связывается с ready -Event.

До jQuery 1.8 , $(document).load(handler) существовал как псевдоним $(document).on('load',handler).

Дальнейшее чтение

13
задан void_ptr 9 December 2014 в 02:16
поделиться

7 ответов

В первую очередь, я не думаю это, вопросы действительно принадлежат на ТАК.

, По-моему, GPU является очень интересной альтернативой каждый раз, когда Вы делаете основанную на векторе математику плавающую. Однако это переводит в: Это не станет господствующей тенденцией. Большинство основных (Настольных) приложений делает очень немного вычислений с плавающей точкой.

Это уже нарастило обороты в играх (механизмы физики) и в научных вычислениях. Если Вы рассмотрите какой-либо из тех двух как "господствующая тенденция", чем то да, GPU станет господствующей тенденцией.

я не рассмотрел бы эти два как господствующую тенденцию, и я поэтому думаю, GPU повысит, чтобы быть следующим принятым популярным товаром в основной промышленности.

, как студент имеют любой интерес к в большой степени физике, при базировании научных вычислений необходимо абсолютно передать некоторое время ему (GPU являются очень интересными частями аппаратных средств так или иначе).

5
ответ дан 1 December 2019 в 18:56
поделиться

Долгосрочный я думаю, что GPU прекратит существование, поскольку процессоры общего назначения развиваются для принятия тех функций. Larrabee Intel является первым шагом. История показала, что пари против x86 является плохой идеей.

Исследование архитектуры с массовым параллелизмом и векторная обработка все еще будут полезны.

6
ответ дан 1 December 2019 в 18:56
поделиться

Время фиксации, если Вы интересуетесь научными и параллельными вычислениями. Не думайте о CUDA и том, чтобы заставлять GPU появиться как ЦП. Это только позволяет более прямой метод программирования GPU, чем более старые методы программирования GPGPU.

центральные процессоры Общего назначения получают свою способность работать хорошо над большим разнообразием задач от всей работы, которая вошла в предсказание ветвлений, конвейерную обработку, суперсчетчик, и т.д. Это позволяет им достигнуть хорошей производительности на большом разнообразии рабочих нагрузок, заставляя их высосать при интенсивно использующих память операциях с плавающей точкой с высокой пропускной способностью.

GPU были первоначально разработаны, чтобы сделать одну вещь и сделать это очень, очень хорошо. Графические операции по сути параллельны. Можно вычислить цвет всех пикселей на экране одновременно, потому что нет никаких зависимостей по данным между результатами. Кроме того, необходимые алгоритмы не должны были иметь дело с ответвлениями, так как почти любое ответвление, которое будет требоваться, могло быть достигнуто путем обнуления коэффициента или один. Аппаратные средства могли поэтому быть очень простыми. Не необходимо волноваться о предсказании ветвлений, и вместо того, чтобы делать суперсчетчик процессора, можно просто добавить столько ALU, сколько можно переполнить на микросхеме.

С программируемой структурой и вершинными шейдерами, GPU получил путь к общей программируемости, но они все еще ограничены аппаратными средствами, которые все еще разработаны для операций с плавающей точкой с высокой пропускной способностью. Некоторая дополнительная схема будет, вероятно, добавлена для включения вычисления более общего назначения, но только в какой-то степени. Что-либо, что ставит под угрозу способность GPU сделать графику, не сделает его в. В конце концов, компании GPU находятся все еще в графическом бизнесе, и целевой рынок является все еще геймерами и людьми, которым нужна визуализация высокого класса.

рынок GPGPU является все еще каплей в море и до некоторой степени останется так. В конце концов, "это выглядит симпатичным", намного более низкий стандарт для встречи, чем "гарантируемых 100% и восстанавливаемые результаты, каждый раз".

Так короче говоря, GPU никогда не будет выполним как ЦП. Они просто разработаны для различных видов рабочих нагрузок. Я ожидаю, что GPU получит функции, которые делают их полезными для того, чтобы быстро решить более широкое множество проблем, но они всегда будут графика блоки обработки прежде всего.

всегда будет важно всегда соответствовать проблеме, которую Вы имеете с самым соответствующим инструментом, необходимо решить его.

18
ответ дан 1 December 2019 в 18:56
поделиться

GPU никогда не будет вытеснять ЦП. ЦП выполняет ряд последовательных инструкций, и GPU делает очень определенный тип вычисления параллельно. Они GPU имеют большую утилиту в числовых вычислениях и графике; однако, большинство программ никоим образом не может использовать эту разновидность вычислений.

Вы скоро начнете видеть новых переработчиков от Intel и AMD, которые включают плавающую точку GPU-esque векторные вычисления, а также стандартные вычисления ЦП.

5
ответ дан 1 December 2019 в 18:56
поделиться

Я думаю, что это - правильный способ пойти.

Рассмотрение, что GPU коснулись для создания дешевых суперкомпьютеров , это, кажется, естественная эволюция вещей. С такой вычислительной мощностью и R& D уже сделанный для Вас, почему бы не использовать доступную технологию?

Так идут вперед и делают это. Это сделает для некоторого прохладного исследования, а также законной причины купить ту высокопроизводительную видеокарту, таким образом, можно будет играть с Crysis и Assassin's Creed в полной графической детали ;)

2
ответ дан 1 December 2019 в 18:56
поделиться

С таким большим количеством неиспользованного питания я не вижу, как оно пошло бы неиспользованное слишком долго. Вопрос состоит, тем не менее, в том, как GPU будет использоваться для этого. CUDA, кажется, хорошее предположение на данный момент, но другие techologies появляются на горизонте, который мог бы сделать его более доступным средним разработчиком.

Apple недавно объявила о OpenCL, которого они требуют, намного больше, чем CUDA, все же довольно простой. Я не уверен, что точно сделать из этого, но khronos группа (Парни, работающие над стандартом OpenGL), работают над стандартом OpenCL, и пытается сделать это очень совместимым с OpenGL. Это могло бы привести к технологии, которая лучше подходит для нормальной разработки программного обеспечения.

Это - интересный предмет и, несущественно, я собираюсь запустить свой основной тезис на предмет того, как лучше всего сделать питание GPU доступным для средних разработчиков (если возможный) с CUDA как основной фокус.

1
ответ дан 1 December 2019 в 18:56
поделиться

Его из тех вещей, для которых Вы видите 1 или 2 приложения, но достаточно скоро кто-то придумает 'приложение-приманку', которое выясняет, как сделать что-то в более общем плане полезное с ним на сверхбыстрых скоростях.

Пиксельные шейдеры для применения стандартных программ к большим массивам значений плавающих возможно, мы будем видеть некоторые приложения покрытия GIS или хорошо, я не знаю. Если Вы не посвятите больше времени ему, чем я имею затем, у Вас будет тот же уровень понимания как я - т.е. мало!

у меня есть чувство, что это могла быть действительно большая вещь, также, как и Intel и S3, возможно, просто требуется 1 небольшую тонкую настройку, добавляющую к аппаратным средствам или кому-то с лампочкой выше их головы.

2
ответ дан 1 December 2019 в 18:56
поделиться
Другие вопросы по тегам:

Похожие вопросы: