Привыкают ли неиспользуемые ядра GPU, если я добавляю отдельную видеокарту?

1872
lukehawk

Если этот вопрос тупой, я прошу прощения. Я несколько продвинутый новичок во всем аппаратном, и все еще учусь.

У меня есть AMD A8-7600. Он имеет 10 ядер (4 процессора + 6 графических процессоров). Мне понадобилось несколько (4) мониторов, поэтому я добавил две видеокарты.

Я отключил встроенную графику. Так использует ли процессор эти 6 ядер GPU для чего-либо? Я нашел это, но комментарии есть больше для чипа Intel. И они спорят о том, работают ли ядра процессора лучше после добавления выделенной видеокарты, не обращая особого внимания на то, что происходит с графическими процессорами. Похоже, консенсус заключается в более быстром ЦП без тепла, генерируемого графическим процессором, и лучшей производительности без разделения оперативной памяти с графическим процессором. Это означает, что графические процессоры бездействуют, но я не уверен, так ли это, и подходит ли это как для Intel, так и для AMD.

Мой вопрос больше о том, что эти 6 ядер делают сейчас, когда заботятся о графике. Не работают ли ядра GPU? Или они получают задание? Есть ли способ проверить это?

(Что я хотел бы услышать, так это то, что эти ядра доступны. Одна из причин, по которой я построил эту установку, состояла в том, чтобы иметь возможность запускать несколько миллионов статистических симуляций. Это помогло бы значительно, если бы можно было запускать 6 или 8 ядер одновременно параллельно вместо 2 или 3)

0
If disabled, then no. Moab 8 лет назад 1
`Part of the reason I built this rig was to be able to run several million statistical simulations. That would be helped considerably by being able to run 6 or 8 cores at a time in parallel, instead of just 2 or 3.` Do the simulations run on cpu? If so more graphics cores will do nothing. TheKB 8 лет назад 0
Ответ на этот вопрос зависит от того, как вы выполняете вычисления и какой марки у ваших видеокарт. Crossfire не позволит вам, но DX12 будет, все зависит от того, как рассчитываются симуляции Ramhound 8 лет назад 0

3 ответа на вопрос

4
DrZoo

Я не читал вашу ссылку, но я не согласен с тем, что производительность ядра зависит от того, есть ли у вас встроенный или выделенный графический процессор. Единственный случай, когда интегрированная графика может влиять на процессор, - это когда у вас есть одноканальная системная память, потому что это создает узкое место. Встроенная видеокарта либо встроена в материнскую плату, либо встроена в кристалл процессора. Хотя они могут быть размещены на одном кристалле, у каждого из них свои собственные возможности обработки, поскольку графический контроллер отделен от ЦП.

Самая большая разница между выделенным графическим процессором и интегрированным графическим процессором - это память, которую он выделяет. Интегрированный графический процессор использует часть вашей системной памяти (ОЗУ), а не имеет собственную выделенную память. Дискретная видеокарта имеет графический процессор и собственный набор видеопамяти, а не системную оперативную память. Оперативная память на вашей видеокарте также намного быстрее системной.

На ваш вопрос об использовании встроенных ядер GPU в качестве ядер CPU, ответ будет отрицательным. Эти ядра спроектированы иначе, чем ядра процессора. Вполне возможно, что некоторые программы могут использовать ядра GPU, такие как майнинг для биткойнов. Но эти программы специально созданы для такой работы.

0
JMY1000

Если они отключены, то - по определению - они отключены и ничего не делают. Как упомянул @DrZoo, единственное улучшение производительности, которое можно увидеть, это освобождение дополнительной оперативной памяти.

Однако, если вы хотите использовать преимущества этих ядер графического процессора в игровой рабочей нагрузке, AMD Dual Graphics позволяет вам использовать ядра графического процессора на вашем APU в Crossfire с некоторыми картами AMD. Согласно странице продукта, AMD рекомендует подключиться к R7 240, если вы хотите пойти по этому пути.

Другие рабочие нагрузки, такие как рендеринг на основе графических процессоров, могут иметь другую поддержку использования ядер графического процессора на вашем APU.

-1
Dan570S

Я больше разбираюсь в NVidia, чем в AMD, но думаю, что этот ответ будет применим и к AMD. Предполагая, что вы купили карту за последние пару лет, и что она стоила более 25 долларов, у вас должно быть значительно больше мощности GPGPU, чем у вас в комбинированном процессоре / GPU ADM, таком как AMD A8 (у которого есть A8 & A10). Я могу с уверенностью сказать вам это).

Как отмечает DrZoo в отношении использования памяти и архитектуры A8 по сравнению с дискретной картой, когда речь заходит о фактическом кодировании симуляций, которые вы хотите сделать, вы узнаете, как сам GPU состоит из уровней памяти, аналогичных процессору (L1, L2, L3) и что эта память может использоваться разумно для совместного использования между блоками и потоками GPU или между хостом и устройством (CPU и GPU), а также статической памятью для неизменения данных, таких как значение, используемое в ваших статистических моделях, которые должны быть используется во всех ваших расчетах. В этом случае статическая память будет стоить вам только одно чтение памяти, и даже если ваши вычисления нуждаются в этом значении миллионы раз, ему все равно нужно только войти в память один раз, чтобы получить ее.

Как только вы познакомитесь с архитектурой современных видеокарт (опять же, только знакомых с NVidia), вы обнаружите, что у вас есть доступ к мощностям суперкомпьютерного типа массивно-параллельной обработки, которые вы никогда не смогли бы сделать в чипе AMD A8. Вы поймете, мысли о том, что ядра GPU бездействуют, больше не имеют значения, поскольку ваша видеокарта за 100 долларов (или NVidia GTX 1080 за 700 долларов в моем случае) настолько мощна, что беспокоиться об этих ядрах бессмысленно.

Похожие вопросы