Могу ли я использовать псевдонимы (например, «4xAA» и т. Д.), Предоставляемые трехмерными графическими картами, чтобы улучшить внешний вид моего рабочего стола?

310
E.Z.

Все современные 3D-видеокарты поддерживают аппаратную «сглаживание» в играх. Идея состоит в том, чтобы визуализировать кадр больше, чем разрешение экрана, а затем уменьшить его, чтобы получить более плавные изображения.

У NVIDIA есть небольшое описание здесь .

Теперь это может быть дорого делать в игре (где видеокарта имеет много обработки), но в среде рабочего стола (например, Windows или любой графический интерфейс Linux (KDE, Gnome, LMDE, XFCE и т. Д.). ) производительность не должна быть проблемой.

Следовательно, можно затем отключить все программные псевдонимы и позволить видеокарте выполнять эту работу. Я думаю, что в нескольких случаях это выглядело бы лучше.

Хотя это кажется технически осуществимым, я нигде не мог найти, как это сделать.

Итак, есть идеи, если это возможно? Если нет, то почему нет?

1
Я бы сказал, что любой рендеринг на рабочем столе, который можно улучшить с помощью псевдонимов, уже позаботился. т.е. вы не увидите никакой разницы вообще, даже если псевдоним (гипотетически) был включен. Вы бы только без необходимости облагать налогом GPU Jasjeev Singh 11 лет назад 0
Я бы сказал, что все еще можно улучшить, просто посмотрите на тонны Windows XP (да, она старая, но все еще используется, и нет, она не выглядит великолепно). Или в Linux я часто сталкивался с такими проблемами, как «application xyz не будет корректно отображать шрифты», заставляя вас, например, настраивать файлы конфигурации. Я знаю, что это, возможно, немного утопично, но кажется, что аппаратное решение, предоставляемое графическим драйвером, будет работать независимо от базовой системы. Наконец, нельзя ли «излишне облагать налогом процессор» как «удобно освобождающий от налогов процессор»? E.Z. 11 лет назад 0
Я не знаю о Linux, но что вам неприятно в Windows XP? Понравилась анимация? Jasjeev Singh 11 лет назад 0
В некотором смысле, начиная с Vista, все, что мы видели в Windows, в любом случае уже является 3D-текстурой. Этот трюк Flip3D действительно показывает правду. Тем не менее, чтобы * на самом деле * получить выгоду от питания графического процессора, пользовательский элемент управления должен действительно знать о мощности графического процессора. Это то, что ожидалось от WPF. Что касается Linux, это то, к чему они стремятся с самого начала, но отсутствие стандарта в уже существующем оконном менеджере просто сделало еще один рендерер, чтобы ухудшить ситуацию Martheen Cahya Paulo 11 лет назад 0

1 ответ на вопрос

1
Mikko Rantalainen

Unfortunately, with the currently available operating systems, you cannot use your GPU ("3d card") to improve the desktop rendering quality. The simple reason for this is that to use GPU and multisampling or supersampling, your OS would need to push the original (or high enough quality) data to the GPU pipeline. For example, the OS and graphics libraries would need to render all vector grachics as vectors, images with higher resolution than your display can render, position all elements with mathematical (subpixel) accuracy etc etc. Currently available operating systems do not do this because of historical reasons.

I'd guess Mac OS X is closest to achieving rendering the whole desktop on GPU with improved quality because their graphics APIs are close enough to required. Such graphics rendering would still need to be supported by 3rd party applications, though. Any 3rd party application designed to push pixels on actual display will not provide enough data for the GPU to improve rendering quality.

In addition, current display technology is still (on average) too poor to render e.g. mathematically correct fonts and we still need fonts that adapt to pixels, instead of rendering mathematically correct letter shapes (modifying fonts to match pixels is called "font hinting"). Once we have around 300 ppi displays for desktop use we can skip adapting fonts to pixels and we're one step closer to GPU accelerated desktops. Until we have high enough display resulution, rendering mathematically correct font shapes will result in somewhat blurred text.

Note that human vision is not limited to "300 dpi" despite what Apple Inc says in their ads. Human vision is limited by combination of distance of viewed object and the size of the viewed object. The "300 dpi" or "300 ppi" is the limit for one distance – if you move your head closer, you need higher display resolution to hit the limit of human vision.