NVIDIA GeForce RTX 2080: первая видеокарта с технологией трассировки лучей
Лидеры рынка дискретных видеокарт, NVIDIA и AMD, давно не представляли ничего кардинально нового. И теперь «зеленый лагерь» обрадовал нас действительно интересной вестью: вышло новое поколение флагманских графических ускорителей GeForce RTX 2080 и GeForce RTX 2080 Ti. Это первые видеокарты на основе архитектуры NVIDIA Turing и платформы NVIDIA RTX, которая получила функцию трассировки лучей в реальном времени.
Модель | GeForce RTX 2080 | NVIDIA GeForce RTX 2080 Ti | GeForce GTX 1080 | GeForce GTX 1080 Ti |
Чип | TU104 | TU102 | GP104 | GP102 |
Техпроцесс, нм | 12 | 16 | ||
Архитектура | Turing | Turing | Pascal | Pascal |
Количество транзисторов, млн | 13 600 | 18 600 | 7 200 | 12 000 |
Частота ядра, МГц | 1515/1710 | 1350/1545 | 1607/1734 | 1480/1582 |
Кол-во шейдеров | 2944 | 4352 | 2560 | 3584 |
Кол-во текстурных блоков | 184 | 272 | 160 | 224 |
Кол-во блоков растеризации | 64 | 88 | 64 | 88 |
Тип памяти | GDDR6 | GDDR5X | ||
Тактовая частота памяти, МГц | 1 750 | 1 750 | 1 250 | 1 376,25 |
Объем памяти, ГБ | 8 | 11 | 8 | 11 |
Шина памяти, бит | 256 | 352 | 256 | 352 |
Производительность блока трассировки лучей | 60T RTX-OPS | 78T RTX-OPS | — | — |
Трассировка лучей в реальном времени в играх
Главной особенностью новых видеоускорителей стала поддержка расчета трассировки лучей. В модели Ray Tracing видеочип высчитывает траекторию лучей, чтобы создавать фотореалистичное освещение и отражения.
Вообще трассировка лучей возможна и на старых видеокартах, однако все дело в производительности. Сама NVIDIA приводит такие расчеты. Прошлый флагман, GeForce GTX 1080 Ti, мог просчитать 1,1 миллиарда лучей в секунду. Новая модель GeForce RTX 2080 Ti посредством 68 RT-ядер уже рассчитывает более 10 миллиарда лучей в секунду, то есть в десять раз больше. И это при том, что нагрузка идет только на блок RT, а шейдерные ALU остаются не задействованными, то есть их можно использовать для обработки другой графики.
Усовершенствованная графика на базе искусственного интеллекта
GPU с архитектурой Turing оснащены тензорными ядрами, которые обеспечивают производительность вычислений искусственного интеллекта. Видеокарты поддерживают запуск алгоритмов искусственного интеллекта в реальном времени для создания недоступных ранее ярких, четких и фотореалистичных изображений и эффектов.
В NVIDIA называют искусственный интеллект самым крупным технологическим достижением в истории. Архитектура Turing привносит его возможности в компьютерную графику. Она оснащена тензорными ядрами, которые обеспечивают производительность вычислений искусственного интеллекта свыше 100 Терафлопс. Видеокарты на базе архитектуры Turing могут в реальном времени запускать алгоритмы искусственного интеллекта для создания ярких, четких и фотореалистичных изображений и эффектов, о которых раньше геймеры могли только мечтать.
Современные технологии шейдинга
Программируемые шейдеры определяют современную графику. Видеокарты на базе архитектуры Turing оснащены более производительными, гибкими и как никогда ранее эффективными технологиями шейдинга. Благодаря комбинации с GDDR6, самой скоростной в мире памяти, достигаемая производительность позволяет играть с максимальными настройками и высоким количеством кадров в секунду.
Какие модели представлены в продаже
В магазине XCOM-SHOP, откуда все берется, уже доступно несколько версий новых видеокарт от разных производителей. Вот список доступных моделей:
- ASUS GeForce RTX 2080 TURBO-RTX2080-8G
- ASUS GeForce RTX 2080 DUAL-RTX2080-O8G
- GIGABYTE GeForce RTX 2080 GV-N2080WF3OC-8GC
- GIGABYTE GeForce RTX 2080 GV-N2080GAMING OC-8GC
- Palit PA-RTX2080 Gaming Pro OC 8G
- Palit GeForce RTX 2080 Ti
Выводы
GeForce RTX 2080 и GeForce RTX 2080 Ti — новое слово в мире игровых видеокарт. Даже если отбросить громкие слова маркетологов NVIDA, можно с уверенностью констатировать тот факт, что столь крупного и важного для индустрии обновления индустрия не получала больше десяти лет. С учетом возможного влияния на игры внедрение технологии трассировки лучей можно сравнить с появлением программируемых шейдеров в NVIDIA GeForce 3. А ведь было это, на минуточку, в 2001 году.