CPU и GPU Что это такое и в чем их отличие?

CPU и GPU Что это такое и в чем их отличие?

  1. GPU расшифровывается как «graphics processing unit», или графический процессор. Он являет собой отдельное устройство игровой приставки, компьютера, фотоаппарата. Отвечает за рендеринг графики, выполняет его. Справляется с этой задачей GPU замечательно, обусловлено это специально предназначенной для данных целей конвейерной архитектурой. Современные GPU куда лучше обрабатывают графику, чем аналогичные им классические центральные процессоры (ЦПУ).

    В настоящее время ГПУ применяется в качестве акселератора 3D-графики, но в исключительных случаях он может быть использован для вычислений. Отличает ГПУ от ЦПУ следующее:

  2. Это аббревиатуры, отличаются первой буквой
  3. CPU — считает, GPU — строит изображение …
  4. cpu — это проц, а gpu — видеокарта

imageМногие видели аббревиатуру GPU, но не каждый знает, что это такое. Это компонент, который входит в состав видеокарты. Иногда его называют видеокарта, но это не правильно. Графический процессор занимается обработкой команд, которые формируют трехмерное изображение. Это основной элемент, от мощности которого зависит быстродействие всей видеосистемы.

Есть несколько видов таких чипов – дискретный и встроенный. Конечно, сразу стоит оговорить, что лучше первый.  Его ставят на отдельные модули. Он мощный и требует хорошего охлаждения. Второй устанавливается практически на все компьютеры. Он встраивается в CPU, делая потребление энергии в разы ниже. Конечно, с полноценными дискретными чипами ему не сравниться, но на данный момент он показывает довольно хорошие результаты.

Как работает процессор

imageGPU занимается обработкой 2D и 3D графики. Благодаря GPU ЦП компьютера становится свободнее и может выполнять более важные задачи. Главная особенность графического процессора в том, что он старается максимально увеличить скорость расчета графической информации. Архитектура чипа позволяет с большей эффективностью обрабатывать графическую информацию, нежели центральный CPU ПК.

Графический процессор устанавливает расположение трехмерных моделей в кадре. Занимается фильтрацией входящих в них треугольников, определяет, какие находятся на виду, и отсекает те, которые скрыты другими объектами.

Далее происходит прорисовка источников света и определяется, как они влияют на цвет освещаемых объектов. Такую роль GPU выполняет в рендеринге.

Если сказать по простому, то GPU формирует изображение и выдает его на экран. То есть то, что мы видим – результат работы подобных процессоров, его обработки.

  Что делать, если панель управления Nvidia пропала или не открывается

Читайте также:

Главная » ПО » Что такое gpu в компьютере

Что такое GPU в компьютере?

Главный чип на материнской плате – это центральный процессор (CPU – Central Processor Unit). Центральный, потому что управляет всеми остальными подсистемами, с помощью системы шин и чипсета.

Подсистема, которая управляет визуализацией и выводом информации на экран называется видеосистемой. Она интегрируется в материнскую плату через слот в виде видеокарты. Видеокарта – инженерное решение и представляет собой плату с собственным процессором (тем самым GPU) и оперативной памятью.

GPU NVidia Nv45 на видеокарте

Процессор на видеокарте называют GPU (Graphic Processor Unit), чтобы подчеркнуть:

  1. Что это процессор.
  2. Что он не центральный, то есть подчиненный для CPU.
  3. Что он ориентирован на обработку специальных данных – графики.

Расположение GPU на материнской плате

Поскольку обработка графики – это специализация в обработке данных, GPU – это специализированный CPU. Логически специализация выражается отделением GPU от CPU, физически – тем, что GPU устроен иначе.

CPU содержит десятки ядер, GPU — тысячи

Такая физическая реализация GPU обоснована необходимостью обрабатывать тысячи параллельных задач, связанных с отрисовкой. Центральный процессор ориентирован на обработку данных – долгие и последовательные задачи.

Современный ЦП (CPU) может включать в себя графический процессор.

Четрыехядерный процессор с дополнительным графическим ядром GPU

Такое решение позволяет компьютеру обойтись без видеокарты за счет встроенного в центральный процессор GPU. Это снижает потребляемую энергию от 30 до 180%. Стоимость процессора при этом возрастает не более чем на 20%.

Главный минус такой реализации – низкая производительность. Такое решение подходит для офисных компьютеров, где работают с документами и базами данных, но современную компьютерную игру на нем не запустишь, Фотошоп будет притормаживать, а Автокад может зависнуть намертво.

Как узнать GPU в компьютере

Для пользователя GPU прочно ассоциируется с видеокартой, хотя это только процессор. Знать, какой графический адаптер установлен в компьютере полезно в трех случаях:

  • при установке или обновлении драйверов;
  • при оценке компьютера на соответствие системным требованиям программного обеспечения;
  • чтобы хвастаться перед друзьями.

Ели на компьютере установлены все драйвера, то самый быстры способ – посмотреть в диспетчере устройств, в разделе видеоадаптеры:

Просмотр GPU в диспетчере устройств

Если драйвера не установлены диспетчер устройств покажет только надпись о неизвестных устройствах:

GPU в диспетчере устройств в случае отсутствия драйверов

В этом случае скачайте утилиту CPU-Z, запустите и перейдите на вкладку «Графика» (Graphics в англ. версии):

Просмотр GPU в программе CPU-Z

helpadmins.ru

GPU что это в компьютере?

Всем привет GPU это обозначение видеокарты, если быть точнее то графический процессор. Данное слово, ну то есть аббревиатуру часто можно встретить в каких-то характеристиках, ну вот например в характеристиках процессора Intel есть такое понятие как Integrated GPU, что означает встроенная видеокарта. Ну все верно, она реально встроена, видео чип сидит прямо в процессоре, это не новость как бы

То есть вывод мы уже сделали, GPU это видюха. Но что еще важно понимать? Я вот писал, что GPU встречается в характеристиках, все верно, по помимо этого также можно встретить и в программах, которые показывают температуру. Я думаю что вы такие проги знаете.. Ну или не знаете, короче в любом случае, то что я сейчас напишу, то это вам будет полезно знать. Значит речь идет про температуру GPU. Многие уверяют, что видюха может работать и при 80 градусах, а вот я заявляю что это слишком высокая температура! Да и вообще я считаю что выше 70 это не норма!

Кстати GPU расшифровывается как Graphics Processing Unit

А вот и сам графический чип, ну то есть GPU, вот я его стрелочками указал на плате:

Но какая тогда норм температура? До 60 градусов, ну максимум 66, ну 70 градусов это уже потолок… Но выше я думаю что это уже не оч хорошо, просто срок службы точно не продлит такая температура, согласны со мной? Ну и еще есть интересный момент, короче если видюха прилично греется, то блин она еще и выкидывает свое тепло в корпус, ну в нем явно не будет прохладно, а тут и процессу станет жарко, короче веселуха! Помните, что именно ТЕМПЕРАТУРА способна снизить срок работы устройства! Вот на старых материнках от высокой температуры взрывались электролитические конденсаторы.. Если не верите, то можете сами посмотреть в интернете..

Ну вот скажите мне, вам тут все было понятно? Честно, буду надеяться что да! Ну а если что не так, ну так уж извините!

На главную! видеокарта 17.05.2017

virtmachine.ru

Что означает GPU?

GPU (Графический процессор видеокарты)

GPU (графический процессор) – высокотехнологическое устройство отвечающее за обработку графики в компьютерах, ноутбуках, мобильных телефонах. Современные GPU обладают специализированной конвейерной архитектурой, благодаря чему очень эффективно обрабатывают графическую информацию в сравнении с типичным центральным процессором. Может применяться как в составе дискретной видеокарты, так и в интегрированных решениях (встроенных в северный мост либо в гибридный процессор).

Основные отличия GPU от CPU:

  1. Архитектура (максимальный упор на обработку графических текстур)
  2. Ограниченный набор исполнительных команд

Высокая скорость и мощность процессоров GPU на данное время объясняется особенностями архитектуры построения. Если современные CPU состоят из 2-6 ядер, то GPU считается многоядерной структурой, использующей сразу до сотни ядер. CPU предполагает обработку информации последовательно, а GPU рассчитан на многопотоковую  параллельную работу с массивом информации.

windows-gadjet.ru

Что такое GPU и для чего нужен

Графический процессор или на английском GPU – Graphics Processing Unit – это устройство, представляющие собой микросхему, чип, являющуюся частью видеоадаптера (видеокарты) или материнской платы.

Графический процессор отвечает за построение (рендеринг) изображения.

Упрощенно роль и значение GPU можно описать так:

GPU получает от центрального процессора (CPU) данные на обработку, требуемые для построения изображения, после обрабатывает их и подготавливает для дальнейших операций, тем самым многократно ускоряет процесс формирования изображения и снижает нагрузку на центральный процессор

Графический процессор является необязательным компонентом, его работу способен выполнять центральный.

В отличие от центрального процессора, графический, в силу различия архитектур (строения, устройства), способен обрабатывать в десятки, сотни, тысячи раз быстрее определенные типы операций, например, обработку данных для построения изображения и не только. GPU может быть дискретным, то есть входить в состав видеокарты, выполняемой в виде платы (устройства) расширения, устанавливаемого в слот расширения материнской платы.В таком случае все дополнительные компоненты располагаются на одной печатной плате, которую в любой момент можно легко извлечь или заменить. Или является интегрированным, частью самой материнской платы устройства.В таком случае, графический процессор располагается на материнской плате, все дополнительные компоненты расположены неподалеку.   Применяется в персональных компьютерах, смартфонах, игровых приставках и так далее.

19-06-2017, 20:38 Detaillook

www.detaillook.com

NVIDIA GPU и сравнение GPU и CPU

Облачные вычисления кардинально изменили все отрасли промышленности, демократизировав дата-центры и полностью изменив принципы работы предприятий. Самые важные активы компании теперь хранятся в облаке выбранного вами провайдера. Однако, чтобы извлечь максимальную пользу из имеющихся данных, требуется подходящее высокопроизводительное вычислительное решение.

ПО NVIDIA Deep Learning создано для обеспечения максимальной производительности на самых быстрых в мире GPU и содержит оптимизированные фреймворки глубокого обучения, библиотеки, драйверы и ОС.Это унифицированное ПО работает на различных вычислительных платформах, начиная от видеокарт TITAN X и GeForce GTX 1080Ti и заканчивая системами DGX и облаком, и доступно круглосуточно.

Облачные вычисления на GPU также доступны по запросу на всех основных облачных платформах.

КАК ПРИЛОЖЕНИЯ ПОЛУЧАЮТ УСКОРЕНИЕ НА GPU

GPU обрабатывает части приложения, требующие большой вычислительной мощности, при этом остальная часть приложения выполняется на CPU. С точки зрения пользователя, приложение просто работает значительно быстрее.

Простой способ понять разницу между GPU и CPU – сравнить то, как они выполняют задачи. CPU состоит из нескольких ядер, оптимизированных для последовательной обработки данных, в то время как GPU имеет тысячи более мелких и энергоэффективных ядер, созданных для выполнения нескольких задач одновременно.

GPU состоит из тысячи ядер для эффективной обработки параллельных задач

Посмотрите видеоролик ниже, что сравнить GPU и CPU

Видео: “Разрушители легенд наглядно показывают мощь вычислений GPU против CPU” (01:34)

Более 400 приложений,—включая 9 из 10 ведущих HPC-приложений, уже получили ускорение на GPU, благодаря чему все пользователи графических процессоров могут добиться значительно повышения производительности для своих задач. Посмотрите в нашем каталоге приложений, имеет ли приложение, с которым вы работаете, GPU ускорение (PDF 1,9 MБ).

Существует три основных метода, чтобы добавить в ваше приложение GPU-ускорение:

  • Использовать GPU-оптимизированные библиотеки
  • Добавить директивы или “подсказки” компилятору для автоматического распараллеливания вашего кода
  • Использовать расширения для языков программирования, которые вы уже знаете, например, C и Fortran

Узнать, как использовать GPU с моделью параллельного программирования CUDA, очень легко.

Бесплатные онлайн занятия и ресурсы для разработчиков доступны на CUDA Zone.

ЗАЙДИТЕ НА CUDA ZONE

www.nvidia.ru

Программа GPU-Z представляет собой уникальный софт, дающий подробнейшие сведения о вашей видеокарте. В основном, её используют продвинутые пользователи, которые хотят знать максимум информации о том модуле, который установлен в их компьютере. Работа с программой  не вызывает никакого дискомфорта, но иногда достаточно сложно разобраться с тем, где и какая информация расположена. Если человек профессионал, он разберётся, а вот в случае с новичками не всё так однозначно.В данной статье я подробно расскажу о том, как пользоваться GPU Z, что позволит вам полностью изучить всё, что предлагает данная программа. Информация ниже разбита на блоки, чтобы вам было удобнее во всём ориентироваться.

Содержание

Блок первый

В данном случае собрана в основном вся самая ключевая информация о вашем графическом модуле.

  • Name. Отображается полное имя устройства в операционной системе. Параметр определяется драйверами. Стоит отметить, что опираться на эту информацию не всегда целесообразно. Дело в том, чтобы модель видеокарты отображалась правильно, в системе должны быть установлены на неё правильные драйвера.
  • GPU. Отображается кодовое наименование графического процессора, которое использует непосредственно компания, производящая видеокарты.
  • Revision. Это номер ревизии процессора, который так же задаётся производителем.

Обратите внимание! В данном моменте может не быть никакой информации. В таком случае знайте, что у вас установлен процессор ATI.

  • Technology. Информация интерпретируется как производственный процесс, характерный для вашей видеокарты.
  • GPU Die Size. Отображается площадь ядра процессора. Если видеокарта является интегрированной, вероятность отображения подобной информации очень низка.
  • Release Date. Вписывается официальная дата релиза той модели видеокарты, которая вами используется в данный момент.
  • Transistors Count. В строке будет показана информация относительно того, каково общее количество транзисторов, которые фактически присутствуют в процессоре графического ускорителя.

Блок второй

Следующий блок информации, который носит уже немного иной характер.

  • BIOS Version. Тут отображена версия BIOS для вашего графического адаптера.

Обратите внимание! При необходимости вы можете данную информацию экспортировать в файл текстового формата. Для этого нужно лишь нажать не специальную кнопку. Помимо этого, есть возможность обновления базы данных разработчика в сети, это тоже делается в пару действий.

  • UEFI. Собственно, на основе этого пункта вы узнаете, присутствует ли такое явление в вашем случае.
  • Devise ID. Каждый производитель и отдельная модель видеокарты имеют уникальный идентификатор. В данной строке вы их найдёте.
  • Subvendor. Ещё один пункт, где вы сможете увидеть идентификатор непосредственно производителя модуля. При этом он присваивается специальной ассоциацией PCI-SIG. Для каждой компании создаётся уникальный и неповторимый код.
  • ROPs/TMUs. Данный информационный блок затрагивает вопрос производительности. Если говорить именно о технической стороне, то отображается количество блоков растровых операций, которое характерно именно для данной видеокарты.
  • Bus Intefrace. Параметр касательно шины. Во-первых, вы можете без проблем узнать сведения непосредственно об интерфейсе системной шины. Во-вторых, есть информация о настройках пропускной способности.
  • Shaders. Отображается точное количество шейдерных процессов. Помимо этого, вы можете узнать их тип, что тоже немаловажно.
  • DirectX Support. Тут вы сможете увидеть версии DirectX. Помимо этого, есть доступ к информации о шейдерной модели, которая поддерживается установленной графической платой.

Обратите внимание! Нужно отметить тот факт, что в данном случае сведения отображаются не о тех версиях, которые установлены в вашей системе.

  • Pixel Filtrate. Информация по поводу того, какое количество пикселей способна отрендерить видеокарта за одну секунду времени. Так как числа действительно огромные, используется конвертация. Например, 1 GPixel равен одному миллиарду пикселей.
  • Texture Filtratre. Аналогичный пункт по отношению к предыдущему, но тут отображается количество текстелей, которые обрабатываются графическим адаптером за одну секунду времени.

Блок третий

Данный блок содержит достаточно большое количество различных параметров, связанных непосредственно с производительностью видеокарты, которая подключена к вашему компьютеру и в данный момент анализируется.

  • Memory Type. Тут вы сможете увидеть то, какой тип памяти у вашего видеоадаптера.
  • Bus Width. Один из важнейших показателей в плане производительности. Он указывает ширину между графическим процессором, а также видеопамятью. Если говорить другими словами, это ширина шины.

Обратите внимание! Показатель играет действительно важную роль, так как он определяет то, какое количество информации в единицу времени сможет передавать ваша видеокарта. Чем больше тут число, тем лучше, так как модуль качественнее реализует все свои возможности и обеспечивает больше мощности.

  • Memory Size. Тут вы получите данные касательно общего набора набортной памяти в графическом адаптере. В том случае, если в строке не указано значение, есть два варианта. Во-первых, у вас может быть установлена интегрированная видеокарта. Во-вторых, возможно, для компьютера характерна многоядерная система.
  • Bandwidth. Тут вы можете увидеть эффективную пропускную способность шины вашей модели видеокарты. Речь идёт о передаче данных между видеопамятью, а также графическим процессором.
  • Driver Version. Тут совмещено сразу два показателя. Во-первых, вы увидите актуальную версию драйвера, который установлен в данный момент времени. Во-вторых, отображена версия операционной системы вашего компьютера. Для удобства пишется даже разрядность.
  • GPU Glock. Напротив этого пункта вы найдёте показатель выбранной частоты процессора. Он отображается для производительного режима функционирования графической карты, характеристики которой рассматриваются.
  • Memory. Всё по аналогии с предыдущим вариантом, только теперь вы получаете сведения о частоте видеопамяти для производительного режима видеоадаптера.
  • Shader. Как и в предыдущих двух случаях, параметр рассчитан для производительного режима работы модуля. Но в данной ситуации вы получаете сведения касательно выбранной частоты шейдеров.

Важно! В том случае, если напротив пункта нет никаких данных, нужно понимать, что у вас либо карта ATI, либо интегрированный модуль. В таких случаях шейдерные процессоры работают на частоте ядра.

Блок четвертый

Продолжая разбирать структуру данных, предоставляемых программой GPU-Z, необходимо выделить последние пункты, относящиеся к разделу «Graphics Card».

  • Default Clock. Тут вы увидите то, какую исходную частоту графического процессора имеет ваша видеокарта без учёта разгона.
  • Memory. Всё то же самое, как и в пункте выше, информация о видеоадаптере без учёта разгона. Только в этот раз отображается исходная частота памяти.
  • Shader. В этой графе есть сведения об исходной частоте шейдеров без учёта разнога видеокарты. Чтобы понимать, почему показатель может отсутствовать, прочитайте информацию, расположенную выше на несколько абзацев.

Есть ещё и нижняя панель, где отображается ряд возможностей видеокарты. Например, вы узнаете, доступны ли технологии OpenCL, NVIDIA CUDA, DirectX Compute. Помимо этого, есть информация о том, доступно ли аппаратное ускорение NVIDIA PhysX.

Блок пятый

Теперь речь будет идти уже о соседней вкладке с названием «Sensors». Если говорить о сути, то вы сможете наблюдать данные, получаемые с датчиков графической платы, в режиме реального времени. Очень удобно для тестирования того, как изменяется нагрузка на модуль при работе с теми или иными программами. Вот основные параметры:

  • PGU Core Clock. Видно то, как изменяется текущая выбранная частота процессора для производительного режима функционирования.
  • GPU Memory Clock. Тут вы сможете видеть то, какую в данный момент времени частоту памяти имеет ваша видеокарта.
  • GPU Temperature. Предлагается узнать, какую температуру имеет графический процессор.
  • GPU Load. Обобщённый параметр, который сообщает о загруженности модуля.

Обратите внимание! Показатель высчитывается в процентах для максимальной наглядности.

  • Memory Usage. Отражена загруженность видеопамяти вашего графического адаптера. Показатель выражен в мегабайтах.

Все данные, описанные в пятом блоке, вы можете сохранить в специальный лог-файл. Для реализации задумки достаточно активировать опцию «Log to file» в нижней части окна.

Блок шестой

Последний блок, где рассматривается третья вкладка программы GPU-Z под названием «Validation». Если коротко, тут вы можете связаться с разработчиком, если вам есть что сказать. Например, вы могли обнаружить ошибку в работе софта. Помимо этого, можно просто задать интересующий вас вопрос.

Важно! В нижней части есть кнопка переключения между видеокартами, если в вашей системе их сразу две.

Положительные стороны

Программа GPU-Z занимает минимум места на вашем компьютере и совсем не потребляет системных ресурсов. Самый большой плюс в огромной информативности. Сведения предстaвлены в доступном виде, хорошо структурирoваны.

Даже с учётом того факта, что поля не переводятся, вы легко разберётесь, где и что указaно. Расшифровка, описанная выше, вам в этом поможет.

Отрицательные стороны

У данной программы нет минусов. Один лишь минимальный недостаток может проявиться в том, что иногда нельзя точно определить некоторые параметры. Но это скорее вина изготовителя, который в недостаточной степени идентифицировал устройство.

Заключение

GPU-Z можно считaть эталоном информативности, если вы хотите получить сведения касательно видеокарты, которая устанoвлена в вашем компьютере или ноутбуке. Надеюсь, что данная статья оказалась вам полезной и теперь вы знаете, как пользоваться GPU Z.

Hardwareluxx > Статьи > Железо > Видеокарты > FAQ по видеокартам GeForce: что следует знать о графических картах?

” onclick=”window.open(this.href,’win2′,’status=no,toolbar=no,scrollbars=yes,titlebar=no,menubar=no,resizable=yes,width=640,height=480,directories=no,location=no’); return false;” rel=”nofollow”>
Опубликовано: 30.06.2019 в 10:59Андрей Шиллинг

Страница 1: FAQ по видеокартам GeForce: что следует знать о графических картах?

imageДля некоторых пользователей видеокарты по-прежнему покрыты завесой тайны. Даже во времена повсеместного распространения интегрированной графики видеокарты остаются весьма важными компонентами, поскольку в играх без дискретного 3D-ускорителя не обойтись. Конечно, если хочется получить максимальное качество картинки на разрешениях 1080p и выше.

Но чем видеокарты отличаются друг от друга? В чем смысл таких терминов, как ядра CUDA, интерфейс памяти или трассировка лучей? В нашей статье мы постараемся ответить на эти и другие вопросы.

image

Внешняя структура и дизайн

Видеокарты выпускаются в разных форматах. Дискретные видеокарты обычно приобретаются как карты расширения PCI Express, но видеокарты могут интегрироваться в CPU. В ноутбуках они также могут припаиваться на материнскую плату или устанавливаться в виде модулей MXM, которые намного компактнее дискретных решений PCIe. С распространением Thunderbolt 3 на рынке стали популярны внешние видеокарты. Они представляют собой стандартную видеокарту, которая устанавливается во внешний бокс с платой, блоком питания и кулером, после чего подключается к настольному компьютеру или ноутбуку через Thunderbolt 3. Весьма удобное решение для тех случаев, когда мини-ПК или ноутбук оснащен быстрым CPU, но не самой скоростной видеокартой.

image

Форм-фактор видеокарты зависит от сферы использования, но бывают отличия и внутри семейств. В прошлом видеокарта вместе с кулером редко занимала по ширине больше двух слотов, но сегодня данное ограничению больше характерно для эталонных моделей. В high-end сегменте видеокарты чаще всего занимают по ширине больше двух слотов, в среднем от 2,5, но бывает и до трех.

Низкопрофильные видеокарты встречаются довольно редко. Разве что для некоторых сценариев использования производители выпускают низкопрофильные однослотовые видеокарты – например, для серверного сегмента, когда имеются ограничения по занимаемому пространству.

image

Как и в случае толщины, по длине видеокарты тоже наблюдается существенный разброс. Обычно производители придерживаются спецификаций ATX, которые оговаривают длину до 305 мм. Если видеокарта будет длиннее, то могут возникнуть проблемы с установкой в корпус. Например, может мешаться стойка накопителей. Для формата Mini-ITX верхней планкой является 170 мм. Впрочем, подобных видеокарт сравнительно немного. Чаще всего видеокарты имеют длину от 250 до 300 мм, что позволяет им умещаться в большинстве корпусов ПК.

Длина видеокарты косвенно связана с производительностью. У дешевых моделей памяти меньше, также используется менее мощная подсистема питания, поэтому видеокарты получается сделать более компактными. Впрочем, на рынке были и очень компактные видеокарты GeForce GTX 1080 Ti, да и в линейке GeForce RTX стали появляться модели с длиной 170 мм.

Охлаждение

Радиальный вентилятор

На видеокартах используют разные системы охлаждения, которые связаны с форм-фактором и дизайном. Довольно часто можно встретить системы охлаждения с радиальным вентилятором, раньше к ним относились многие эталонные видеокарты, но также и недорогие модели. Свежий воздух нагнетается в районе вентилятора, после чего проходит через видеокарту и выбрасывается наружу корпуса. Как правило, радиальный вентилятор располагается в задней части видеокарты. Подобные кулеры часто применяются в ноутбуках, поскольку они довольно компактные.

Осевой вентилятор

Осевые вентиляторы устанавливаются на радиатор и продувают воздух в направлении PCB. В отличие от кулеров с радиальными вентиляторами, горячий воздух остается в корпусе ПК, а не выбрасывается наружу через слотовую заглушку. Так что в корпусе должна быть достаточная вентиляция. Как правило, осевые вентиляторы встречаются на видеокартах чаще всего.

image

Водяное охлаждение

Чтобы гарантировать наилучшее охлаждение, многие производители оснащают видеокарту водоблоком. Из-за более быстрого и эффективного отведения тепла, СВО хорошо подходит для разгона видеокарт. А также для охлаждения “прожорливых” high-end моделей. Используются как медные водоблоки, которые можно интегрировать в корпус существующей СВО, так и решения с замкнутым контуром или “все в одном”, которые включают помпу, резервуар, теплообменник и трубки.

image<</span>FAQ по видеокартам GeForce: что следует знать о графических картах?Порты и интерфейсы

Оцените статью
Рейтинг автора
5
Материал подготовил
Илья Коршунов
Наш эксперт
Написано статей
134
А как считаете Вы?
Напишите в комментариях, что вы думаете – согласны
ли со статьей или есть что добавить?
Добавить комментарий