Графический процессор что это такое и зачем используется

Графический процессор: что это такое и зачем используется?

В современных устройствах применяется графический процессор, который еще обозначают как GPU. Что это и каков его принцип работы? GPU (Graphics Processing Unit) — процессор, основная задача которого — обработка графики и вычислений с плавающей точкой. GPU облегчает работу главного процессора, если идет речь о тяжелых играх и приложениях с 3D-графикой.

Что это?

Графический процессор создает графику, текстуры, цвета. Процессор, который обладает несколькими ядрами, может работать на высоких скоростях. У графического много ядер, функционирующих преимущественно на низких скоростях. Они занимаются вычислениями пикселей и вершин. Обработка последних в основном происходит в системе координат. Процессор графический обрабатывает различные задачи, создавая на экране трехмерное пространство, то есть объекты в нем перемещаются.

Принцип работы

Что делает графический процессор? Он занимается обработкой графики в формате 2D и 3D. Благодаря GPU компьютеру быстрее и легче удается выполнять важные задачи. Особенность графического процессора состоит в том, что он увеличивает скорость расчета графической информации на максимальном уровне. Его архитектура устроена так, что позволяет более эффективно обрабатывать визуальную информацию, чем центральный CPU компьютера.

Он отвечает за расположение трехмерных моделей в кадре. Кроме того, каждый из типов графического процессора фильтрует треугольники, входящие в него. Он определяет, какие на виду, удаляет те, которые скрываются за другими объектами. Прорисовывает источники света, определяет, каким образом эти источники влияют на цвет. Графический процессор (что это такое — описано в статье) создает изображение, выдает его пользователю на экран.

Эффективность работы

Чем обусловлена эффективная работа графического процессора? Температурой. Одна из проблем ПК и ноутбуков — перегрев. Именно это становится главной причиной того, почему устройство и его элементы быстро выходят из строя. Проблемы с GPU начинаются, когда температура процессора превышает 65 °С. В этом случае пользователи замечают, что процессор начинает работать слабее, пропускает такты, чтобы самостоятельно понизить увеличенную температуру.

Температурный режим 65-80 °С — критический. В этом случае начинается перезагрузка системы (аварийная), компьютер выключается самостоятельно. Пользователю важно отслеживать, чтобы температура графического процессора не превышала 50 °С. Нормальной считается t 30-35 °С в простое, 40-45 °С при многочасовой нагрузке. Чем ниже температура, тем выше производительность компьютера. Для материнской платы, видеокарты, корпуса и жестких дисков — свои температурные режимы.

Но многих пользователей также беспокоит вопрос, как же уменьшить температуру процессора, чтобы повысить эффективность его работы. Для начала нужно выяснить причину перегрева. Это может быть засорение системы охлаждения, высохшая термопаста, вредоносная программа, разгон процессора, сырая прошивка БИОСа. Самое простое, что может сделать пользователь, — это заменить термопасту, которая находится на самом процессоре. Кроме того, нужно произвести чистку системы охлаждения. Еще специалисты советуют установить мощный кулер, улучшить циркуляцию воздуха в системном блоке, увеличить скорость вращения на графическом адаптере кулера. Для всех компьютеров и графических процессоров одинаковая схема понижения температуры. Важно следить за устройством, вовремя его чистить.

Специфика

Графический процессор расположен на видеокарте, его главная задача — это обработка 2D и 3D графики. Если на компьютере установлен GPU, то процессор устройства не выполняет лишнюю работу, поэтому функционирует быстрее. Главная особенность графического в том, что его основная цель — это увеличение скорости расчета объектов и текстур, то есть графической информации. Архитектура процессора позволяет им работать намного эффективнее, обрабатывать визуальную информацию. Обычному процессору такое не под силу.

Что это — графический процессор? Это компонент, входящий в состав видеокарты. Существует несколько видов чипов: встроенный и дискретный. Специалисты утверждают, что лучше справляется со своей задачей второй. Его устанавливают на отдельные модули, так как отличается он своей мощью, но ему необходимо отличное охлаждение. Встроенный графический процессор есть практически во всех компьютерах. Его устанавливают в CPU, чтобы сделать потребление энергии в несколько раз ниже. С дискретными по мощи он не сравнится, но тоже обладает хорошими характеристиками, демонстрирует неплохие результаты.

Компьютерная графика

Это что? Так называется область деятельности, в которой для создания изображений и обработки визуальной информации используют компьютерные технологии. Современная компьютерная графика, в том числе научная, позволяет графически обрабатывать результаты, строить диаграммы, графики, чертежи, а также производить различного рода виртуальные эксперименты.

С помощью конструктивной графики создаются технические изделия. Существуют и другие виды компьютерной графики:

  • анимационная;
  • мультимедийная;
  • художественная;
  • рекламная;
  • иллюстративная.

С технической точки зрения компьютерная графика — это двухмерные и трехмерные изображения.

CPU и GPU: разница

В чем разница между этими двумя обозначениями? Многие пользователи в курсе, что графический процессор (что это — рассказано выше) и видеокарта выполняют разные задачи. Кроме того, они отличаются по своей внутренней структуре. И CPU, и GPU — это процессоры, которые обладают многими сходными чертами, но сделаны они для разных целей.

CPU выполняет определенную цепочку инструкций за короткий промежуток времени. Он сделан так, что формирует одновременно несколько цепочек, разбивает поток инструкций на множество, выполняет их, затем снова сливает в одно целое в конкретном порядке. Инструкция в потоке находится в зависимости от тех, что за ней следуют, поэтому в CPU содержится малое число исполнительных блоков, здесь главный приоритет отдается скорости выполнения, уменьшению простоев. Все это достигается при помощи конвейера и кэш-памяти.

У GPU другая важная функция — рендеринг визуальных эффектов и 3D-графики. Работает он проще: на входе получает полигоны, проводит необходимые логические и математические операции, на выходе выдает координаты пикселей. Работа GPU — это оперирование большим потоком разных задач. Его особенность в том, что он наделен большим объемом памяти, но медленно работает по сравнению с CPU. Кроме того, в современных GPU более 2000 исполнительных блоков. Отличаются они между собой методами доступа к памяти. Например, графическому не нужна кэшированная память большого размера. У GPU пропускная способность больше. Если объяснять простыми словами, то CPU принимает решения в соответствии с задачами программы, а GPU производит множество одинаковых вычислений.

Читайте также:  Железный эксперимент какой процессор нужен для NVIDIA GeForce GTX 1070 1080 09 06 2016 08 01

Источник

Предпочитаемый графический процессор что выбрать

В последних сборках Windows 10 Redstone 4, релиз которой должен состояться весной этого года, появилась новая функция — выбор предпочтительного GPU для работы с той или иной программы. В основном это нужно для ноутбуков, в которых бывает две графики — от Intel и от AMD или Nvidia. Первая обычно используется для экономии энергии при работе с нетяжелыми задачами — серфинг в интернете, просмотр фильмов, работа с документами и т.д. Ну а для игр или трудоемких 3D-приложений подключается более мощная дискретная графика (при этом за вывод на монитор всегда отвечает интегрированный GPU от Intel). По умолчанию за переключение видеокарт отвечает видеодрайвер дискретной видеокарты, и в панели управления Nvidia или AMD можно настроить, какие приложения с какой видеокартой будут запускаться.

Microsoft решила несколько упростить и одновременно доработать переключение: теперь оно и для видеокарт от Nvidia, и для видеокарт от AMD настраивается в одном месте, и также появилась возможность выбора предпочтительного GPU для приложений из Магазина Windows — с учетом того, что там все же есть несколько требовательных 3D-игр, это не лишено смысла.

Находится эта настройка в Параметрах > Система > Дисплей > Настройки графики:

Теперь выберите, для приложения какого типа вы хотите задать предпочтительный GPU — для классического или универсального (из Магазина Windows). Далее нажмите на кнопку «Обзор» и укажите путь до нужного приложения, если оно классическое, или выберите его из списка, если оно универсальное:

Теперь нажмите на программу > Параметры и выберите, какую видеокарту вы хотите использовать. Энергосбережение означает, что выбранная вами программа будет запускаться с интегрированным GPU, высокая производительность — с дискретным, по умолчанию — решать будет видеодрайвер:

А вы знаете, как выбрать для работы приложения или игры более предпочтительный графический процессор из двух имеющихся вариантов? Если нет, то владельцам ноутбуков предлагаю ознакомиться с этой статьей.

На сегодняшний день даже средний по стоимости и производительности ноутбук поставляется с двумя видеокартами. Первая, работающая по умолчанию – это встроенная, вторая – дискретная. Дополнительным графическим процессором в основном комплектуются игровые модели ноутбуков, но не редкость найти его и на неигровой установке.

Из встроенных выбор невелик и обычно это чип от Intel, а вот дискретные могут быть как и от Nvidia, так и от AMD. Это самые распространённые и поверенные пользователями в работе продукты. И производители, в первую очередь, стараются комплектовать устройства исходя из наших с вами предпочтений.

Теперь кратко рассмотрим сам процесс взаимодействия двух видеокарт. Когда требования какого-либо работающего приложения превышают возможности встроенной карты, ваша система автоматически переключается на работу с дискретной. Это происходит, в основном, когда вы начинаете играть в ресурсоемкие игры.

Как уже упоминалось выше, на рынке ПК первенство держат два основных производителя графических процессоров. Стоит отметить, что наиболее широко применяемый Nvidia, использует относительно новую технологию “Optimus”. Её функциональность заключается в том, что всякий раз, когда она обнаруживает, что программа или игра нуждается в дополнительных, более мощных ресурсах, автоматически задействуется выделенный GPU.

А сейчас я покажу вам, как можно легко заставить приложение использовать высокопроизводительный или интегрированный GPU на выбор пользователя. Сегодня это будет продемонстрировано только с NVIDIA и Intel.

Поехали дальше?! Это очень просто.

ГРАФИЧЕСКИЙ ПРОЦЕССОР

Откройте Панель управления NVIDIA. Самый простой и быстрый способ – это кликнуть правой кнопкой мыши на соответствующем значке, размещенном на Панели задач в нижнем правом углу. Перейдите в меню “Рабочий стол” и установите отметку напротив пункта “Добавить пункт в контекстное меню”.

Теперь, после этих простых действий, вы сможете нажать правой кнопкой мыши на ярлыке любого приложения и, в появившемся пункте меню, выбрать один из двух вариантов запуска.

ПОСТОЯННЫЙ ЗАПУСК

А если вы решили постоянно играть в игру только с использованием дискретной видеокарты, то необходимо в Панели управления перейти в раздел “Управление параметрами 3D”, выбрать вкладку “Программные настройки” и установить в п.1 необходимую игру или программу, а в п.2 выбрать нужную видеокарту, после чего нажать на кнопку “Применить”.

Вот и все! Посетите Карту блога и ознакомьтесь со всеми имеющимися компьютерными советами. Станьте участником нашей группы в FB, где сможете получить помощь, а также участвовать в обсуждениях или публиковать свою точку зрения.

Графический процессор — выбираем более предпочтительный

А вы знаете, как выбрать для работы приложения или игры более предпочтительный графический процессор из двух имеющихся вариантов? Если нет, то владельцам ноутбуков предлагаю ознакомиться с этой статьей.

На сегодняшний день даже средний по стоимости и производительности ноутбук поставляется с двумя видеокартами. Первая, работающая по умолчанию — это встроенная, вторая — дискретная. Дополнительным графическим процессором в основном комплектуются игровые модели ноутбуков, но не редкость найти его и на неигровой установке.

Из встроенных выбор невелик и обычно это чип от Intel, а вот дискретные могут быть как и от Nvidia, так и от AMD. Это самые распространённые и поверенные пользователями в работе продукты. И производители, в первую очередь, стараются комплектовать устройства исходя из наших с вами предпочтений.

Теперь кратко рассмотрим сам процесс взаимодействия двух видеокарт. Когда требования какого-либо работающего приложения превышают возможности встроенной карты, ваша система автоматически переключается на работу с дискретной. Это происходит, в основном, когда вы начинаете играть в ресурсоемкие игры.

Источник

Выбор графического процессора от NVIDIA в качестве предпочитаемого для запуска total war

Чтобы выбрать, какой графический процессор будет использоваться во время игры в Total War, воспользуйтесь панелью управления Nvidia.

  1. Убедитесь, что у вас установлена последняя версия графических драйверов с официального сайта производителя или с сайта Nvidia.
  2. Щелкните правой кнопкой мыши по рабочему столу и откройте «Панель управления NVIDIA». В списке слева найдите пункт «Управление параметрами 3D».
  3. Открыв «Управление параметрами 3D», найдите на вкладке «Программные настройки» список всех программ. В пункте 1 («Выберите программу для настройки») выберите из списка игру Total War, щелкнув по ней левой кнопкой мыши. Если игры в списке нет, то запустите ее и вернитесь в управление параметрами 3D, либо воспользуйтесь кнопкой «Добавить», найдите папку с игрой вручную (обычно она находится здесь: C:\Program Files (x86)\Steam\steamapps\common\ [НАЗВАНИЕ ИГРЫ] ) и выберите исполняемый файл игры, например warhammer.exe.
  4. В пункте 2 («Укажите настройки для этой программы») выберите графический процессор, который хотите использовать для игры (для лучшей производительности выберите графический процессор NVIDIA, но учтите, что это скажется на энергопотреблении).
  5. Сделав выбор, нажмите кнопку «Применить» в нижнем правом углу.
Читайте также:  Windows 10 обвиняют в перегреве компьютеров

Не забудьте подключить провод питания к ноутбуку.

Примечание: некоторые ноутбуки не будут использовать более мощную видеокарту при отключенном проводе питания.

Есть вопрос, на который мы не ответили?

тогда, пожалуйста, свяжитесь с нами

© SEGA. SEGA и логотип SEGA являются зарегистрированными товарными знаками или товарными знаками SEGA Holdings Co., Ltd. или ее партнеров. Все права защищены. SEGA зарегистрирована в ведомстве по патентам и товарным знакам США. Все прочие товарные знаки, логотипы и авторские права являются собственностью их владельцев.

Источник



Побеждаем Nvidia Optimus, или запуск игр на дискретном графическом ускорителе (обновлено)

Сначала абсолютно все ноутбуки имели только устройства вывода графики, которые вообще не поддерживали обработку 3D, а если и поддерживали, то из рук вон плохо.

Так например, в одном моем ноутбуке 2000 года выпуска стоял видеоадаптер NeoMagic, оснащенный всего лишь 2.5 мегабайтами видеопамяти и поддерживавший только режим D2D (на нем более-менее шла Diablo II), а во втором ноутбуке (2003 год) — S3 с 8 мегабайтами видеопамяти (с тормозами можно было поиграть в Counter Strike).

Впрочем, высокой графической производительности, особенно в играх, от них и не требовалось: ноутбуки были очень дорогими нишевыми продуктами для корпоративных пользователей, у которых были высокие требования к мобильности, а следовательно, приемлемого времени работы от аккумуляторных батарей.

Но годы шли, трехмерная графика активно завоевывала мир, а потом и ноутбуки стали становиться все более массовым и, что немаловажно, универсальным товаром.

Соответственно, использоваться они стали в самом широком кругу задач — от рядовых офисных до мультимедийных, и пользователей очень быстро перестала устраивать низкая эффективность встроенных в ноутбуки графических решений.

Производители стали усиливать графическую подсистему ноутбуков, появился даже класс аппаратов, так и называемый — игровые ноутбуки.

Но несложно догадаться, что энергопотребление таких ноутбуков очень сильно возросло, что негативно сказалось на времени их автономной работы. К слову, топовые ноутбуки Alienware от Dell, оснащаемые самым топовым на данный момент железом, в пике потребляют порядка 300 ватт. От батарей такой монстр явно долго не проработает.

Наметился раскол: ноутбук был либо мощным, но большим, тяжелым и с очень малым временем работы от батарей, либо маленьким, легким, с хорошим временем работы от батарей, но с низкой производительностью в играх.

Перед инженерами предстали сложные (и даже взаимоисключающие) задачи, а именно как одновременно сохранить длительное время работы от батарей и высокую графическую производительность.

В настоящее время такое решение есть: в ноутбуке имеется два видеоускорителя — чаще всего графическое ядро Intel HD Graphics и дискретный видеоускоритель от Nvidia, режим переключения которых можно выбрать в панели управления Nvidia:

Всего доступно 3 режима: Автовыбор, Высокопроизводительный процессор Nvidia и Интегрированное графическое оборудование.

Если поставить Автовыбор, то теоретически система сама должна выбирать графический ускоритель в зависимости от нагрузки на графическую подсистему.

Можно выбрать один из режимов (по умолчанию стоит Автовыбор); после выбора режима нажмите Применить. Может заработать сразу, а может потребоваться перезагрузка системы.

Несмотря на то, что в ноутбуках с технологией Nvidia Optimus имеется два графических устройства, изображение на монитор всегда выводится через интегрированный ускоритель, и отсюда следует особенность работы некоторых игр, которые просто не знают о существовании внешнего видео или по какой-то причине не могут получить к нему доступ.

В данной статье мы рассмотрим несколько способов принудительно запустить игры и приложения на дискретном видеочипе от Nvidia.

Штатные способы

А. Самый простой способ. Нажимаем правой кнопкой по ярлыку и выбираем Запустить с графическим процессором > Высокопроизводительный процессор Nvidia

Б. Программная привязка дискретного видео в настройках панели Nvidia.

1. В Панели управления Nvidia открываем Управление параметрами 3D и идем на вкладку Глобальные параметры, где выставляем Высокопроизводительный процессор Nvidia и жмем Применить.

Если требуется принудительно задействовать дискретное (равно как и интегрированное; я вынужден был назначить интегрированное видео на браузер FireFox, потому что при выборе дискретного ускорителя он начинал сыпать артефактами и вылетал с ошибками) видео только для определенных приложений, переходим на вкладку Программные настройки:

2. Жмем кнопку Добавить и указываем исполняемый файл игры, которую будем принудительно запускать с дискретным видео.

Частный случай — только для игр и приложений, использующих машину Java (например, Minecraft и другие). В список необходимо добавить не исполняемый файл игры, а саму машину Java. Для этого сперва нужно найти, откуда запускается файл javaw.exe. Например можно запустить диспетчер задач, перейти на вкладку Процессы, навести курсор на интересующий нас процесс, нажать правой кнопкой мыши и выбрать Свойства. В открывшемся окне будет указан путь. У меня javaw.exe лежит в папке C:\Windows\SysWOW64 (Windows 7 Максимальная 64 bit, Java 7SE 32 bit). После того, как местоположение файла будет известно, добавляем его, как было написано выше.

3. Выбираем из ниспадающего списка Высокопроизводительный процессор Nvidia.

4. Жмем кнопку Применить.

Возможно, заработает сразу, а возможно потребуется перезагрузить систему.

Если штатные способы не помогли, есть еще один — не очень очевидный, но вполне работоспособный.

1. Открываем Разрешение экрана:

Читайте также:  Жизнь без алкоголя запойного алкоголика Родная душа статьи компьютер Интернет Создание оптимизация са

2. Жмем кнопку Найти. Появится еще два монитора с надписями Другой экран не обнаружен:

3. Выбираем монитор, соответствующий дискретному видеоускорителю:

Для сравнения выбран монитор, соответствующий интегрированному видеоядру Intel HD Graphics:

4. Выбираем из ниспадающего списка Несколько экранов пункт Попытаться в любом случае подключиться к VGA, жмем кнопку Применить:

В результате получится следующее:

5. Выбираем Расширить эти экраны, жмем Применить, подтверждаем сохранение параметров:

Источник

Предпочитаемый графический процессор что выбрать

В последних сборках Windows 10 Redstone 4, релиз которой должен состояться весной этого года, появилась новая функция — выбор предпочтительного GPU для работы с той или иной программы. В основном это нужно для ноутбуков, в которых бывает две графики — от Intel и от AMD или Nvidia. Первая обычно используется для экономии энергии при работе с нетяжелыми задачами — серфинг в интернете, просмотр фильмов, работа с документами и т.д. Ну а для игр или трудоемких 3D-приложений подключается более мощная дискретная графика (при этом за вывод на монитор всегда отвечает интегрированный GPU от Intel). По умолчанию за переключение видеокарт отвечает видеодрайвер дискретной видеокарты, и в панели управления Nvidia или AMD можно настроить, какие приложения с какой видеокартой будут запускаться.

Microsoft решила несколько упростить и одновременно доработать переключение: теперь оно и для видеокарт от Nvidia, и для видеокарт от AMD настраивается в одном месте, и также появилась возможность выбора предпочтительного GPU для приложений из Магазина Windows — с учетом того, что там все же есть несколько требовательных 3D-игр, это не лишено смысла.

Находится эта настройка в Параметрах > Система > Дисплей > Настройки графики:

Теперь выберите, для приложения какого типа вы хотите задать предпочтительный GPU — для классического или универсального (из Магазина Windows). Далее нажмите на кнопку «Обзор» и укажите путь до нужного приложения, если оно классическое, или выберите его из списка, если оно универсальное:

Теперь нажмите на программу > Параметры и выберите, какую видеокарту вы хотите использовать. Энергосбережение означает, что выбранная вами программа будет запускаться с интегрированным GPU, высокая производительность — с дискретным, по умолчанию — решать будет видеодрайвер:

А вы знаете, как выбрать для работы приложения или игры более предпочтительный графический процессор из двух имеющихся вариантов? Если нет, то владельцам ноутбуков предлагаю ознакомиться с этой статьей.

На сегодняшний день даже средний по стоимости и производительности ноутбук поставляется с двумя видеокартами. Первая, работающая по умолчанию – это встроенная, вторая – дискретная. Дополнительным графическим процессором в основном комплектуются игровые модели ноутбуков, но не редкость найти его и на неигровой установке.

Из встроенных выбор невелик и обычно это чип от Intel, а вот дискретные могут быть как и от Nvidia, так и от AMD. Это самые распространённые и поверенные пользователями в работе продукты. И производители, в первую очередь, стараются комплектовать устройства исходя из наших с вами предпочтений.

Теперь кратко рассмотрим сам процесс взаимодействия двух видеокарт. Когда требования какого-либо работающего приложения превышают возможности встроенной карты, ваша система автоматически переключается на работу с дискретной. Это происходит, в основном, когда вы начинаете играть в ресурсоемкие игры.

Как уже упоминалось выше, на рынке ПК первенство держат два основных производителя графических процессоров. Стоит отметить, что наиболее широко применяемый Nvidia, использует относительно новую технологию “Optimus”. Её функциональность заключается в том, что всякий раз, когда она обнаруживает, что программа или игра нуждается в дополнительных, более мощных ресурсах, автоматически задействуется выделенный GPU.

А сейчас я покажу вам, как можно легко заставить приложение использовать высокопроизводительный или интегрированный GPU на выбор пользователя. Сегодня это будет продемонстрировано только с NVIDIA и Intel.

Поехали дальше?! Это очень просто.

ГРАФИЧЕСКИЙ ПРОЦЕССОР

Откройте Панель управления NVIDIA. Самый простой и быстрый способ – это кликнуть правой кнопкой мыши на соответствующем значке, размещенном на Панели задач в нижнем правом углу. Перейдите в меню “Рабочий стол” и установите отметку напротив пункта “Добавить пункт в контекстное меню”.

Теперь, после этих простых действий, вы сможете нажать правой кнопкой мыши на ярлыке любого приложения и, в появившемся пункте меню, выбрать один из двух вариантов запуска.

ПОСТОЯННЫЙ ЗАПУСК

А если вы решили постоянно играть в игру только с использованием дискретной видеокарты, то необходимо в Панели управления перейти в раздел “Управление параметрами 3D”, выбрать вкладку “Программные настройки” и установить в п.1 необходимую игру или программу, а в п.2 выбрать нужную видеокарту, после чего нажать на кнопку “Применить”.

Вот и все! Посетите Карту блога и ознакомьтесь со всеми имеющимися компьютерными советами. Станьте участником нашей группы в FB, где сможете получить помощь, а также участвовать в обсуждениях или публиковать свою точку зрения.

Графический процессор — выбираем более предпочтительный

А вы знаете, как выбрать для работы приложения или игры более предпочтительный графический процессор из двух имеющихся вариантов? Если нет, то владельцам ноутбуков предлагаю ознакомиться с этой статьей.

На сегодняшний день даже средний по стоимости и производительности ноутбук поставляется с двумя видеокартами. Первая, работающая по умолчанию — это встроенная, вторая — дискретная. Дополнительным графическим процессором в основном комплектуются игровые модели ноутбуков, но не редкость найти его и на неигровой установке.

Из встроенных выбор невелик и обычно это чип от Intel, а вот дискретные могут быть как и от Nvidia, так и от AMD. Это самые распространённые и поверенные пользователями в работе продукты. И производители, в первую очередь, стараются комплектовать устройства исходя из наших с вами предпочтений.

Теперь кратко рассмотрим сам процесс взаимодействия двух видеокарт. Когда требования какого-либо работающего приложения превышают возможности встроенной карты, ваша система автоматически переключается на работу с дискретной. Это происходит, в основном, когда вы начинаете играть в ресурсоемкие игры.

Источник

Графический процессор что это такое и зачем используется

Графический процессор: что это такое и зачем используется?

В современных устройствах применяется графический процессор, который еще обозначают как GPU. Что это и каков его принцип работы? GPU (Graphics Processing Unit) — процессор, основная задача которого — обработка графики и вычислений с плавающей точкой. GPU облегчает работу главного процессора, если идет речь о тяжелых играх и приложениях с 3D-графикой.

Что это?

Графический процессор создает графику, текстуры, цвета. Процессор, который обладает несколькими ядрами, может работать на высоких скоростях. У графического много ядер, функционирующих преимущественно на низких скоростях. Они занимаются вычислениями пикселей и вершин. Обработка последних в основном происходит в системе координат. Процессор графический обрабатывает различные задачи, создавая на экране трехмерное пространство, то есть объекты в нем перемещаются.

Принцип работы

Что делает графический процессор? Он занимается обработкой графики в формате 2D и 3D. Благодаря GPU компьютеру быстрее и легче удается выполнять важные задачи. Особенность графического процессора состоит в том, что он увеличивает скорость расчета графической информации на максимальном уровне. Его архитектура устроена так, что позволяет более эффективно обрабатывать визуальную информацию, чем центральный CPU компьютера.

Он отвечает за расположение трехмерных моделей в кадре. Кроме того, каждый из типов графического процессора фильтрует треугольники, входящие в него. Он определяет, какие на виду, удаляет те, которые скрываются за другими объектами. Прорисовывает источники света, определяет, каким образом эти источники влияют на цвет. Графический процессор (что это такое — описано в статье) создает изображение, выдает его пользователю на экран.

Эффективность работы

Чем обусловлена эффективная работа графического процессора? Температурой. Одна из проблем ПК и ноутбуков — перегрев. Именно это становится главной причиной того, почему устройство и его элементы быстро выходят из строя. Проблемы с GPU начинаются, когда температура процессора превышает 65 °С. В этом случае пользователи замечают, что процессор начинает работать слабее, пропускает такты, чтобы самостоятельно понизить увеличенную температуру.

Температурный режим 65-80 °С — критический. В этом случае начинается перезагрузка системы (аварийная), компьютер выключается самостоятельно. Пользователю важно отслеживать, чтобы температура графического процессора не превышала 50 °С. Нормальной считается t 30-35 °С в простое, 40-45 °С при многочасовой нагрузке. Чем ниже температура, тем выше производительность компьютера. Для материнской платы, видеокарты, корпуса и жестких дисков — свои температурные режимы.

Но многих пользователей также беспокоит вопрос, как же уменьшить температуру процессора, чтобы повысить эффективность его работы. Для начала нужно выяснить причину перегрева. Это может быть засорение системы охлаждения, высохшая термопаста, вредоносная программа, разгон процессора, сырая прошивка БИОСа. Самое простое, что может сделать пользователь, — это заменить термопасту, которая находится на самом процессоре. Кроме того, нужно произвести чистку системы охлаждения. Еще специалисты советуют установить мощный кулер, улучшить циркуляцию воздуха в системном блоке, увеличить скорость вращения на графическом адаптере кулера. Для всех компьютеров и графических процессоров одинаковая схема понижения температуры. Важно следить за устройством, вовремя его чистить.

Специфика

Графический процессор расположен на видеокарте, его главная задача — это обработка 2D и 3D графики. Если на компьютере установлен GPU, то процессор устройства не выполняет лишнюю работу, поэтому функционирует быстрее. Главная особенность графического в том, что его основная цель — это увеличение скорости расчета объектов и текстур, то есть графической информации. Архитектура процессора позволяет им работать намного эффективнее, обрабатывать визуальную информацию. Обычному процессору такое не под силу.

Что это — графический процессор? Это компонент, входящий в состав видеокарты. Существует несколько видов чипов: встроенный и дискретный. Специалисты утверждают, что лучше справляется со своей задачей второй. Его устанавливают на отдельные модули, так как отличается он своей мощью, но ему необходимо отличное охлаждение. Встроенный графический процессор есть практически во всех компьютерах. Его устанавливают в CPU, чтобы сделать потребление энергии в несколько раз ниже. С дискретными по мощи он не сравнится, но тоже обладает хорошими характеристиками, демонстрирует неплохие результаты.

Компьютерная графика

Это что? Так называется область деятельности, в которой для создания изображений и обработки визуальной информации используют компьютерные технологии. Современная компьютерная графика, в том числе научная, позволяет графически обрабатывать результаты, строить диаграммы, графики, чертежи, а также производить различного рода виртуальные эксперименты.

С помощью конструктивной графики создаются технические изделия. Существуют и другие виды компьютерной графики:

  • анимационная;
  • мультимедийная;
  • художественная;
  • рекламная;
  • иллюстративная.

С технической точки зрения компьютерная графика — это двухмерные и трехмерные изображения.

CPU и GPU: разница

В чем разница между этими двумя обозначениями? Многие пользователи в курсе, что графический процессор (что это — рассказано выше) и видеокарта выполняют разные задачи. Кроме того, они отличаются по своей внутренней структуре. И CPU, и GPU — это процессоры, которые обладают многими сходными чертами, но сделаны они для разных целей.

CPU выполняет определенную цепочку инструкций за короткий промежуток времени. Он сделан так, что формирует одновременно несколько цепочек, разбивает поток инструкций на множество, выполняет их, затем снова сливает в одно целое в конкретном порядке. Инструкция в потоке находится в зависимости от тех, что за ней следуют, поэтому в CPU содержится малое число исполнительных блоков, здесь главный приоритет отдается скорости выполнения, уменьшению простоев. Все это достигается при помощи конвейера и кэш-памяти.

У GPU другая важная функция — рендеринг визуальных эффектов и 3D-графики. Работает он проще: на входе получает полигоны, проводит необходимые логические и математические операции, на выходе выдает координаты пикселей. Работа GPU — это оперирование большим потоком разных задач. Его особенность в том, что он наделен большим объемом памяти, но медленно работает по сравнению с CPU. Кроме того, в современных GPU более 2000 исполнительных блоков. Отличаются они между собой методами доступа к памяти. Например, графическому не нужна кэшированная память большого размера. У GPU пропускная способность больше. Если объяснять простыми словами, то CPU принимает решения в соответствии с задачами программы, а GPU производит множество одинаковых вычислений.

Источник

Что такое графическая функция видеокарты

Не секрет, что видеокарты делятся на два типа: интегрированные (встроенные) и дискретные. Дискретные вставляются в разъем PCI Express и являются полноценной, самостоятельной частью ПК. Из-за этого устройство дискретной видеокарты гораздо сложнее и заслуживает отдельной темы. Разберёмся, из каких компонентов состоит видеокарта и за что они отвечают.

Читайте также:  Повелители колонок лучшие интегралки с ЦАПом и фонокорректором

Графический процессор (GPU)

GPU (графический процессор) – является «сердцем» видеокарты, который отвечает за математические расчеты изображения, выводящегося на экран. Иными словами – обработка графики. GPU по своим свойствам похож на центральный процессор (CPU) компьютера, однако предназначен для построения изображения.

Частота

Одна из важнейших характеристик графического процессора – тактовая частота. С ней всё просто. Она измеряется в мегагерцах и чем выше его показатель, тем быстрее идет обработка информации. Частота современных видеокарт достигает отметки в 1000-1400 Мгц.

Техпроцесс

Важным показателем является техпроцесс, это один из первых пунктов среди характеристик видеоадаптеров. Измеряется в нанометрах.

Грубо говоря, основной движущей силой являются транзисторы. Если взять современные видеокарты, то можно заметить, что показатель нанометров все меньше и меньше с каждым поколением видеочипов. Все это обусловлено тем, что чем меньше размер транзисторов, тем больше их можно разместить на одном видеочипе.

С уменьшением размера транзисторов, в целом у видеокарт уменьшается также:

  • Энергопотребление;
  • Тепловыделение (TDP);

Производительность при этом увеличивается, так как на одной площади можно разместить больше вычислительной мощности.

Чем меньше техпроцесс, тем лучше.

Видеопамять

Работа видеокарты сосредоточена на постоянном выводе цифрового изображения на экран. Существует необходимость в сохранении выводящейся, а также остающейся за пределами экрана информации. Это задача возложена на видеопамять карты.

Память видеокарты по своим свойствам похожа на оперативную память компьютера.

Зачастую память карты используют для маркетинга, особенно в слабых (не игровых и не профессиональных) видеокартах. Кричащие 4 гб памяти почему-то сразу вызывают доверие у неподготовленного покупателя. Но один и тот же объём памяти радикально отличается на разных видеоадаптерах, если говорить о реальной производительности в требовательных задачах и современных играх. Например, даже самая бюджетная из игровых видеокарт nVidia GTX 1050 с двумя гигабайтами памяти во всех задачах покажет себя лучше, чем любой представитель карт серии GT.

Объём видеопамяти – важный, но не ключевой показатель.

Видеопамять в основном делается по стандарту GDDR. В наше время, у пользователей зачастую можно обнаружить память типа GDDR5. Ранее была распространена GDDR3.

Очевидно, что чем выше цифра, тем лучше, так как в каждой новой версии были ряды изменений, которые увеличивали пропускную способность и скорость тактовой частоты. Сейчас среди активных разработчиков можно заметить AMD, Hynix и Qimonda.

Очень важным элементом является шина памяти видеокарты и ее пропускная способность. Именно она гоняет информацию между процессором графического адаптера и его памятью. Частота памяти и шина влияют на производительность видеокарты. Частота измеряется в Мгц (мегагерцах), и чем больше она, тем быстрее работает память. Шина измеряется в bit, от 64 — до 448 bit. Чем «шире» шина, тем быстрее память взаимодействует с графическим процессором (GPU).

Самый распространенный размер шины – 128bit. Однако топовый уровень – это 256 и 384. Благодаря размеру шины и тактовой частоте, в принципе, и строится ее пропускная способность. Чем выше эти показатели, тем быстрее графический процессор обменивается данными с видеопамятью.

Интерфейсы подключения видеокарт

Интерфейсы подключения служат для соединения комплектующих и материнской платы. Различные периферийные устройства (сетевые и звуковые карты, ТВ-тюнеры и т.п.) как правило подключаются через PCI. Это стандартная шина ввода-вывода, но речь не о ней, т.к. для видеокарт используются другие слоты. До 2006 года был популярен интерфейс AGP, затем ему на смену пришёл PCIexpess (PCIe).

AGP был создан по технологиям PCI, но предназначен исключительно для видеокарт. Он отличается более высокой пропускной способностью. Последняя обновленная версия AGP 8x обладает пропускной способностью 2.1 Гб/с. Платы с AGP выпускались до 2006 года. Больше не производится, т.к. появился более совершенный интерфейс – PCIexpress.

PCI Express, отличии от AGP, обладает большей пропускной способностью, постоянно модернизируется и имеет обратную совместимость. На данный момент существуют 4 версии, следуя порядковому номеру. Самой последней является, PCIe 4.0. С каждым разом разработчики увеличивали пропускную способность интерфейса. Сейчас им удалось достигнуть отметки в 16 Гбит/с. Не стоит забывать про то, что PCI Express видеоадаптера и материнской платы зачастую не совпадают. Однако особого риска и страха здесь нет. Видеокарта будет работать на старой материнке, хоть и не сможет работать на всю свою мощность. При обратной совместимости вообще не возникает проблем.

SLI и CrossFire

Отдельно про SLI и CrossFire. Для начала стоит сказать, что разница между ними состоит в производителях и связках видеокарт. Не секрет, что вы можете подключить множество видеокарт, если только хватит ваших PCI Express слотов. SLI – фирменная технология nVidia, CrossFire – разработка AMD.

Благодаря SLI можно подключить две видеокарты одной серии с помощью специального мостика. Производительность возрастает, но видеопамять не суммируется. При объединении видеокарт в связку SLI важно знать, что они должны быть не только одного поколения, но и одной серии. Производители при этом могут быть разными. Например, GTX 1080 в SLI заработает только с другой GTX 1080.

CrossFire

Объединение видеокарт в CrossFire проще. Здесь разными могут быть не только призводители, но и модели видеокарт. Так же как и в SLI, видеокарты соединяются друг с другом с помощью специального мостика, видеопамять также не суммируется.

Проблема заключается в том, что не все материнские платы поддерживают SLI или CrossFire. Как правило, это игровые решения.

Немного про разъемы

Современные видеокарты оснащены несколькими портами, чтобы была возможность подключить более одного монитора. В свою же очередь каждый монитор имеет разный тип разъемов, о которых пользователю будет полезно узнать.

Video Graphics Array (adapter) – достаточно древняя 15-контактная штука синего цвета, которая специализировалась на выводе аналогового сигнала. Его особенностью было то, что на изображение могло повлиять разные вещи: длина провода (который состоял из 5 метров) или личные свойства видеокарты. Ранее был одним из основных, однако с появлением плоских мониторов стал сдавать свои позиции, ибо разрешение экрана увеличивалось, с чем не справлялся VGA. Используется и по сей день.

s-Video

S-Video – это так же аналоговый разъем, который часто можно встретить на телевизорах и редко на видеокартах. Качество его хуже, чем у VGA, однако его кабель достигает 20 метров, все еще сохраняя при этом хорошую картинку. Информация передается трёхканально.

Читайте также:  Железный эксперимент какой процессор нужен для NVIDIA GeForce GTX 1070 1080 09 06 2016 08 01

DVI обогнал всем известный VGA тем, что приобрел способность передавать цифровой сигнал. Этот разъем уже более знаком современному миру, так как благодаря нему можно подключать мониторы, уже, высокого разрешения, чего нельзя было раньше. Длина его кабеля достигает 10 метров, однако это уже не влияет на качество выводимого изображения. Благодаря своей уникальности, он вмиг приобрел популярность среди другого оборудования, по типу проекторов и прочего. Бывает трех видов: только цифровой DVI-D , весьма редкий — аналоговый DVI-A и совмещающий два прошлых DVI-I. Благодаря специальным переходникам может подключаться к монитору, который имеет лишь разъем VGA.

HDMI имеет несколько преимуществ перед DVI. Главной его особенностью является то, что кроме видео канала, у него так же имеется и аудио. Благодаря этому достиг большой популярности среди известных компаний, получив поддержки. Также из плюсов можно отметить его компактность и отсутствие креплений, которые наблюдаются у DVI. К тому же, кроме видеокарты, он отлично «сотрудничает» с другими устройствами.

DisplayPort

DISPLAYPORT, в принципе, далеко не ушел от HDMI, так как они оба способны выводить качественное изображение на большой экран вместе с аудио сопровождением. Однако у DISPLAY-я есть переходники на другие, популярные виды разъемов. В отличии с HDMI производители имеют возможность не платить налог, что увеличивает его популярность. Однако шанс встретить его среди бытовых пользователей, все еще, намного меньше. Максимальный размер кабеля достигает 15 метров. Пропускная способность выше, чем у HDMI, хоть и меняется в зависимости от его версии.

Thunderbolt

Thunderbolt (бывший Light Peak) – это аппаратный интерфейс для периферийных устройств. Обладает высокой пропускной способностью и функциональностью. По легендам, создан, чтобы улучшить и превзойти USB. Раньше использовался только в продукции Apple. Можно использовать для подключения мониторов с разрешением в 4К.

Питание видеокарты

Однако все пойдет по наклонной, если вы забудете учесть свой блок питания. Сразу можно сказать, что, если у вас 350w, то выбирать видеокарту нужно очень тщательно, так как современные версии очень требовательны к этому. Известно, что материнская плата не способна отдать нужное количество энергии для энергоёмких видеоадаптеров, что приводит к необходимости использования дополнительного питания.

Материнская плата через PCIe способна отдать видеокарте до 75 W

Обычно для подключения дополнительного питания, видеокарта оснащена 6-пиновым переходником. К сожалению, не все блоки питания имеют функцию прямого подключения, так как попросту не имеют подходящего разъема, но страшного ничего здесь нет – большинство видеокарт продают со специальным переходником в комплекте. Современные же блоки обладают уже встроенным разъемом, от чего необходимость в переходниках отпадает. Так же, на современных видеокартах часто можно обнаружить 8-пиновый разъем питания. Это связано с постоянным увеличением необходимой энергии для видеокарты.

Охлаждение

Не менее важным моментом является охлаждение устройства. Как уже было сказано – видеокарта очень требовательна к энергии, потому она больше всего склонна к перегреву. Чтобы избежать подобного существуют разные типы охлаждений. Есть пассивный, он нацелен на то, чтобы поглощать и рассеивать энергию. Активный, в свою очередь, это привычные нам кулеры или система водного охлаждения.

Источник

Что такое графический процессор и какие у него возможности?

Всем привет! Сегодня разберем графический процессор — что это такое в компьютере и зачем он используется.

Что такое графический процессор

GPU (аббревиатура с английского термина graphics processing unit) — компонент компьютера, игровой консоли, планшета или смартфона, который предназначен для рендеринга графики, то есть преобразует код в изображение, преимущественно 3D. Массовое применение таких девайсов началось с 2000 года.

До этого и разработчики, и пользователи обходились возможностями центрального процессора: игры и программы были слишком примитивны, чтобы задействовать дополнительный компонент. Отрисовка нескольких пикселей, какими и были первые игры и графические редакторы, не требует большой вычислительной мощности.

С началом развития 3D графики и появлением первых игр этого формата ситуация изменилась. Оказалось, что CPU, который прекрасно справляется с арифметическими операциями, даже не примитивной низко полигональной графике уже начинает «захлебываться».

Дальнейшее развитие к этому направлению привело к тому, что современная видеокарта, где и используется GPU — очень мощное устройство, которое идеально справляется с поставленными задачами. Оно и неудивительно: кат-сцены современных игр класса ААА уже практически не отличаются от 3D мультфильмов.

Технические особенности GPU

По сравнению с центральным процессором графический имеет меньший набор исполняемых команд (который ограничен осознанно) и несколько иную архитектуру, «заточенную» под обработку текстур и трехмерных объектов.

Изначально ГПУ проектировался как много потоковый компонент со множеством ядер, чем и обусловлена такая высокая мощность. В то время как ЦП проводит последовательные арифметические вычисления, графический процессор рассчитан на одновременную обработку множества объектов, то есть массовые параллельные вычисления.

В плане технической реализации GPU разделяются на интегрированные, которые выполнены на одном кристалле с ЦП, и дискретные, которые наряду с видеопамятью и некоторыми другими компонентами являются частью видеокарты.

Если сравнивать вычислительную мощность, то последние более производительны. Интегрированные обычно графические ускорители начального уровня, которые можно использовать для несложных вычислений.

Конкурентная борьба между разными брендами привела к тому, что сегодня на рынке осталось только 2 компании, выпускающие графические чипы для видеокарт — Nvidia и AMD. Последние поглотили ATI, ранее независимого производителя, выпускающего видео чипы Radeon.

Относительно того, какой бренд лучше, то вопрос, по моему мнению, некорректный: такое сравнение — одна из тем для «священных войн», которые ведутся в интернете вокруг «железа» уже пару десятков лет. У каждого есть как удачные, так и не очень модели, и при покупке графического адаптера надо рассматривать конкретную модель.

Наличие конкуренции же между этими двумя «китами» для обычного пользователя значит только их непримиримую гонку — в погоне за деньгами потенциального покупателя каждый стремится создать GPU с лучшими характеристиками, который будет дешевле, чем у «заклятого врага».

Ну а появление новых моделей автоматически влечет за собой удешевление старых.

Зачем и где используется GPU

Первое, что приходит на ум для юзера, который хотя бы немного знаком с компьютерами — видеоигры. Это действительно так: киберспорт — отрасль, где графические адаптеры используются по максимуму. Сегодня сложно представить «серьезную» игру, которая реализована не в 3D.

Читайте также:  Biostar A10N 8800E mini ITX материнская плата с интегрированным процессором AMD FX 8800P

Большинство из игр в чем-то похожи: действие происходит в трехмерном мире от первого или третьего лица, а все это должна отрисовывать видеокарта. В играх других жанров, где используется изометрическая картинка, то есть вид сверху, например стратегиях или МОБА, давно уже используются такие же 3D модели.

Однако видеоигры — не единственная отрасль, где нужен GPU. Вспомните недавний хайп по поводу майнинга криптовалют, в частности биткоина, и последующее массовое появление на вторичном рынке графических адаптеров, ранее используемых для майнинга.

Сегодня эта тема теряет актуальность: трудолюбивые китайцы изобрели майнеры — девайсы, в которых нет графического чипа, но которые майнят даже лучше, чем видеокарты.

Также графический адаптер используется для обработки любого изображения — будь то просмотр видео на Ютубе или редактирование фотографий в «Фотошопе». Соответственно, если мощности GPU недостаточно, с запуском «прожорливых» в плане вычислительной мощности приложений могут быть проблемы.

Подписывайтесь на меня в социальных сетях, чтобы быть в курсе о поступлении новых материалов. До скорой встречи!

Источник



Видеокарта: параметры и компоненты

Видеокарта – компонент архитектуры современного ПК, отвечает за преобразование графической информации в видеосигнал для монитора. Видеокарта представляет собой плату расширения, которая устанавливается в специальный слот (PCI-Express) материнской платы. Также видеокарта может быть встроенной, то есть, входить в состав северного моста чипсета материнской платы или быть интегрированной в центральный процессор.

Компоненты видеокарты

Графический процессор, GPU

Является основой видеокарты, отвечает за вычислительные функции, связанные с обработкой трёхмерной графики, тем самым высвобождает ресурсы центрального процессора. Именно от графического процессора зависит производительность видеокарты.

Видеоконтроллер

Отвечает за формирование изображения в видеопамяти, даёт команды RAMDAC на формирование сигналов развёртки для монитора и осуществляет обработку запросов центрального процессора. Современные видеокарты имеют не менее двух видеоконтроллеров, работающих независимо друг от друга и управляющих одновременно одним или несколькими дисплеями каждый.

Видеопамять

Служит кадровым буфером, в который помещаются изображения, генерируемые графическим процессором перед последующим выводом на экран монитора, а также для хранения промежуточных данных связанных с 3D-вычислениями. Видеокарты комплектуются памятью типа GDDR3, GDDR4 и GDDR5. Следует также иметь в виду, что помимо видеопамяти, находящейся на видеокарте, современные графические процессоры могут использовать в своей работе часть общей системной памяти компьютера.

Цифро-аналоговый преобразователь, RAMDAC

RAMDAC необходим для преобразования изображения, формируемого видеоконтроллером, в уровни интенсивности цвета, подаваемые на аналоговый монитор. Большинство цифро-аналоговых преобразователей имеют разрядность 8 бит на канал, что даёт 256 уровней яркости на каждый основной цвет — 16,7 млн. цветов.

Видео-BIOS

Постоянное запоминающее устройство, в которое записаны: экранные шрифты, служебные таблицы и т. п. Видео-BIOS не используется видеоконтроллером напрямую — к нему обращается только центральный процессор. Информация, которая хранится в видео-BIOS применяется для инициализации и работы видеокарты до загрузки основной операционной системы, а также содержит системные данные, которые могут читаться и интерпретироваться видеодрайвером в процессе работы.

Система охлаждения

Предназначена для сохранения температурного режима видеопроцессора и видеопамяти в допустимых пределах.

Источник

Устройство видеокарты, основные функции, определение

Видеокарта (видеоадаптер) — является компонентом видеосистемы ПК, выполняющим преобразование цифрового сигнала, циркулирующего внутри ПК, в аналоговые электрические сигналы, подаваемые на монитор. По существу видеокарта выполняет роль интерфейса между ПК и устройством отображения информации (монитором).

Основные функции видеокарты

  • ускорение 2D- и 3D-графики;
  • обработка видеосигналов;
  • приём телевизионных сигналов;
  • формирование сигналов горизонтальной и вертикальной синхронизации, используемых при формировании растра на экране монитора;
  • и многое другое.

Видеокарта Rtx 2080 от компании производителя Nvidia

Видеокарта Rtx 2080 от компании производителя Nvidia

Видеокарта определяет следующие характеристики видеосистемы ПК:

  • максимальное разрешение и максимальное количество отображаемых оттенков цветов;
  • скорости обработки и передачи видеоинформации, определяющие производительность видеосистемы и ПК в целом.
  • формирование сигналов горизонтальной и вертикальной синхронизации, используемых при формировании растра на экране монитора.

Принцип действия видеокарты

состоит в следующем.

  1. Процессор формирует цифровое изображение в виде матрицы NхM n-разрядных чисел и записывает его в видеопамять. Участок видеопамяти, отведённый для хранения цифрового образа текущего изображения (кадра), называется кадровым буфером или фрейм-буфером.
  2. Видеокарта последовательно считывает (сканирует) содержимое ячеек кадрового буфера и формирует на выходе видеосигнал, уровень которого в каждый момент времени пропорционален значению, хранящемуся в отдельной ячейке. Сканирование видеопамяти осуществляется синхронно с перемещением электронного луча по экрану монитора. В результате яркость каждого пикселя на экране монитора пропорциональна содержимому соответствующей ячейки памяти видеокарты.
  3. По окончанию просмотра ячеек, соответствующих одной строке растра, видеокарта формирует импульсы строчной синхронизации, инициирующие обратный ход луча по горизонтали, а по окончании сканирования кадрового буфера формирует сигналы, вызывающие движение луча снизу вверх.

Таким образом, частоты строчной и кадровой развёртки монитора определяются скорость сканирования содержимого видеопамяти, т.е. видеокарта.

Режимы работы видеокарты

(видеорежимы) представляют собой совокупность параметров, обеспечиваемых видеокартой: разрешение, цветовая палитра, частоты строчной и кадровой развёртки, способ адресации участков экрана и др.

Все видеорежимы делятся на 2 основные группы: графические и текстовые, причём в различных режимах используются разные механизмы формирования видеосигнала, а монитор в обоих случаях работает одинаково.

Графический режим является основным режимом работы видеосистемы современного ПК. В этом режиме на экран монитора можно вывести текст, рисунок, фотографию, анимацию или видеосюжет. В графическом режиме в каждой ячейке кадрового буфера содержится код цвета соответствующего пикселя экрана. Разрешение экрана при этом также равно NхM. Адресуемым элементом экрана является минимальный элемент изображения – пиксел. Поэтому графический режим называют также режимом АРА (All Point Addressable – все точки адресуемы). Иногда число n называют глубиной цвета. При этом количество одновременно отображаемых цветов равно 2 n , а размер кадрового буфера, необходимого для хранения цветного изображения с разрешением NхM и глубиной цвета n, составляет NхM бит.

В текстовом (символьном) режиме, как и в графическом, изображение на экране монитора представляет собой множество пикселей и характеризуется разрешением NхM. Однако все пиксели разбиты на группы, называемые знакоместами, или символьными позициями (Character boxes – символьные ячейки) размером pхq. В каждом из знакомест может быть отображён один из 256 символов. Таким образом, на экране умещается М/q = Мt символьных строк по N/p = Nt символов в каждой. Типичным текстовым режимом является режим 80х25 символов.

Устройство видеокарты

Современная видеокарта (видеадаптер) включает следующие основные элементы:

Источник