Что же такое «частота обновления»? В последнее время всё чаще можно встретить на прилавках магазинов мониторы с частотой обновления картинки 144 герц. 60 Гц дисплеи обновляют изображение 60 раз в секунду. Это то, сколько раз дисплей обновляет картинку за одну секунду. Нам всем прекрасно жилось при 60 герцовых мониторах. Зачем вообще это нужно? Миф про то, что глаз человека способен различать лишь 24 кадра — миф. В действительности всё немного иначе. Глаз человека способен различать более 1000 кадров в секунду, и до конца не известны точные цифры, поэтому наличие мониторов с частотой обновления кадров более 60 Гц вполне оправдано. То же касается и 150 кадров, о которых так часто говорят в последнее время.
Содержание
FPS и герцы — одно и то же?
FPS (framerate per second) — число кадров в секунду. Нет. И при этом монитор с частотой 144 Гц может не раскрывать себя, если игра будет иметь меньшее число кадров. Игра может работать с числом кадров 120, но если монитор поддерживает лишь частоту 60 Гц, половина кадров будут отброшены и не показаны пользователю. Именно поэтому, покупая подобный монитор, стоит задуматься и о том, чтобы видеокарта вашего компьютера смогла «переваривать» игры со 144 кадрами в секунду.
Почему 144 Гц?
Почему не 150 герц? И действительно, почему производители выбрали именно число 120 или 144? 144 — это 24 умноженное на 6. Вопрос интересный, и ответ лежит на поверхности. К слову, сегодня компания Nvidia в партнерстве с ASUS представила дисплей с частотой обновления кадров 360 герц и технологией G-Sync. Все текущие герцовки дисплеев делятся на 24: 120 Гц, 144 Гц, 240 Гц, 360 Гц. Но очевидно, стоить он будет явно дороже 700 долларов. Его продажи начнутся в 2020 году, а стоимость пока не раскрывается.
Читайте также: Австралия в огне: что происходит с природой?
Почему же числа делят на 24? И откуда вообще взялись те самые 24 кадра?
В США она равнялась 60 Герц или 59,94 Гц, а в Европе 50 Гц. Всё началось с того времени, когда частота обновления картинки монитора зависела напрямую от частоты электричества. В начале 20 века США и ряд стран Азии выбрали стандартом 60 Герц (NTSC), а в Австралии и странах Европы 50 Гц (PAL). Откуда взялись цифры 60 и 50? Дело в том, что именно начиная с 50 Гц человеческий глаз перестает замечать мерцания лампы накаливания.
Эта цифра была взята практически с потолка в сентябре 1927 года Комитетом номенклатуры и стандартов США. При этом фильмы в США делались с частотой 24 кадра. Сегодня современные мониторы и телевизоры имеют частоту кадров, которая делится на 60 или 24, просто потому, что стандарт NTSC стал более популярным во всём мире. В Европе же фильмы снимали с частотой 25 кадров в секунду.
Читайте также: Почему ученые озабочены проблемой атома?
В связи с этим игроки в Европе могли ощущать замедление геймплея на 17%, разработчики игр адаптировали их под 50 Гц, но это приводило к необходимости переписывать код и появлению багов в играх. К слову, игры в далекие времена разрабатывались в основном в США и Японии, поэтому они адаптировались под стандарт NTSC и работали с 60 Гц мониторами. А чтобы поправить проблему со звуком, было принято делить фреймрейт на 1,001, именно поэтому можно встретить фреймрейты 59,94, 29,97, 23,976.
Чего ждать в будущем?
Однако это случится не скоро, ведь процесс увеличения кадров ударяет в первую очередь по производителям железа — это серьёзный вызов. Можно ожидать появления экранов с обновлением картинки 480 Гц, 600 Гц и даже 720 Гц. Не каждая видеокарта способна показывать без задержек 4K-видео при 60 кадрах в секунду, поэтому ждать широкого распространения даже мониторов с 360 Гц частотой в ближайшие пару лет не стоит.
За счёт популярности стандарт NTSC во всём мире стало популярным использование герцовки, которая делится на 24 или 60. Что же мы имеем в итоге? Делитесь мнением в комментариях ниже. А что думают по этому поводу наши читатели?