De mi az a G-Sync, és miért lesz jó nekünk?

  • Írta: InGen
  • 2013. november 3.
  • bemutató, g-sync, hardver, nvidia
Link másolása
Miután az AMD bemutatta a Mantle-t, az Nvidia sem várhatott sokáig, hogy valami olyat villantson, amitől globálisan a nadrágjába csinál minden keményvonalas PC-s játékos. Ez lett a G-sync, de persze van itt azért még más is...

Mivel előző hasonló jellegű cikkünk, a “De mi az a Mantle, és miért lesz jó nekünk?” nagy sikert aratott, úgy gondoltuk, nem árt megemlékezni arról, hogy bizony az Nvidia is igyekszik a játékosok kedvére tenné, és nem csak az erősebb videokártyákkal. A hardcore PC-s játékosok mindig is az Nvidia legfontosabb célcsoportja volt, hiszen jellemzően a zöld cég kínált olyan erős (és az esetek többségében jelentősen túlárazott) kártyákat, melyekkel egyrészt az AMD már nem tudott versenyezni, másrészt pedig amiket pontosan ez a réteg tudott megvásárolni. Erre remek példa az ezer dolláros árcédulával piacra dobott GeForce GTX Titan, ami ugyan alapvetően nem is a játékosoknak szólt (hiszen erősen felpumpált, dupla pontosságú compute-ban büntetett), mégis nagy sikere lett a keményvonalas játékosok legfelső, sokat költeni képes rétegeiben.


Érdemes látni, hogy aki megengedhet magának drága videokártyákat és drága processzorokat, az a grafika minőségét tekintve a következő generációs konzolok fölé mehet némileg (igaz, sokszoros áron), azonban van ennél egy fontosabb tényező is. Ez pedig a képminőség, amivel még a következő generációs konzolok sem fognak tudni vetélkedni. Ma már itthon is realitás, hogy a legtöbbünk rendelkezik olyan erős PC-vel, hogy mindent 1080p-ben tudjunk futtatni, MSAA-val vagy supersamplinggal, de a nálunk szerencsésebb gazdasági helyzetben lévő országokban, ahol a hardverek árai jóval olcsóbbak, már egyáltalán nem ritka, hogy a keményvonalas játékosok az 1440p-s, vagyis a 2560x1440-es felbontású monitorokat favorizálják.

Nem kérdés, hogy aki ilyen sokat költ hardverre, az nem csak, hogy minden beállítást ultrára akar tenni, hanem a maximális képminőségre törekedik, nem szeretne recés éleket látni, és zizegést sem akar tapasztalni. Azonban akad még egy területe a képminőségnek, amire viszont eddig nem nagyon volt megoldás, bármilyen erős hardverünk is legyen. Ez pedig a monitor frissítési frekvenciája, ami továbbra is fix - a legtöbb esetben 60hz, de a fentebb is említett, nagyobb felbontású példányoknál már jellemzően 120hz vagy 144hz. A probléma, hogy renderelheti a gépünk bármilyen sebességgel az adott játékot, ha a monitor csak bizonyos időközönként frissít, akkor bizony jönnek a problémák. Ennek megoldására találták ki a V-syncet, ami a monitor képfrissítéséhez igazítja a VGA által kiszámolt képkockákat.


Ez egészen addig jó is, amíg a gépünk gyorsabban renderel, mint ahogy a monitor frissít - tehát, ha mondjuk a 60hz-es monitorunkhoz 80fps-sel fut a Battlefield 3, akkor minden fasza. Azonban, ha 60fps alá esik, akkor a monitor kénytelen megtartani az előző képkockát, ami egy parányi akadást eredményez. Éppen ezért sokan kikapcsolva tartják a V-syncet, ami viszont egy másik problémát hoz magával: elkezd szakadni, törni a kép. Érezhető tehát, mi itt a gond: megvan a hardverünk ahhoz, hogy élvezzük a legjobb grafikát, és eltüntessük a recés éleket, de még a legjobb gép is folyamatosan változó fps-sel tudja csak renderelni a játékokat (ráadásul az 1440p, vagy a 4k terjedésével nehezebb tartani a mostani hardverekkel például a fix 120, vagy 144fps-t), így a monitor jelenti ebben az egész folyamatban az utolsó szűk keresztmetszetet a tökéletes képminőség eléréséhez.

Ennek megoldására találta ki az Nvidia a G-syncet, ami egy csapásra megszünteti a monitorok fix frissítési frekvenciáját, és teljesen dinamikussá változtatja azt, így a monitor mindig pontosan akkor frissíthet, amikot a VGA elkészült egy képkockával, tehát a kettő teljesen szinkronban működhet egymással. Nem tudni, mi a G-sync felső határa, de az Nvidia egyelőre egy 144hz-es Asus monitorral demózta a cuccot, az alsó limit pedig 30hz, hiszen 30fps alatt már a játék szaggatni kezd, így ilyenkor a G-sync minden képkockát megdupláz. Az eredményt persze nem lehet látni sem videókon, sem képeken, ezt majd minden érdeklődőnek élőben kell tesztelnie, mindenesetre akik látták működés közben, arról számoltak be, hogy a végeredmény nagyon meggyőző, és tényleg eltűntet minden képhibát, ami korábban a szinkronizációs probléma miatt előjött. Tim Sweeney a legnagyobb lépésnek nevezte az SD-ről HD-re váltás után, de ott volt még az Nvidia bemutatóján Johan Andersson és John Carmack is. Nem lehet eléggé hangsúlyozni, mennyire fontos volt a hardcore PC-s játékosok számára, hogy végre megszűnjenek a mikro-akadások és képtörések.


Mindezt persze nem olyan könnyű elérni, ugyanis az LCD megjelenítők nem véletlenül dolgoztak eddig fix frissítéssel, ha ettől elszakadunk, mindenféle egyéb nem kívánt hatás jöhet létre. Éppen ezért az Nvidia úgy tudta mindezt megoldani, hogy egy külön modult fejlesztett, amit aztán be lehet majd építeni az ezt támogató monitorokba, illetve természetesen maguk a gyártók is kínálnak majd olyan monitorokat, melyekbe már alapból beletették a G-sync modult - ezek a monitorok valamikor a következő hónapokban jelennek meg, és habár árat nem tudunk még, arra érdemes készülni, hogy nem lesz olcsó mulatság. Hogy mi található a modulon, azt egyelőre nem részletezte az Nvidia, de a kiadott hivatalos fényképen látszik maga a vezérlőchip, és háromszor 256MB memória. Érdemes továbbá megjegyezni, hogy a G-sync használatához nem csak a megfelelő monitorra lesz szükségünk, hanem legalább egy GeForce GTX 650 Ti Boost vagy annál jobb videokártyára, R331.58-as verziójú vagy újabb meghajtóra, illetve Windows 7/8-ra, valamint az egész történet kizárólag DisplayPorton keresztül működik.

Streamelés, játékfelvétel

Nem a G-synchez kapcsolódik, de érdemes legalább pár sorban megemlékezni arról is, hogy az Nvidia más területeken is igyekszik előzni. Az egyik ilyen új szolgáltatás az Nvidia Game Streaming, aminek segítségével a PC-n futtatott játékot tudjuk egy az egyben streamelni WI-FI-n keresztül a Shield kézikonzolra. Ez nyilván egy kényelmes módja lehet annak, hogy rendes PC-játékokat élvezhessünk a vécén az androidos konzol segítségével. Legalábbis más hasznát egyelőre nem látom, ezek a technológiák akkor lesznek igazán hasznosak, ha már a neten keresztül is olyan késleltetést tudunk elérni, mintha az otthoni WI-FI-re csatlakoznánk.


Ennél talán érdekesebb a Shadow Play, amivel az Nvidia a next-gen konzolok funkcionalitásának egy darabját szeretné meghonosítani PC-n is. A Shadow Play gyakorlatilag folyamatosan rögzíti játékunk közben az utolsó (maximum) 20 percet a merevlemezünkre. Azonban alapvetően ez csak bufferként működik, tehát a program magától nem menti ezt le, és nem tölti meg feleslegesen a vinyónkat, hacsak nem nyomjuk meg az ALT+F10 billentyűkombinációt. A Shadow Play tehát lehetőséget ad arra, hogy ha valami nagyon látványos dolgot csináltunk, akkor egy gombnyomással lerögzítsük az előzőleg felvett 20 percet, egyébként pedig a program folyamatosan dobja el felvételeket. A legfontosabb azonban, hogy a cucc a GeForce GTX 600 és 700-as GPU-kba épített hardveres H.264 kódolót használja, így például 1080p 60fps-es felvétel mellett nem vágja úgy oda a teljesítményt, mint mondjuk a FRAPS - körülbelül 5-10% a büntetés csak, és rögtön kapunk egy frankón tömörített mp4 fájlt.

Az Nvidia lemaradt a következő generációs konzolokról, éppen ezért láthatóan igyekszik, hogy még jobban kedvezzen a PC-s játékosoknak. A korábban elindított GeForce Experience már egy remek lépés volt annak irányába, hogy a konzolokhoz hasonlóan a felhasználóknak ne kelljen a grafikai beállítások között turkálniuk, a Shadow Play pedig egy újabb konzolos funkciót költöztet PC-re egyszerűen, magától értetődően. A G-sync egy régi és fontos problémára jelent megoldást, amit már most epekedve várnak a megfelelően eleresztett hardcore játékosok, hiszen elhozza az utolsó szükséges lépést a képminőség javulásához. Hogy ezek ellen az AMD és a Mantle hogyan tud majd teljesíteni, az a jövő egyik izgalmas kérdése lesz. Nyilván azon fog múlni, hogy az AMD mennyi fejlesztőt tud a Mantle mellé állítani, és így mennyi játékban élvezhetjük majd annak előnyeit - az Nvidia újdonságai ugyanis (igaz, más területet vesznek célba, de) minden játékban hatásosak lesznek.

Nvidia Maxwell - titkos fegyver a Mantle ellen?

Az Nvidia valamikor a jövő év második felében dobja majd piacra a Maxwell kódnevű új grafikus processzorait. Habár ezekről még semmit nem tudni, egy pletyka szerint az Nvidia a Tegra chipekhez hasonlóan ARM processzormagokat tervez integrálni a GPU-ba, így a CPU helyett azok futtathatnák a grafikus kártya driverét. A cég tehát végeredményben hasonlóval próbálkozik, mint az AMD a Mantle-lel - csökkenteni akarja a processzoron a terhelést, ám a Mantle-lel ellentétben ez a megoldás nyilván nem igényelne külön támogatást a játékok részéről, tehát minden esetben élvezhetnénk az előnyét. Persze azért érdemes megjegyezni, hogy a Mantle a driver egyszerűsítésén túl azért sok más egyéb dolgot is csinál, tehát nem egy súlycsoportban indulnának. De ismételjük meg: ez egyelőre csak egy vad pletyka.

Kapcsolódó cikkek

35.
35.
crashpipi
#34: Amiről a cikkben szó van, azt jelenleg szoftveresen a V-sync bekapcsolása küszöböli ki elég nagy erőforrás igénnyel. Nem megakad a kép, hanem pl. amikor egy fps játékban gyorsan rángatod pl. az egeret jobbra balra/a játékos jobbra-balra néz és ilyenkor előfordul a kép vízsztintes irányban történő apró szétszakadása, megcsúszása. Konzolon is megesik az ilyen.
34.
34.
simon 555
#33: Hozzáteszem, hogy legalábbis én nem vettem észre ilyen problémát amiről a cikkben szó van.(4 éve játszom konzolon)
33.
33.
simon 555
#17: Attól még ez konzolon nem probléma. Ott nincs ilyen, hogy megakad a kép.
Mármint van, de az azért van mert túl alacsony az fps a jelenlegi konzoloknál és nem ez végett a nem tudom minek hívják végett.
32.
32.
crashpipi
#29: Mondjuk egy monitornál szerintem is a lélektani határ a 100-as. 4 éve a 24-es Benq-m is 100 alatt volt. Ha egyszer arra kerül a sor és elérhető áron lesz 27-es, azt is 100 alatt szeretném azért...
31.
31.
crashpipi
#29: Szerintem egyedül a monitor az, amibe muszáj sok pénzt ölni, mert szinte az az egy alkatrész, ami a leghosszabb időre szól.
30.
30.
X-Master
#29: drága dolog a számítógép, és nagy különbségek vannak, ahogy az életben is. Van, aki 250 ezerért vesz videokártyát, más meg 150-ért komplett gépet. Ismerek olyat, akinek félmillió feletti fizetése van, mégis Trabanttal jár, panelban lakik, és lejárat előtti kaját eszik, van aki meg kukázik, munkanélküli, de otthon olyan hifije van hogy beszarsz. (nem túlzok, mindkettő igaz történet, valódi emberekkel, akiket ismerek és egy városban lakunk)
29.
29.
RangerFox
#24: Neked.... Másoknak onnan kezdődik a fizetése.. Félreértés ne essék, nem akarok vitát, de szerintem annyi pénzt nem ér egy periféria.
28.
28.
markoci555
felénél leálltam az olvasással, tipikus gazdagonak való cucc, lef*som az egészet
26.
26.
Danikika94
#23: Nekem is Samsung monitorom van 5-6 éve és egyetlen pixel hibája nem volt eddig soha (lekopogom) :D
23.
23.
X-Master
#12: Én értek hozzá, és pont azért veszek LG-t vagy Samsung-ot, mert csak ennek a két gyártónak van normális pixelhiba-garanciája. Egy rossz subpixelre is cserélik a monitort. ASUS-ból te megveheted a milliós 4K monitort, aztán otthon kibontod, és ott éktelenkedik a panel közepén két teljesen rossz pixel, nem tehetsz semmit, csak 4 fölött cserélik. Samsung 2443-asom van. A harmadik. Kifizetem érte anno a 75-80 ezret, aztán látom hogy pixelhibás. Küldtem is vissza Pestre. Szóltam, hogy a következőt nézzék már meg, hogy jó-e. Megnézték, az 2 nap múlva lett pixelhibás. A harmadik esetben kértem, hogy járassák pár napig az üzletben, és ha akkor sem jön elő pixelhiba, akkor küldjék. Az jó lett. 1 hónapos procedúra, de pénzembe nem került, és van egy tökéletes monitorom. Amúgy a Samsung TV-m garanciaidő vége előtt két hónappal lett panelhibás, az LG monitorom meg 2 év után. Mindkettőt cserélték. A tervezett elavulás szerencsémre túl gyors volt, és ilyen szolgáltatást más cégektől nem kapok.
21.
21.
RangerFox
Ennél azért többet vártam..
20.
20.
MrBrooks
Ezt a Bullshitet, go home nVidia, your're drunk!
19.
19.
crashpipi
#18: Bízom benne, hogy ennél jobb megoldás is akad. :D Akkor játszottam utoljára full hd alatt, mikor még a régi monitorom csak 1440x900-at tudott. Előre kell menekülni, nem vissza. :)
18.
18.
winhate
crt monitort kell venni es ott be lehet allitani kisebb felbontason a frissitest is

1280x1024 pl nalam siman megy a 100hz

..de ez is monitorfuggo
17.
17.
hurkagyurka2
#10 Az lehet, hogy azt célozzák meg, de stabilan tartani nem mindig tudja a konzol. Utoljára a PS3 Diablo 3 kapcsán lehetett hallani, hogy bezuhant a framerate a nagyobb zúzásoknál. A next-gent pedig a BF4 fekteti meg már most is, a "belőtt" 60-hoz képest néha 30-40 között ingadozik... A cikkből pedig pont ez derül ki, hogy nem a 60 feletti FPS-seknél van a baj, hanem a kevesebbeknél.
14.
14.
Lorthirash
#8: nem tudom milyen szűkülésről beszélsz te ez egy hülyeség minden évben a pc az év platformja ne nevettess már hülyeségekkel.
11.
11.
crashpipi
Szerintem ez egy nagyon kis fecske, hogy nyarat csináljon.
1. nem lesz minden monitormárkával elérhető
2. jó-jó, hogy a v-sync használata erőforrást igényel, de ez a modul a benne lévő hardver miatt kb egy pár tízezres vga kari ára, amit szerintem inkább az új vga árára pótolunk rá (így annak sem lesz akkora teher a v-sync)
3. mivel nvidia cucc, nem lesz egységes, szabványos, csak bizonyos játékok fogják támogatni, így világmegváltást nem remélhetünk tőle. Ez kb olyan, mint a Physics. Jó kis cucc, de simán lemondok róla bármikor, ha lassulást okoz az AMD-s konfigom miatt és nem érzem hiányát.

Ez megmarad az érdekesség szintjén még jó időre.
10.
10.
simon 555
#8: Konzolnál nincs szükség ilyenre, ugyanis ott az fps fixre van beállítva. Vagy 30-ra vagy 60-ra. Szóval nem kell ilyen oda.
8.
8.
hurkagyurka2
Jó irány ez, jövőbe mutató fejlesztés. Majd kb. 10 év múlva érik be, addigra lecserélődnek a jelenlegi monitorok ilyenekre. Azért előzésnek nem nevezném, a Mantle már idén villant... Még arra lennék kíváncsi, hogy aki LCD Tv-n játszik, azokra gondoltak-e? Vajon a TV-kbe is elkezdik beleépíteni a technikát? Vagy megmarad a PC-sek kiváltságának. Azért furcsállanám a dolgot, mert játszani konzolon játszanak az emberek, ez a tendencia egyre erősödik. A többség vesz egy alap PC-t meg mellé egy olcsóbb/drágább konzolt. A PS3 még most is kelendő, sok embert nem érdekel a next-gen. A konzolosok pedig TV-n játszanak. Ha talpon akar maradni az Nvidia, errefelé is muszáj lesz lépnie. Az egyre szűkülő "PC-s hardcore gamer" réteg nem fogja életben tartani...
7.
7.
Lorthirash
tetszik az ötlet majd kitalálnak vmit a Mantle-re is.
6.
6.
batnor
Inkább ezt a cikket javasolnám mert sok dolog sokkal jobban le van írva mint itt:
http://prohardver.hu/hir/nvidia_g-sync_technologia_monitor.html
"A G-Sync persze szabályok között működik, hiszen nem várhat a végtelenségig a képkockára. Van a rendszernek egy alapvető várakozási ideje, aminek a mértékéről nincs adat, de ha addig nem érkezik képkocka, akkor újra kirakja az aktuálisat. Ez természetesen akadást jelent, de az oka inkább a PC-n belüli folyamatokban keresendő, mintsem a szinkronban. Mindemellett a kijelző sem frissíthet mindent, tehát van egy maximális frissítési frekvencia is, aminek a mértéke szintén nem publikus, de ez nyilván egy logikus eleme a rendszernek. A G-Sync igazából arra jó, hogy a vertikális szinkron második bekezdésben leírt problémáját orvosolja. Ezzel a monitor működhet egy ideális 40-60 Hz közötti tartományban, ha a hardver például 40 és 60 képkocka/másodperces jellemző sebességet mutat fel."
4.
4.
dBLOOD
Pff... Hol van ez a Mantle-hez képest? Sehol. A Mantle segítségével a játékok még inkább platformfüggetlenné válnának, ami persze a makroszopszt orálisan kielégítő nVidiának nem jó.
A gaysync hozzáköti a monitort az nVidia hardvereihez, ami leginkább az nVidiának jó. Arról nem is beszélve, hogy ez nem több haszontalan, drága parasztvakításnál.
3.
3.
simon 555
Azt hittem, hogy az Nvidia is kijön a saját Mantle-jével, de valahogy sejtettem, hogy ilyen soha nem fog megtörténni:D
2.
2.
Danikika94
Nem is olyan rossz :D Kár hogy kicsi a gépem még mindig és a 9500GT nem igen tudja ezt :D
Hozzászólás írásához be kell jelentkezned!
Ha nem vagy még tag, regisztrálj! 2 perc az egész.
Egy kis türelmet kérünk...