Producatorii de placi video se tot intrec in a oferi cat mai multa performanta. Ceea ce se traduce intr-un numar cat mai mare de fps-uri. Insa de multe ori totul este redundant, pentru ca monitorul oricum nu poate reda toate cadrele repective, neavand un refresh suficient. Sau pur si simplu cele doua dispozitive nu sunt sincronizate.
Ceea ce impiedica obtinerea unei experiente optime pentru utilizator. Multi au sustinut ca totul se poate rezolva la nivel de driver. Insa nVidia a preferat solutia hardware: tehnologia G-Sync. Aceasta se prezinta sub forma unui modul ce se ataseaza display-ului, si-i sincronizeaza refresh-ul la nivelul de fps produs de placa video.
Sau invers, scade fps-urile pana la cat poate monitorul sa redea. Intre 30 si 144 Hz. Totul ca fiecare cadru sa fie generat si afisat in mod cursiv. Dar ca sa poata functiona, G-Sync are nevoie de un GPU de generatie Kepler (sau mai nou), si de conectivitate DisplayPort (insa fara sunet).
Deja mai multi producatori de LCD-uri s-au grabit sa adopte noua tehnologie, care va adauga aproximativ 120 $ la pretul display-ului. Primii pe lista sunt Asus, BenQ, Philips si ViewSonic. Iar cel dintai reprezentant este Asus VG248QE, cu o diagonala de 24″ (61 cm). Acesta este programat pentru prima jumatate a anului 2014, si va costa 400 $.
Lipseste modulul care trebuie atasat ochiului pentru sincronizarea perfecta cu monitorul, pentru ca ochiul uman nu a fost facut pentru asa performante. La 24 cadre pe secunde ochiul ne ofera deja imagine fluenta (~ 40 ms latenta). Imaginea creste in calitate totusi daca acea latenta scade, insa sub 10ms nu se mai observa diferenta. Pe piata avem de cativa ani monitoare cu timp de raspuns de 2ms (desi sunt convins ca nici gamerii nu fac diferenta cu unul de 5ms), asa ca sunt curios cu ce latente se lauda acum nVIdia. Personal nu cred ca isi va merita banii si nici ca va prinde la public.
Sunt de acord cu tine, asa scrie in ‘carte’, dar crede-ma pe cuvant ca observam diferenta intre 30 FPS si 60 FPS, si sa nu mai zic 24 FPS si 60 FPS;
Observam foarte mult diferenta intre 8 MS si 5 MS, si sa nu mai zic intre 10 MS si 2 MS.
Stiu ca se observa diferenta, insa nVidia nu a inventat monitorul pe 120hz, ci o tehnologie care aduce o sincronizare mai perfecta a monitoarelor cu rata de refresh inalta, pentru a diminua si mai mult latenta (am inteles ca acum este de 1ms). Efectul de tearing era eliminat si de tehnologiile actuale, insa cu pretul unei latente mai mari (banuiesc de 1-2 ms).
Se cunoaște diferența dintre 24hz / 60hz / 120hz, etc
Ochiul biologic nu are shutter speed (obturator) ca să nu se cunoască diferența de 24 fps la 60 fps, de exemplu.
Și am o rugăminte: nu vă mai avântați în discuții care nu le înțelegeți. Aici este vorba despre sincronizarea framului de la GPU cu hertul 😛 monitorului. Nu are legătură cu ceea ce vrei să distingi cu ochiul „bionic”. Degeaba te uiți la un film codat în 24 fps-uri și tu ai monitorul la 120 Hz. Practic, mișcarea imaginii fa zi de 24 framuri/sec.
Plus că, ce legătură are viteza displayului cu G-sync? Una este rata de refresh al monitorului și fps-urile gpu, și alta este videza de lucru a LCD-ului.
Nu a spus nimeni ca nu este nici o diferenta intre 24hz / 60hz / 120 hz, ci faptul ca aceasta tehnologie nu renteaza. nVidia a incercat sa perfectioneze perfectiunea si asta cu un pret semnificativ (la banii aia mai iei un monitor de 22″) si o compatibilitate limitata doar la pc-urile cu placi video nvidia de ultima generatie. Tehnologia face ca monitorul si placa video sa lucreze sincronizat, monitorul efectuand un refresh pe verticala numai dupa ce placa video a terminat de randat un frame. Acest lucru face ca latenta sa fie si mai mica (din foarte mica) si totodata imposibila afisarea a doua frame-uri diferite in acelasi cadru/refresh ( http://www.guru3d.com/index.php?ct=articles&action=file&id=7089 ). Intre CRT si LCD s-a schimbat enorm semnificatia refresh-ului pe verticala. Daca la CRT-uri pe 60 hz erai rupt la ochi, la LCD se raporteaza totul fix la latenta. Pentru eliminarea efectului de tearing s-au inventat tehnologii precum v-sync, frame interpolation, etc insa toate au ca pret latenta unui frame necesar la post procesare, care daca nu esti campion mondial in gaming il poti neglija cu usurinta (lumea gaming-ului este pe console acum, unde controlerul este mult mai lent in comparatie cu un mouse, deci de poate).
Sunt confuzii, tehnologia asta noua practic ar trebui sa elimine in totalitate asa zisele LAG-uri sau frame skipuri cauzate de rata de refresh a monitorului din jocurile de ultima generatie.
E mai mult marketing. In cinematicele multor jocuri noi si mai vechi aparea acel efect de tearing.AMD a lansat un fix cu ultimele drivere, 13.9 respectiv 13.10 beta.
De asemenea,nvidia se lauda de ceva timp cu adaptive vsync.Aceasta tehnologie este o adaugare la strategia lor de a-si promova placiile….intr-un mod banal.
Stiu ca se observa diferenta, insa nVidia nu a inventat monitorul pe 120hz, ci o tehnologie care aduce o sincronizare mai perfecta a monitoarelor cu rata de refresh inalta, pentru a diminua si mai mult latenta (am inteles ca acum este de 1ms). Efectul de tearing era eliminat si de tehnologiile actuale, insa cu pretul unei latente mai mari (banuiesc de 1-2 ms).
[…] Efectul de tearing era eliminat si de tehnologiile actuale, insa cu pretul unei latente mai mari (banuiesc de 1-2 ms). […]
Tearing-ul se elimina cu Vsync.
Latenta pierduta de Vsync (ce spui si tu acolo) nu este masurata in MS, ci in FPS. (FPS = FRAMES per second)
Tripple buffering-ul (care toate placiile le au nativ in zilele noastre) reduce complet drop-ul de FPS cand este activ Vsync-ul, ba chiar unele placi aduc spor la FPS.
Si ce ma rog vrea sa fie 400$?
Va referiti la monitor? sau la G-sync?
monitorul este deja disponibil , si 400 $ pentru un G-sync este mai mult decat retarded.