#HardwaresAssemble – Fair display: niente falli sullo schermo

Abbiamo comprato una scheda grafica da urlo, ma siamo invasi da effetti tearing e stuttering ? Questione di schermo. Vediamo come godere appieno di tutta la magnificenza visiva dei videogiochi moderni senza fare scelte affrettate.

Monitor vs TV

Bentrovati al nostro terzo appuntamento con #HardwaresAssemble. Oggi ci occuperemo di un componente spesso trascurato: il display. Solitamente ci concentriamo solo sulla potenza del nostro hardware non badando troppo alla scelta dello schermo. Senza un buono display la resa visiva dei videogiochi sarà mediocre e le potenzialità della nostra GPU saranno sprecate. Gli aspetti più importanti che distinguono una TV standard da un monitor da gaming riguardano principalmente la dimensione dello schermo, la frequenza di aggiornamento (refresh rate) e l’input lag. Monitor e tv presentano entrambi vantaggi e svantaggi, tuttavia vi anticipiamo che i televisori, soprattutto quelli più economici, non sono mai raccomandati per il gioco. Scopriamo perchè…

Dimensioni, risoluzione e PPI… passiamo oltre

La dimensione dello schermo è la prima cosa a cui si presta attenzione. La grandezza del display dipende soprattutto dalla distanza di visione e siccome i televisori non sono progettati per essere guardati da vicino, le loro dimensioni sono in genere abbastanza grandi. I monitor, invece, sono progettati per una media-corta distanza e hanno dimensioni più ridotte. Molti monitor moderni sono addirittura in formato Ultra-wide (21:9) e con pannelli curvi per permettere una migliore immersività nel mondo virtuale durante le sessioni di gioco . La risoluzione standard attuale adottata della maggior parte dei televisori e monitor è il 4K, cioè 3840×2160 pixel, che sta andando a sostituire il Full HD 1920×1080. Per questo motivo le console next-gen Xbox Series X e PlayStation 5 sono state pensate proprio supportare al meglio la risoluzione 4K, garantendo minimo i 60FPS.

Esempio PPI
Maggiore PPI, maggiore dettaglio dell’immagine.

Alla risoluzione bisogna aggiungere la densità di pixel (PPI o pixel per inch), un numero che rappresenta la quantità di pixel presenti per ogni pollice di un display o meglio la concentrazione di pixel del display. I televisori hanno una densità di pixel inferiore, sempre per l’elevata distanza di visione. I giocatori che utilizzano uno schermo a una distanza minore dovrebbero optare per un monitor con più dettagli prodotti da una maggiore densità di pixel.

I valori fondametali? Tempo di risposta, refresh rate ed input lag

Ci sono delle caratteristiche imprescindibili nella scelta del proprio schermo. Il primo è il tempo di risposta, da non confondere con l’input lag che vedremo in seguito. Il tempo di risposta è il tempo impiegato da un pixel per passare da una sfumatura di grigio a un’altra (GtG, grey to grey) o dal nero al bianco. Viene misurato in millisecondi. Un tempo di risposta più veloce aiuta ad eliminare le incongruenze delle immagini in movimento creando un risultato più omogeneo. Per i monitor con pannelli TN il tempo di risposta è più veloce (1ms) rispetto ai pannelli IPS dei televisori che generalmente raggiungono una velocità di risposta anche di 15ms.

Tempo di risposta schermo
Input Lag
In ogni passaggio si perdono millisecondi. Presto che è tardi!

L’input lag è il ritardo che passa dall’invio di un segnale alla sua visualizzazione sul display. Questo ritardo influenza notevolmente la reattività durante il gioco. Molti televisori offrono una “modalità gaming” progettata per ridurre il ritardo di input e fornire una giocabilità migliore, ma spesso con scarsi risultati .

Altro aspetto fondamentale è la frequenza di aggiornamento. Il refresh rate indica quanto tempo serve, al secondo, per aggiornare l’immagine a video. Gran parte dei monitor supporta una frequenza di aggiornamento fino a 144Hz. Alcuni possono persino raggiungere i 240Hz, garantendo un’immagine più fluida. Anche i produttori di tv affermano che i loro prodotti possono arrivare e superare i 120Hz, tuttavia la frequenza di aggiornamento reale della maggior parte dei televisori è ancora 60Hz: vengono utilizzate soltanto alcune tecniche per la correzione delle immagini. Per i videogiochi questi “trucchetti” non funzionano, avendo bisogno di frequenze realmente più elevate per non incorrere nell’effetto tearing.

Effetto tearing schermo

Il tearing (lacerazione) consiste essenzialmente in un taglio della scena con due diversi fotogrammi (è evidente dall’immagine). La causa può essere una diversa frequenza di aggiornamento dei vari fotogrammi, che quindi in determinati momenti appaiono sovrapposti, generando questo effetto taglio.

FreeSync e G-Sync vs Tearing e Stuttering

Molti giochi hanno l’opzione V-Sync per combattere l’effetto tearing. Attivando la sincronizzazione verticale si andranno a visualizzare un numero di immagini a schermo non superiori al valore del refresh rate.

Ad esempio, se il refresh rate del monitor è di 120Hz, il frame-rate massimo dovrà essere di 120FPS, anche se la potenza hardware garantirebbe un valore maggiore. La scelta del V-Sync, però, potrebbe portare all’accentuarsi del fenomeno dello stuttering (balbuzie). Lo stuttering consiste nel rallentamento dell’immagine su schermo, dovuto ad uno sforzo al di sopra delle capacità della GPU. I dettagli texture alti, i filtri anti-aliasing e l’occlusione ambientale contribuiscono notevolmente ad alimentare questo fenomeno. Quando diciamo che un gioco va “a scatti” significa che l’immagine ha un effetto di stuttering.

AMD e NVIDIA hanno adottato due diverse soluzioni per eliminare i fastidi del tearing e dello stuttering. Il FreeSync di AMD, o meglio il nuovo FreeSync2 , si basa sul protocollo VESA Adaptive-Sync che funziona tramite software: i monitor dotati di FreeSync 2 sono in grado di far combaciare il proprio refresh rate, che diventa variabile e non rimane costante nel tempo, con il frame-rate prodotto dalla scheda grafica. In questo modo il numero di immagini al secondo non supera il refresh rate per evitare il tearing e la frequenza di aggiornamento non è troppo più alta del frame-rate per non generare lo stuttering.

Il G-Sync di NVIDIA, proprio come il FreeSynch, sincronizza il refresh rate con il  GPU Render Rate delle GeForce. Il Rander Rate variabile andrà a coincidere con la frequenza di aggiornamento eliminando il tearing. NVIDIA ha annunciato a fine 2019 che i prossimi monitor dotati di moduli G-Sync, saranno compatibili con lo standard VESA Adaptive-Sync utilizzato da AMD, per cui non dovremo più preoccuparci della compatibilità tra display e GPU. Per la loro tecnologia i monitor dotati di G-Sync hanno un costo nettamente maggiore rispetto agli altri, anche superiore ai FreeSync.

Verdetto finale: le dimensioni non contano

Anche se uno schermo grande da 40 pollici e oltre sembra essere l’alternativa più allettante, magari anche con risoluzione 4K, bisogna considerare il fatto che per il gaming le dimensioni non contano. Ovviamente per una fascia di prezzo relativamente bassa (sui 300€) possiamo comprare televisori enormi rispetto ad un monitor da nemmeno 30″. Tuttavia i tempi di risposta in millisecondi di una tv sono mediamente 300% più elevati.

Gamer davanti allo schermo

Nei giochi più competitivi i dettagli nitidi e la stabilità del frame-rate è essenziale, per questi motivi, se siete dei gamer accaniti, il monitor è una scelta obbligata. I televisori performanti in ambito gaming esistono ma costano cifre astronomiche. Se per voi l’effetto tearing non è un problema potete benissimo orientarvi su un buon televisore, ma con l’arrivo delle nuove console e, soprattutto, delle GPU Radeon RX 6000 e GeForce RTX 3000, non sfruttare tutta la loro potenza grafica con un monitor FreeSync o G-Sync sarebbe quasi un delitto. In fondo all’articolo troverete una tabella riassuntiva sul confronto tra monitor e televisore. Il Black Friday e il Cyber Monday si avvicinano… a voi la scelta.

0 commenti

Lascia un Commento

Vuoi partecipare alla discussione?
Fornisci il tuo contributo!

Lascia un commento