Homepage » come » Perché la risoluzione del monitor con risoluzione verticale è così spesso un multiplo di 360?

    Perché la risoluzione del monitor con risoluzione verticale è così spesso un multiplo di 360?

    È possibile visualizzare un elenco di risoluzioni del monitor abbastanza a lungo e si potrebbe notare uno schema: molte delle risoluzioni verticali, in particolare quelle di giochi o display multimediali, sono multipli di 360 (720, 1080, 1440, ecc.) Ma perché esattamente questo è Astuccio? È arbitrario o c'è qualcosa di più al lavoro?

    La sessione di domande e risposte di oggi ci viene fornita per gentile concessione di SuperUser, una suddivisione di Stack Exchange, un raggruppamento di siti Web di domande e risposte basato sulla comunità.

    La domanda

    Il lettore SuperUser Trojandestroy ha notato di recente qualcosa sulla sua interfaccia di visualizzazione e ha bisogno di risposte:

    YouTube ha recentemente aggiunto la funzionalità 1440p e per la prima volta mi sono reso conto che tutte le (più?) Risoluzioni verticali sono multipli di 360.

    È solo perché la più piccola risoluzione comune è 480 × 360, ed è conveniente usare i multipli? (Non dubito che i multipli siano convenienti). E / o era la prima risoluzione visualizzabile / opportunamente dimensionata, quindi l'hardware (TV, monitor, ecc.) È cresciuto pensando a 360?

    Prendendo ulteriormente, perché non avere una risoluzione quadrata? O qualcos'altro insolito? (Supponendo che sia abbastanza comune che sia visualizzabile). È semplicemente una situazione piacevole per gli occhi?

    Quindi, perché il display deve essere un multiplo di 360?

    La risposta

    Il collaboratore di SuperUser User26129 ci offre non solo una risposta sul perché il modello numerico esiste ma una storia di progettazione dello schermo nel processo:

    Bene, ci sono un paio di domande e molti fattori qui. Le risoluzioni sono un campo davvero interessante di incontri psicopatici per il marketing.

    Prima di tutto, perché le risoluzioni verticali sui multipli di YouTube di 360. Questo è ovviamente arbitrario, non c'è una vera ragione questo è il caso. Il motivo è che la risoluzione qui non è il fattore limitante per i video di YouTube - la larghezza di banda lo è. Youtube deve ricodificare ogni video che viene caricato un paio di volte e cerca di utilizzare il minor numero possibile di formati / bit rate / risoluzioni di ricodifica per coprire tutti i diversi casi d'uso. Per i dispositivi mobili a bassa risoluzione hanno 360 × 240, per i dispositivi mobili con una risoluzione più elevata c'è 480p, e per il pubblico ci sono 360p per le linee fisse 2xISDN / multiutente, 720p per DSL e 1080p per internet ad alta velocità. Per un po 'ci sono stati altri codec di h.264, ma questi sono stati gradualmente eliminati con h.264 avendo essenzialmente "vinto" il format war e tutti i computer dotati di codec hardware per questo.

    Ora, ci sono anche alcuni psicopatici interessanti. Come ho detto: la risoluzione non è tutto. 720p con una compressione molto potente può apparire e peggio di 240p con un bitrate molto alto. Ma dall'altra parte dello spettro: lanciare più bit a una certa risoluzione non magicamente la rende migliore oltre un certo punto. C'è un ottimo qui, che ovviamente dipende sia dalla risoluzione che dal codec. In generale: il bitrate ottimale è in realtà proporzionale alla risoluzione.

    Quindi la prossima domanda è: che tipo di passaggi di risoluzione ha senso? Apparentemente, le persone hanno bisogno di un aumento di risoluzione 2x per vedere davvero (e preferire) una differenza marcata. Qualunque cosa in meno e molte persone semplicemente non si preoccupano dei bitrate più alti, preferiscono usare la loro larghezza di banda per altre cose. Questo è stato studiato molto tempo fa ed è la ragione principale per cui siamo passati da 720 × 576 (415kpix) a 1280 × 720 (922kpix), e poi di nuovo da 1280 × 720 a 1920 × 1080 (2MP). La roba in mezzo non è un obiettivo di ottimizzazione praticabile. E ancora, 1440P è di circa 3,7 MP, un altro aumento di 2x rispetto a HD. Vedrai una differenza lì. Il 4K è il prossimo passo successivo.

    Il prossimo è quel numero magico di 360 pixel verticali. In realtà, il numero magico è 120 o 128. Al giorno d'oggi tutte le risoluzioni sono una specie di multiplo di 120 pixel, nel giorno in cui erano un multiplo di 128. Questo è qualcosa che è appena nato dall'industria dei pannelli LCD. I pannelli LCD usano quelli che sono chiamati line driver, piccoli chip che siedono sui lati del vostro schermo LCD che controllano quanto è luminoso ogni subpixel. Perché storicamente, per ragioni che non so per certo, probabilmente limitazioni di memoria, queste risoluzioni multiple-of-128 o multiple-of-120 esistevano già, i driver di linea standard del settore diventavano driver con output di 360 linee (1 per sottopixel) . Se dovessi abbattere il tuo schermo 1920 × 1080, metterei dei soldi là sopra, essendo 16 driver di linea in alto / basso e 9 su uno dei lati. Oh hey, questo è 16: 9. Indovina quanto era ovvia quella scelta di risoluzione quando 16: 9 fu 'inventato'.

    Poi c'è il problema delle proporzioni. Questo è davvero un campo completamente diverso di psicologia, ma si riduce a: storicamente, le persone hanno creduto e misurato che abbiamo una sorta di visione panoramica del mondo. Naturalmente, le persone credevano che la rappresentazione più naturale dei dati su uno schermo sarebbe stata in una vista a schermo panoramico, ed è qui che la grande rivoluzione anamorfica degli anni '60 è nata quando i film sono stati girati in proporzioni sempre più ampie.

    Da allora, questo tipo di conoscenza è stato perfezionato e per lo più smascherato. Sì, abbiamo una visione grandangolare, ma l'area in cui possiamo effettivamente vedere bruscamente - il centro della nostra visione - è abbastanza rotonda. Leggermente ellittico e schiacciato, ma in realtà non più di circa 4: 3 o 3: 2. Quindi per la visualizzazione dettagliata, ad esempio per leggere il testo su uno schermo, è possibile utilizzare gran parte della visione dei dettagli impiegando uno schermo quasi quadrato, un po 'come gli schermi fino a metà degli anni 2000.

    Tuttavia, ancora una volta questo non è il modo in cui il marketing lo ha preso. I computer dei vecchi tempi venivano usati principalmente per la produttività e il lavoro dettagliato, ma man mano che la merce veniva trasformata e il computer come dispositivo di consumo dei media si era evoluto, la gente non utilizzava necessariamente il computer per lavoro la maggior parte del tempo. L'hanno usato per guardare contenuti multimediali: film, serie televisive e foto. E per quel tipo di visualizzazione, ottieni il massimo fattore di immersione se lo schermo riempie il più possibile la tua visione (compresa la tua visione periferica). Il che significa widescreen.

    Ma c'è ancora più marketing. Quando il lavoro sul dettaglio era ancora un fattore importante, la gente si preoccupava della risoluzione. Quanti più pixel possibile sullo schermo. SGI vendeva quasi 4K CRT! Il modo migliore per ottenere la massima quantità di pixel da un substrato di vetro è tagliarlo il più quadrato possibile. Gli schermi 1: 1 o 4: 3 hanno il maggior numero di pixel per pollice diagonale. Ma con gli schermi che diventano più consumabili, le dimensioni in pollici sono diventate più importanti, non la quantità di pixel. E questo è un obiettivo di ottimizzazione completamente diverso. Per ottenere i pollici più diagonali da un substrato, si desidera rendere lo schermo più ampio possibile. Per prima cosa abbiamo ottenuto 16:10, quindi 16: 9 e ci sono stati produttori di pannelli moderatamente di successo con schermi 22: 9 e 2: 1 (come Philips). Anche se la densità dei pixel e la risoluzione assoluta sono diminuite per un paio di anni, le dimensioni in pollici sono aumentate e questo è ciò che è stato venduto. Perché acquistare un 19 "1280 × 1024 quando puoi acquistare un 21" 1366 × 768? Eh ...

    Penso che riguardi tutti gli aspetti principali qui. C'è di più, naturalmente; i limiti di larghezza di banda di HDMI, DVI, DP e, naturalmente, VGA hanno avuto un ruolo, e se tornate ai pre-2000, la memoria grafica, il bandwdith in-computer e semplicemente i limiti dei RAMDAC disponibili in commercio hanno avuto un ruolo importante. Ma per le considerazioni di oggi, questo è tutto ciò che devi sapere.


    Hai qualcosa da aggiungere alla spiegazione? Sound off nei commenti. Vuoi leggere più risposte dagli altri utenti di Stack Exchange esperti di tecnologia? Controlla la discussione completa qui.