Perché i core CPU hanno la stessa velocità invece che differenziali?
Se hai mai fatto molti acquisti di confronto per una nuova CPU, potresti aver notato che tutti i core sembrano avere la velocità piuttosto che una combinazione di altri. Perché? Il post di Q & A di SuperUser di oggi ha la risposta alla domanda di un lettore curioso.
La sessione di domande e risposte di oggi ci viene fornita per gentile concessione di SuperUser, una suddivisione di Stack Exchange, un raggruppamento di siti Web di domande e risposte basato sulla comunità.
La domanda
Il lettore SuperUser Jamie vuole sapere perché i core della CPU hanno tutti la stessa velocità invece di quelli diversi:
In generale, se si acquista un nuovo computer, è necessario determinare quale processore acquistare in base al carico di lavoro previsto per il computer. Le prestazioni nei videogiochi tendono a essere determinate dalla velocità single core, mentre le applicazioni come il video editing sono determinate dal numero di core. In termini di ciò che è disponibile sul mercato, tutte le CPU sembrano avere all'incirca la stessa velocità con le differenze principali tra più thread o più core.
Per esempio:
- Intel Core i5-7600K, frequenza di base 3,80 GHz, 4 core, 4 thread
- Intel Core i7-7700K, frequenza di base 4.20 GHz, 4 core, 8 thread
- AMD Ryzen 5 1600X, frequenza di base 3,60 GHz, 6 core, 12 thread
- AMD Ryzen 7 1800X, frequenza di base 3,60 GHz, 8 core, 16 thread
Perché vediamo questo schema di nuclei crescenti, ma tutti i core hanno la stessa velocità di clock? Perché non ci sono varianti con diverse velocità di clock? Ad esempio, due core "grandi" e molti piccoli core.
Invece di, ad esempio, quattro core a 4,0 GHz (ovvero 4 × 4 GHz, massimo 16 GHz), che ne dici di una CPU con due core a 4,0 GHz e quattro core a 2,0 GHz (ovvero 2 × 4,0 GHz + 4 × 2,0 GHz, massimo 16 GHz)? La seconda opzione sarebbe altrettanto valida per i carichi di lavoro a thread singolo, ma potenzialmente migliore per i carichi di lavoro multi-thread?
Lo chiedo come una domanda generale e non specificamente per quanto riguarda le CPU sopra elencate o per un qualsiasi carico di lavoro specifico. Sono solo curioso di sapere perché il modello è quello che è.
Perché i core della CPU hanno tutti la stessa velocità invece di quelli diversi?
La risposta
Collaboratore SuperUser bwDraco ha la risposta per noi:
Questo è noto come multi-processing eterogeneo (HMP) ed è ampiamente adottato dai dispositivi mobili. Nei dispositivi basati su ARM che implementano big.LITTLE, il processore contiene core con diversi profili di prestazioni e potenza, ovvero alcuni core funzionano velocemente ma assorbono molta potenza (architettura più veloce e / o clock più alti) mentre altri sono efficienti dal punto di vista energetico ma lenti ( architettura più lenta e / o orologi più bassi). Questo è utile perché il consumo di energia tende ad aumentare in modo sproporzionato quando si aumenta la prestazione una volta superato un certo punto. L'idea qui è quella di ottenere prestazioni quando ne hai bisogno e la durata della batteria quando non lo fai.
Sulle piattaforme desktop, il consumo energetico è molto meno un problema, quindi questo non è veramente necessario. La maggior parte delle applicazioni prevede che ogni core abbia caratteristiche di prestazioni simili e i processi di pianificazione per i sistemi HMP sono molto più complessi rispetto alla pianificazione per i tradizionali sistemi SMP (simmetric multi-processing) (tecnicamente, Windows 10 supporta HMP, ma è principalmente destinato ai dispositivi mobili). dispositivi che usano ARM big.LITTLE).
Inoltre, la maggior parte dei processori desktop e portatili oggi non sono limitati dal punto di vista termico o elettrico al punto in cui alcuni core devono funzionare più velocemente di altri, anche per brevi raffiche. Abbiamo praticamente colpito un muro sulla velocità con cui possiamo creare singoli core, quindi la sostituzione di alcuni core con quelli più lenti non consentirà ai core rimanenti di funzionare più velocemente.
Mentre ci sono alcuni processori desktop che hanno uno o due core in grado di funzionare più velocemente degli altri, questa capacità è attualmente limitata a determinati processori Intel di fascia molto alta (nota come Turbo Boost Max Technology 3.0) e comporta solo un leggero guadagno in prestazioni per quei core che possono essere eseguiti più velocemente.
Mentre è certamente possibile progettare un processore x86 tradizionale con core grandi e veloci e core più piccoli e più piccoli per ottimizzare i carichi di lavoro con thread pesanti, ciò aggiungerebbe una notevole complessità al design del processore e difficilmente le applicazioni lo supportano adeguatamente.
Assumi un ipotetico processore con due core veloci di Kaby Lake (7a generazione) e otto core slow Goldmont (Atom) lenti. Avresti un totale di 10 core e carichi di lavoro a thread pesante ottimizzati per questo tipo di processore potrebbero vedere un guadagno in termini di prestazioni ed efficienza rispetto a un normale processore quad-core Kaby Lake. Tuttavia, i diversi tipi di core hanno livelli di prestazioni molto diversi e i core lenti non supportano nemmeno alcune delle istruzioni supportate dal core veloce, come AVX (ARM evita questo problema richiedendo che i core big e LITTLE supportino le stesse istruzioni ).
Di nuovo, la maggior parte delle applicazioni multi-thread basate su Windows presuppongono che ogni core abbia lo stesso o quasi lo stesso livello di prestazioni e possa eseguire le stesse istruzioni, quindi questo tipo di asimmetria risulterà probabilmente in prestazioni tutt'altro che ideali, forse anche si blocca se utilizza istruzioni non supportate dai core più lenti. Mentre Intel potrebbe modificare i core lenti per aggiungere supporto avanzato alle istruzioni in modo che tutti i core possano eseguire tutte le istruzioni, ciò non risolverà i problemi con il supporto software per processori eterogenei.
Un approccio diverso alla progettazione dell'applicazione, più vicino a quello che probabilmente stai pensando nella tua domanda, userebbe la GPU per accelerare porzioni di applicazioni altamente parallele. Questo può essere fatto usando API come OpenCL e CUDA. Per quanto riguarda una soluzione a chip singolo, AMD promuove il supporto hardware per l'accelerazione GPU nelle sue APU, che combina una CPU tradizionale e una GPU integrata ad alte prestazioni nello stesso chip, come l'architettura di sistemi eterogenei, anche se questo non ha visto molta diffusione dell'industria all'esterno di alcune applicazioni specializzate.
Hai qualcosa da aggiungere alla spiegazione? Audio disattivato nei commenti. Vuoi leggere più risposte dagli altri utenti di Stack Exchange esperti di tecnologia? Controlla la discussione completa qui.
Immagine di credito: Mirko Waltermann (Flickr)