La CPU è l’unità di calcolo centrale (Central Processing
Unit) di un elaboratore elettronico, come un computer, ma anche una console. Il
suo compito è quello di gestire globalmente la macchina. Possiamo dire che il
suo scopo fondamentale è quello di eseguire le istruzioni dei programmi che
richiedono capacità di calcolo logiche, aritmetiche, la possibilità di spostare
i dati tra le memorie e comandare ogni altro strumento periferico.
Nei videogiochi sono responsabili di eseguire la logica del gioco, gestire
l’intelligenza artificiale, preparare gli elementi che ci sono sulla scena e
comunicarli alla scheda grafica e gestire l’audio.
Frequenza: la frequenza
indica quanti cicli di attività un processore esegue in un secondo. La sua
unità di misura sono gli Hertz e più è alta, più il processore è veloce.
Oggigiorno, i processori operano con frequenze nell’ordine dei Gigahertz.
Core: per Core, si intende l’unità che effettivamente esegue il calcolo del
processore, più il contorno di circuiteria che l’aiuta a funzionare.
All’interno della stessa struttura, chiamata package, possono essere presenti
più Core. Avere un numero maggiore di Core permette al computer di eseguire più
cose contemporaneamente o di dividere un carico di lavoro parallelizzabile su
più unità di calcolo per eseguirlo più velocemente.
TDP: questa sigla indica il Thermal Design Power, cioè il calore che deve
essere smaltito dal sistema di raffreddamento. Non rappresenta né il consumo
vero del processore né l’effettivo calore durante i picchi di lavoro, che può
essere maggiore.
Socket: questo è il termine con il quale si indica la presa del processore. Ogni
CPU deve essere inserita su una scheda madre che abbia lo stesso socket e che
sia riconosciuta come compatibile. Nel socket ci sono tutti i collegamenti
elettrici necessari a far comunicare il processore con il resto del sistema e a
fornirgli energia.
Architettura: il layout elettronico della CPU. Più specificamente, indica come sono
implementati fisicamente i vari set di istruzioni che dovrà eseguire. Un
singolo set di istruzioni, può essere implementato fisicamente in molti modi
diversi. L’architettura determina le performance generali del processore.
Litografia: la litografia indica il processo produttivo di una CPU ed indica la
grandezza media del gate dei singoli transistor. Più è piccolo questo valore,
più indica l’utilizzo di un processo produttivo recente in grado di ottenere
un’alta densità di transistor ed un’efficienza energetica migliore. Oggi siamo
arrivati a grandezze dell’ordine dei nanometri. Il valore di per se non dice
tutto però, perché ogni fabbrica di semiconduttori ha un processo specifico e
diverso, pertanto è utile indicare oltre alla dimensione, anche il produttore.
Ad ogni cambio del processo di produzione, segue di solito un cambio nella
nomenclatura dei processori ed un nome diverso dell’architettura.
Simultaneous Multithreading: le architetture dei moderni
processori sono molto complesse e non sono sempre sfruttate al 100%. Pertanto è
stato studiato un metodo hardware per migliorarne l’efficienza. Intel lo chiama
HT, AMD usa il termine generico abbreviato con SMT. Questo permette a più
thread (filoni di istruzioni sequenziali di un programma) di essere eseguiti
contemporaneamente su un solo core. Nel sistema operativo questo viene visto
come un core extra al quale assegnare lavoro. Per questo una CPU con 2 core
fisici con tecnologia HT, viene visto da Windows come avere 4 processori
totali.
Questi core extra sono chiamati anche core virtuali o logici. Ovviamente, un
core logico non sarà mai equivalente ad un processore fisico.
Approssimativamente, avere un core logico equivale ad avere mezzo core fisico
in più.
Turbo: le frequenze delle CPU non sono fisse ma dinamiche. Queste oscilleranno
tra diversi valori in base al carico ed alla temperatura. Quando un processore
non viene usato, le frequenze possono scendere anche sotto il Gigahertz.
Durante l’utilizzo, il processore cerca di raggiungere subito la massima
frequenza possibile, per finire il più velocemente il lavoro. Se si superano
parametri di tempo o di temperatura, la frequenza si abbasserà su valori più
bassi, più sopportabili per un uso continuativo. I processori hanno anche
valori di turbo diversi in base a quanti core sono sotto carico. Sforzare un
solo core permette di raggiungere frequenze più alte rispetto al chiedere
lavoro a tutti i core.
IPC: le Istruzioni Per Clock sono un parametro nascosto, ma è bene sapere che
esistono. Indicano quante istruzioni il processore è in grado di fare in un
ciclo di clock. Questo valore cambia da architettura ad architettura. Un
processore con un IPC di 2, è in grado di svolgere a 1Ghz lo stesso lavoro di
un processore con IPC di 1 a 2Ghz.
Overclock: avete
presente il discorso fatto sul turbo? Bene, è possibile buttarlo dalla finestra
qualora si effettui un overclock del processore. È un procedimento che,
attraverso la modifica del moltiplicatore del clock ed eventualmente delle
tensioni operative, permette al processore di lavorare a frequenze superiori a
quelle nominali dichiarate dalla casa madre, per un tempo indefinito. Più
performance a discapito di una maggior produzione di calore e di assorbimento
energetico. Il processore e la scheda madre devono supportare questa
funzionalità per poter overclockare. Quando si vuole fare overclock, in genere
si incorre in una spesa maggiore per sistemi dissipativi e altri componenti di
qualità.
l mercato dei processori “consumer” è un duopolio, con Intel ed AMD a contendersi il mercato. Intel progetta e costruisce tutti i suoi chip internamente. AMD è un’azienda senza fabbrica, quindi lei progetta solamente i processori, lasciando la produzione ad aziende esterne, come GlobalFoundries o TSMC
Intel produce un quantitativo spropositato di processori, che si
raggruppano in queste categorie: Celeron, Pentium Gold, Core i3, Core i5, Core
i7, Core i9, o più semplicemente 3,5,7,9. A questi si aggiungono i core Xeon, varianti professionali con più
feature orientate alla sicurezza e virtualizzazione, per uso server.
La
nomenclatura di Intel è la seguente: yzzzh
La y indica
la generazione. Più il numero è alto, più recente sarà la generazione. Le zzz indicano
le categoria di potenza relativa all’interno della generazione, e qui un numero
più alto indica un processore migliore.
L’h è
la zona lasciata ad eventuali suffissi che meglio specificano il processore.
La K indica processori in grado di overclockarsi, KF processori
che supportano overclock ma non hanno una parte di elaborazione grafica interna, F indica
l’assenza di scheda grafica integrata e T indica processori a
basso consumo. Di base i processori intel integrano una scheda grafica, che
permette di eseguire operazioni basilari e giocare ai giochi più leggeri.
AMD produce un
numero molto ristretto di processori, limitandosi ad Athlon, Ryzen e
Threadripper. La nomenclatura è la seguente: x-yzhhs
La x indica
il segmento di mercato, con 3 per la fascia bassa, 5 per
la fascia media e 7 per la fascia alta e 9 per quella massima. La y indica
la generazione.
La z indica
il livello di performance. Le hh servono per differenziare
ulteriormente le fasce di potenza.
In aggiunta alla fine ci possono essere varie lettere che indicano una feature particolare o specializzazione del processore. La lettera X indica modelli ad alte performance con frequenze più elevate. Una scritta X3D indica un processore con memoria cache di livello 3 aggiuntiva, perfetta per i videogiochi. I processori AMD di generazioni 1,2,3 e 5 non hanno una grafica integrata di base e con la lettera G si identifica modelli che invece ce l'hanno. Dalla generazione 7 invece ne sono dotati e questa lettera scompare.
Come ci si
deve destreggiare in mezzo a tutti i modelli sul mercato?
I punti di partenza sono due e sono diametralmente opposti. Se si parte con un
budget fisso, si deve cercare di comprare il miglior processore che quei soldi
permettono. Al contrario, se si parte con un obiettivo da raggiungere, si deve
trovare il componente con il rapporto qualità/prezzo migliore che soddisfi i
miei requisiti.
Quello che si deve evitare quando si costruisce un PC, è
che il sistema soffra di collo di bottiglia da parte di uno
dei suoi componenti principali. La CPU e la GPU lavorano insieme. La CPU
prepara i frame e la GPU li elabora. Un processore troppo lento, potrebbe non
passare dati abbastanza velocemente alla GPU che quindi non verrebbe sfruttata
al massimo.
Unità di
calcolo: le schede grafiche sono unità estremamente parallele. Dispongono quindi
di numerose unità di calcolo. AMD le chiama Stream Processors, Nvidia Cuda
Cores, ma la sostanza è la stessa: più esse sono e più potenza grafica ha la
scheda. Sono unità di calcolo generico, che si occupano praticamente di tutti i
calcoli generici necessari per generare un’immagine su schermo, ma sono in
grado di essere usate anche per calcoli matematici puri.
Frequenza: la frequenza
indica quanti cicli di attività una unità di calcolo esegue in un secondo. La
sua unità di misura sono gli Hertz e più è alta, più il processore è veloce.
Oggigiorno, le schede grafiche operano con frequenze nell’ordine dei Gigahertz.
Teraflop: la capacità di calcolo massima teorica di una scheda grafica. Per
ottenerla basta una semplice formula: n° unità di calcolo x frequenza
in Ghz x 2 = TF. È possibile esprimere questa potenza in funzione
della grandezza dei dati elaborati, come 32bit, 16 bit e così via.
Questo valore può essere usato per confrontare a naso le performance sul campo
tra schede grafiche della stessa architettura.
Architettura: il layout elettronico della scheda grafica. Più specificamente, indica
come sono implementati fisicamente i vari set di istruzioni che dovrà eseguire.
Un singolo set di istruzioni può essere implementato fisicamente in molti modi
diversi. L’architettura determina le performance generali della scheda grafica.
Memoria Dedicata: una GPU ha della memoria nel suo circuito
elettronico, separata dalla memoria di sistema. Nel suo interno ci sono tutti i
dati che servono al calcolo della scena corrente. Capacità maggiori permettono
di aumentare il dettaglio a schermo. Il tipo di memoria influenza la sua
velocità nello scambiare dati. Maggiore è la velocità, più la scheda grafica
può eseguire operazioni su di essa.
ROP: render Output Units. Unità che si occupa di finalizzare l’immagine per
mandarla allo schermo. Usata anche per applicare l’Anti Aliasing. Più sono e
più sarà veloce il processo di finalizzazione dell’immagine da parte della GPU.
TMU: Texture
Mapping Units. Unità fisse dedicate alla manipolazione delle texture da
applicare agli oggetti del mondo virtuale. Più sono e più veloci saranno le
operazioni sulle texture.
IA core: Con l'avvento dell'intelligenza artificiale ed i suoi calcoli specifici, i costruttori di schede grafiche hanno integrato unità speciali a bordo delle schede grafiche per facilitare questo tipo di calcoli. Possono essere usate sia per compiti da lavoro, che per effetti speciali nei videogiochi. Nvidia chiama i suoi core Tensor Core, Intel XMX ed AMD AI Accelerator. Più ce ne sono e più tipo di operazioni supportano e meglio la scheda sarà ad eseguire calcoli tipici del machine learning e IA.
Ray Tracing Core: Per eseguire calcoli in Ray Tracing, che sono estremamente pesanti, sono state pensate nuove unità a funzione fissa specifiche per questo tipo di scopo. Nvidia le chiama RTCore, Intel RTU ed AMD RT accelerator. Più ce ne sono e migliori sono le performance in Ray Tracing ma allo stesso tempo cosa sono in grado di fare cambia da architettura ad architettura quindi non sempre sono direttamente confrontabili tra schede e costruttori.
TDP: questa sigla
indica il Thermal Design Power, cioè il calore che deve essere smaltito dal
sistema di raffreddamento. Non rappresenta né il consumo vero né l’effettivo
calore durante i picchi di lavoro, che può essere maggiore.
Litografia: la
litografia indica il processo produttivo di un processore ed indica la
grandezza media del gate dei singoli transistor. Più è piccolo questo valore,
più indica l’utilizzo di tecnologia migliore, in quanto un canale più piccolo
permette un aumento di efficienza energetica. Oggi siamo arrivati a grandezze
dell’ordine dei nanometri. Il valore di per se non dice tutto però, perché ogni
fabbrica di semiconduttori ha un processo specifico e diverso, pertanto è utile
indicare oltre alla dimensione, anche il produttore.
Ad ogni cambio del processo di produzione, segue di solito un cambio nella
nomenclatura dei processori ed un nome diverso dell’architettura.
Overclock: è un procedimento che, attraverso la modifica del moltiplicatore del
clock ed eventualmente delle tensioni operative, permette alla GPU di lavorare
a frequenze superiori a quelle nominali dichiarate dalla casa madre, per un
tempo indefinito. Più performance a discapito di una maggior produzione di
calore e di assorbimento energetico. Le GPU moderne sono tutte in grado di auto
overclockarsi se rimangono all’interno di valori preimpostati per il calore e
potenza assorbita, ma è possibile spingerle a fare meglio.
Il mercato delle GPU è passato di recente dal duopolio tra AMD e Nvidia al tripolio contenete anche Intel. Le due aziende principali, AMD ed Nvdia, non hanno fabbriche, quindi loro progettano le schede grafiche e poi le fanno costruire ai loro partner. Questo porta sul mercato numerosi varianti delle stesse GPU, prodotte da case come Asus, Sapphire, Zotac, MSI e via discorrendo.
La
nomenclatura delle schede Nvidia è ZTX – YYXX(Ti)
La Z indica se si tratta di una scheda con tecnologia ray
tracing con una R, o senza con una G. Le YY indicano la
famiglia e le XX la potenza all’interno della famiglia. Se
esiste uno step di potenza intermedio tra due fasce XX, c’è l’aggiunta del
suffisso Ti. Il suffisso Super è usato spesso per schede refresh, aggiornate o potenziate rispetto all'originale.
La
nomenclatura attuale di AMD è RX-YYZZ (x)
La Y indica
la famiglia e ZZ la potenza relativa. La presenza di una x
alla fine indica una versione più potente. Altra combinazione di lettere usata è xtx per è ancora più potente di una x.
Entrambe le
case offrono schede grafiche professionali, appartenenti alle categorie Quadro
per Nvidia e FirePro per AMD. Nvidia offre anche schede di calcolo scientifico
con il nome di Tesla.
Intel invece usa una nomenclatura di questo tipo XYZZ(m)
X è la famiglia di appartenenza, una lettera, Y è la fascia di potenza con 3,5,7 come i suoi processori per individuare le fasce e ZZ la potenza relativa all'interno della fascia Y. Se si tratta di un modello mobile avrà una M alla fine.
Per avere una panoramica completa consiglio il sito Techpowerup con il suo database che mostra anche le potenze relative tra una GPU e l'altra.
Il PC è un manufatto che elabora dati. Questi dati devono essere
conservati sia durante la manipolazione, sia quando quest’ultima è finita ed ha
prodotto un risultato. Ecco quindi che il computer fa affidamento su 2 sistemi
di memoria diversi. La RAM, la Memoria ad Accesso Casuale che, grazie alla sua
velocità, permette al processore di avere tutti i dati a disposizione in tempi
brevi, ma che se non riceve energia perde il suo contenuto; la memoria non
volatile, dove invece sono salvati tutti i dati mentre non stanno venendo usati
e sono in grado di rimanere al loro posto anche senza energia elettrica.
HDD: Sigla
che identifica gli Hard Disk allo stato solido, più comunemente chiamati
meccanici. Questi usano piatti di materiale magnetico, che vengono letti e
scritti grazie ad una puntina, come un vecchio giradischi. Sono in grado di
offrire una grande capacità a basso prezzo, ma hanno performance limitate dalla
loro natura meccanica. La velocità di rotazione, così come il quantitativo di
cache interna, determinano le performance.
SSD: Le
memorie allo stato solido, sono costituite solo da elementi elettronici, senza
parti meccaniche. Questo permette loro di raggiungere performance molto
elevate, ma hanno costi più alti. Le loro performance dipendono dalle
tecnologia delle celle, dall’interfaccia di connessione e dal firmware che
gestisce lo smistamento dei dati. I loro limiti sono l’usura elettrica delle
celle quando sono scritte. Sono estremamente più veloci di un qualsiasi HDD, ma
più costosi.
SATA: Interfaccia
di connessione per scambio dati, standard dell’industria. L’interfaccia ha
subito evoluzioni nel tempo: il Sata III, l’ultima versione, la più veloce.
Sono tutte compatibili tra di loro. Se con gli HDD l’interfaccia è più che
sufficiente a garantire prestazioni, con gli SSD è un collo di bottiglia. Per
gli usi quotidiani non è un problema, per usi professionali può essere
limitante ed i nuovi videogiochi stanno imparando a sfruttare i nuovi protocolli Nvme.
Nvme: Una
specifica hardware per accedere alle memorie non volatili attraverso lo slot
PCI-express. Gli slot PCI-express sono di solito usati per schede video ed
altre periferiche esterne che richiedono un grande quantitativo di dati ed
energia. Attraverso questo standard è possibile sfruttare al massimo le memorie
allo stato solido, raggiungendo velocità di lettura e scrittura notevoli.
3,5″/2,5″ :
Sono i pollici della grandezza degli hard disk interni ad interfaccia SATA. I
dischi meccanici classici sono grandi 3,5″, mentre gli SSD ed i dischi
meccanici dei portatili sono grandi 2,5″. Occorre prendere in considerazione la
grandezza quando si pianifica quanti hard disk avere nel proprio sistema e come
sistemarli all’interno del case.
M.2:
Formato di forma specifico degli SSD. Invece di essere una scatoletta
metallico/plastica, sono una sorta di stick di ram, che si collega direttamente
alla scheda madre. Il formato m.2 supporta sia il protocollo Sata che Nvme. La
vostra scheda madre determina quale di questi due è in grado di accettare.
Controller: Lo
smistamento dei dati all’interno di un SSD è gestito da un software, residente
all’interno dell’SSD. Per certi versi, potremmo dire che all’interno di ogni
SSD c’è un piccolo computer, con processore ed anche memoria RAM. La parte più
importante però è l’algoritmo di come i dati devono essere organizzati e
gestiti e questo è responsabile delle performance generali dell’SSD.
SLC, MLC, TLC, QLC:
Queste sigle rappresentano il quantitativo di bit per cella di una memoria allo
stato solido. In sequenza, specificano la capacità di poter scrivere 1,2,3 e 4
bit per cella. Maggiore è il numero di bit scritti, maggiore è la capacità a
parità di materiale, quindi diminuisce il costo dell’SSD per l’utente finale.
Purtroppo, questo comporta un aumento di energia consumata, una diminuzione
delle performance ed una resistenza minore delle celle. Le diverse fasce di
prezzo degli SSD sono determinati dalla tecnologia di memoria usata.
Dischi secondari, per contenere giochi e sistemi che richiedono molte letture veloci, possono usare un Nvme 4.0 o 3.0 con memorie TLC senza DRAM o anche memorie QLC senza DRAM.
Il PC è un manufatto che elabora dati. Questi dati devono essere
conservati sia durante la manipolazione, sia quando quest’ultima è finita ed ha
prodotto un risultato. Ecco quindi che il computer fa affidamento su 2 sistemi
di memoria diversi. La RAM, la Memoria ad Accesso Casuale che, grazie alla sua
velocità, permette al processore di avere tutti i dati a disposizione in tempi
brevi, ma che se non riceve energia perde il suo contenuto; la memoria non
volatile, dove invece sono salvati tutti i dati mentre non stanno venendo usati
e sono in grado di rimanere al loro posto anche senza energia elettrica.
DDR: La
sigla sta per Double Data Rate, ovvero rateo di trasferimento dati doppio ed
indica le memorie RAM. La frequenza della memoria che viene letta dai programmi
all’interno del computer, va raddoppiata per ottenere il rateo di trasferimento
dati effettivo. Questa sigla è seguita da un numero, che indica la generazione
tecnologica delle memorie volatili. Ad ogni nuova generazione c’è un aumento
della frequenza, della densità dei chip ed una riduzione dei consumi. Le
varianti di DDR non sono tra di loro compatibili, ovvero uno slot per DDR3 non
accetterà né la DDR4 né la DDR2. Il supporto alla memoria dipende dal
Processore e scheda madre.
Frequenza: La RAM
dispone di una frequenza propria, che ne determina la velocità di trasferimento
dati. Più la frequenza è alta e più velocemente i dati possono essere letti e
scritti sulla memoria. Questa velocità è di enorme beneficio al processore,
poiché impiegherà meno tempo ad attendere il trasferimento dei dati e passerà
più tempo ad elaborarli.
Dual, Tri, Quad Channel: Anche
chiamati canali in italiano, queste configurazioni permettono di aumentare il
quantitativo di dati trasferiti dalla memoria RAM al resto del sistema. L’idea
è molto semplice: invece di affidare la comunicazione tra CPU e RAM ad una sola
strada, la si affida a due, tre o quattro, connesse ad altrettanti banchi di
RAM, così da trasferire contemporaneamente da più unità. I processori consumer
operano con il Dual Channel, pertanto è sempre consigliabile comprare due stick
di RAM alla volta. I processori HEDT o da lavoro, lavorano con il quad channel,
ovvero con gruppi da 4 banchi di RAM.
Latenza CAS: La
Latenza indica quanto tempo è necessario per accedere ai blocchi di memoria.
Più questa sarà alta e più il processore dovrà passare il tempo in attesa dei
dati, peggiorando le performance del sistema. La latenza può essere indicata
con un solo numero, ad esempio CL9, oppure con una sequenza di numeri, che
indicano le latenze di diversi tipi di operazioni, come 9-9-9-24. Tra
due RAM con stessa frequenza, quella con la latenza inferiore offrirà
performance migliori.
JEDEC: La
JEDEC è un organismo dedito alla standardizzazione dei semiconduttori. Tutte le
RAM operano secondo specifiche stabilite da quest’organo, per garantire una
compatibilità pressoché totale. Quando si vuole far operare una memoria al di
fuori di queste specifiche, si lavora in overclock.
XMP: Sigla
che significa Profilo di Memoria Estremo. È una collezione di profili fatta dai
costruttori di memoria, che contengono al loro interno frequenze e latenze
fuori specifica, per operare in overclock ed avere quindi performance
superiori. Questo permette all’utente di selezionare uno dei profili
preimpostati ed applicarlo, senza dover selezionare le varie opzioni
manualmente e garantendo una compatibilità generalmente superiore. Il termine è
associato a piattaforme Intel, ma nel gergo comune si applica anche
all’overclock delle memorie su AMD.
La scheda madre è il tessuto connettivo di un computer. È la
struttura base sulla quale vanno inseriti tutti i componenti funzionali. Al suo
interno troviamo tutti i sistemi atti a far comunicare i componenti tra di
loro, ma anche a fornirgli la giusta quantità di energia.
Chipset: Il
chipset della scheda madre, identifica il circuito elettronico che connette i
vari componenti. È possibile vederlo diviso in due sezioni: il Northbdirge ed
il Southbridge. Il primo gestisce l’intorno del processore e le sue connessioni
dirette, quindi la RAM e le linee PCI express. Il secondo si occupa di gestire
la comunicazione tra il northbridge e tutte le restanti unità periferiche.
Negli anni il northbridge è sparito, finendo per essere inglobato all’interno
dei processori stessi. La scelta del chipset determina lo scenario d’uso della
scheda madre. Modelli con sigle aventi lettere aggressive, come Z o X, denotano
piattaforme che puntano al gaming ed all’overclock. Lettere più pacate, come H,
B, A, denotano chipset con features meno estreme, che si concentrano sulle
funzionalità base o su funzionalità business.
Socket: Il
socket identifica la presa tra processore e scheda madre. Per ogni socket
possono esistere diversi chipset. Affinché possiate assemblare il vostro
computer, dovete prestare attenzione alla compatibilità tra scheda madre e CPU. Sia
Intel che AMD non sono particolarmente consistenti con il loro supporto e
nomenclature, quindi prestate riguardo.
Formato: Il
fattore discriminante per quanta roba può essere presente sulla scheda madre,
oltre alla capacità di elaborazione del chipset, è la grandezza fisica. Schede
più economiche tendono ad essere più piccole e quindi ad avere meno spazio
come, ad esempio, 2 slot totali per la ram invece di 4 o anche 8. I
formati comuni sono ATX, mATX e mini-ITX. In termini di pure performance, non
cambia nulla ed esistono schede di taglia minima ma con feature da prime della
classe.
VRM:
Spendiamo alcune parole sui VRM, ovvero i regolatori di tensione della scheda
madre. Questi componenti elettronici si occupano di regolare la potenza in
ingresso alla vostra CPU. Il controllore si occupa di tenere sotto controllo la
tensione, mentre le fasi portano tutta la potenza elettrica. Questi componenti
si scaldano molto sotto uso e, se raggiungono temperature molto elevate,
possono tagliare l’energia in ingresso alla CPU per evitare di danneggiarsi. Normalmente
non rappresentano un problema ma, se si vuole fare overclock spinto, occorre
comprare schede madri con VRM adeguati che permettono di
avere numerose fasi di alimentazione, così da dividersi il carico ed avere dei
dissipatori montati su di essi per smaltire il calore.
BIOS: Il
BIOS è il sistema operativo della scheda madre. Questo regola tutte le funzioni
di basso livello, è il tramite tra l’hardware e il sistema operativo. Spesso
viene aggiornato dai costruttori, andando a migliorare la stabilità del sistema
e correggere bug. Inoltre, quando vengono rilasciate nuove CPU compatibili con
vecchie schede grafiche, per poterle usare ci sarà bisogno di un update del
BIOS. Se state comprando una piattaforma, nuova, appena uscita ed acerba,
controllate “regolarmente” il sito del produttore per update.
Un computer ha bisogno di energia. Per farlo, si utilizzano
alimentatori, anche conosciuti come PSU dalla loro sigla inglese. Il loro
compito è estrarre potenza elettrica alternata dalla presa della propria
abitazione e convertirla in corrente continua a diverse tensioni per alimentare
i circuiti elettrici.
Watt: I
Watt rappresentano la potenza elettrica che l’alimentatore è in grado di
fornire all’uscita, cioè ai componenti all’interno del computer. Molto
importante è distinguere tra la corrente di picco e quella continua. Un
alimentatore da 800W di picco, sarà in grado di sostenere questo valore solo
per pochi secondi, mentre un alimentatore che indica 800W continui, sarà in
grado di sostenerli in modo indefinito. L’importante è far si che il proprio
alimentatore abbia una potenza sufficiente a garantire l’alimentazione a tutto
il sistema quando è in condizioni di carico massimo.
Efficienza: La
qualità dei componenti interni di un alimentatore ne determina l’efficienza
energetica. Per farlo si usa una nomenclatura chiamata 80 PLUS, che usa un
sistema a medagliere, partendo da senza medaglia, per andare su bronzo,
argento, oro, platino e titanio. Il gradino più basso assicura un’efficienza
dell’80% al 20%, 50% e 100% del proprio carico nominale, mentre quello più alto
supera il 90%. L’efficienza determina il consumo effettivo del vostro
alimentatore. Se state chiedendo 328W su un alimentatore con l’85% di
efficienza, al muro, cioè alla presa di corrente, misurerete 385W, con 57W
dissipati in calore.
Curva di carico: Ogni
alimentatore ha la sua curva di carico, che misura la sua efficienza in
corrispettività della % di carico richiesta. In linea di massima, la massima
efficienza di un alimentatore si ha al 50% del carico, mentre a bassi carichi
l’efficienza è pessima. A carichi alti si perde qualche punto % rispetto alla
linea di mezzo. Quindi, un alimentatore da 500W, avrà il suo picco di massima
efficienza a 250W. Non è un fattore che entra in gioco quando si sceglie che
alimentatore comprare, ma è comodo saperlo.
Modularità: Gli
alimentatori possono essere modulari o meno. Con questo si indica la
disposizione dei cavi. Un alimentatore non modulare avrà i cavi di
alimentazione tutti attaccati al suo corpo e non potranno essere separati. Un
modulare, avrà i cavi inseribili dall’utente. La differenza tra i due è
principalmente di estetica e comodità di assemblaggio. Esistono alimentatori
semi-modulari che sono una via di mezzo.
Formato di forma: Gli
alimentatori possono essere di svariate forme. Le dimensioni standard sono
quelle del formato ATX. Le sigle diverse sono in generale usate per indicare
formati più piccoli. Abbiamo quindi l’SFX, molto diffuso perché leggermente più
piccolo dell’ATX, il TFX, il PS3 ed altri meno usati.
Rail: Un
alimentatore può avere più o meno corsie dove far scorrere l’energia elettrica.
La linea di alimentazione più importante è quella da 12Volt, visto che deve
alimentare la CPU e la GPU. Se un alimentatore ha un solo rail, tutta la
corrente transiterà sulla stessa strada, venendo protetta da un solo sistema.
Un alimentatore a più rail, dividerà invece il carico sulle sue strade. Questo
approccio garantisce una maggior sicurezza ed affidabilità.
Per poter usufruire del proprio computer è necessario avere una
periferica esterna in grado di mostrare delle immagini che noi possiamo
interpretare e manipolare. Le console sono pensate per essere collegate alle TV
e sono tarate per sfruttare al meglio le tecnologie che queste portano nel
salotto di casa. I PC invece sono per definizione flessibili ed il loro
compagno di visione è il monitor. Oggi esistono moltissimi monitor costruiti
con le tecnologie più disparate perché ognuno di essi adempie ad uno scopo
diverso.
LCD: Sigla
che significa Display a Cristalli Liquidi. Questa identifica tutta la serie di
pannelli, per TV e Monitor, che sfrutta la proprietà dei cristalli liquidi di
alterare la luce che passa in una loro matrice. Le tecnologie con i quali
vengono realizzati i pannelli LCD sono numerose, qui sotto sono spiegate le
principali:
TN:
Questa sigla denota i pannelli con tecnologia Twisted Nematic. Si tratta della
tecnologia più vecchia ancora sul mercato. Continua ad essere presente perché
ha dei vantaggi. Economicamente tendono ad essere i più economici, ma il loro
vero punto di forza sta nella loro reattività. Hanno tempi di risposta che
possono essere di 1ms e possono raggiungere frequenze di aggiornamento molto
elevate. Questi sono indubbi vantaggi qualora si giochi a sparatutto
competitivamente. Purtroppo, i pannelli TN offrono una qualità cromatica
inferiore alle tecnologie più moderne, oltre ad angoli di visione peggiori. Non
supportano l’HDR per dire. Quindi sono meno indicati come monitor da lavoro e
per un gaming più a 360°.
IPS: Gli
IPS sfruttano un allineamento diverso dei cristalli liquidi per ottenere dei
miglioramenti notevoli nella qualità del colore e negli angoli di visione. Sono
ottimi pannelli per il lavoro e per il gaming a tuttotondo.
VA: I
pannelli VA hanno i propri cristalli allineati verticalmente. Spesso vengono
definiti come una “via di mezzo” tra i pannelli IPS ed i TN. Questo perché
possono raggiungere performance simili a quelle dei TN, con 1ms di risposta e
144hz di aggiornamento, mantenendo una qualità cromatica analoga a quelli degli
IPS. Hanno il contrasto tra nero e bianco migliore del gruppo, ma hanno i tempi
di risposta più lenti, rendendoli i meno adatti al gaming competitivo.
OLED: La
tecnologia OLED è diversa da quella degli LCD. Malgrado sia una
tecnologia in grado di offrire pannelli sottilissimi e strabilianti rese
cromatiche, ha un difetto sostanziale: il pericolo di burn in. Ogni pannello,
inclusi gli LCD può soffrire di questo difetto. Quando viene mostrata
un’immagine statica per molto tempo, questa rimane impressa sul monitor. Superato questo scoglio con aiuti tecnologici ed un utilizzo non lavorativo ma di puro consumo di contenuti, i monitor OLED offrono i migliori colori e le migliori performance possibili.
PWM: La
Modulazione a Larghezza di Impulso è una tecnica usata nel mondo dei monitor
per regolare la luminosità. Quando la luminosità è al di sotto del 99%, il
controller digitale che manda tensione al pannello inizierà a funzionare in uno
stato di on-off, per diminuire la luminosità effettiva del monitor. A
luminosità basse, se il controller ha una frequenza di accensione-spegnimento
troppo bassa, alcune persone possono avere problemi agli occhi, nausea,
affaticamento. Questo problema si presenta spesso non sui monitor da PC fisso,
ma su quello dei portatili, che sono usati a diversi livelli di luminosità in
base all’ambiente ed alla batteria residua. Se a basse luminosità avete dei
problemi fisici, sappiate che sono dovuti a PWM con switching troppo lento.
Risoluzione: La
risoluzione del monitor va ad indicare il numero di unità minime di colore
controllabili dal monitor. La risoluzione è di solito indicata dal numero di
pixel in orizzontale per il numero di pixel in verticale. Spesso, nella
convenzione comune, si indicano solo quelli in verticale, assumendo che i
restanti siano calcolati secondo l’aspect ratio comune. Maggiore è la
risoluzione di un monitor, più dettagliata sarà l’immagine. Allo stesso tempo,
sarà richiesta più potenza grafica per elaborare la risoluzione maggiore.
I tagli più comuni, in 16:9, sono 1920×1080 (FullHD), 2560×1440 (QHD) e
3840×2160 (4k).
Aspect Ratio: Il
rapporto di forma di un display indica la proporzione tra la sua larghezza e la
sua altezza. Un display 16:9, avrà un numero di pixel orizzontali in
proporzione a quelli verticali esattamente come 16 è in proporzione a 9.
Diversi fattoridi forma sono più adeguati a determinati contenuti. Il fattore
di forma comune dal 2008 ad oggi è proprio il 16:9. In passato era il 4:3. Ora
si sta diffondendo il 21:9. Alcuni portatili moderni propongono monitor in 3:2.
Campo Colore RGB: Lo
spazio di colore RGB rappresenta l’insieme dei colori ottenibili combinando in
maniera additiva i colori rosso, blu e verde. Esistono due campi di colori RGB
comunemente usati come standard: l’sRGB e l’Adobe RGB, con il secondo che ha un
gamut (insieme di colori) molto più ampio del primo.
Quando un monitor viene descritto come “copre il 90% dello spazio sRGB ed il
70% di quello Adobe”, vuol dire che è in grado di riprodurre quella quantità di
variazione cromatica sul proprio monitor. Questa è una caratteristica che
ha molta importanza qualora si debba lavorare professionalmente con grafica.
HDR:
Questa sigla indica l’High Dynamic Range, ovvero la capacità di mostrare i
colori in un range di intensità maggiore rispetto al range standard. Per poter
eseguire l’HDR al meglio delle sue possibilità, un monitor deve avere un
pannello con i singoli pixel in grado di trasferire 10 bit di informazione
colore ed avere una luminosità di picco di 1000cd/m^2.
“Densità visiva”: Quel
che conta veramente nella percezione di qualità di un’immagine non è la
risoluzione dello schermo. O la grandezza della diagonale. O la distanza
visiva. Ma tutte e tre queste cose insieme. Concorrono per determinare la
densità di informazione che arriva ai nostri occhi. Per questo motivo, anche su
un monitor 4K, si possono notare imperfezioni grafiche. Questa
pagina di Nvidia permette di rendersi conto di questo fenomeno
della densità visiva.
Tempo di risposta: Il
tempo di risposta di un monitor indica quanto tempo, in millisecondi, impiegano
i pixel a cambiare colore. Il valore spesso indicato è quello che indica la
transizione GtG, cioè grigio a grigio. Questo valore è estremamente ideale
perché va a calcolare un percorso estremamente breve. Andando a verificare
nella realtà, il tempo di risposta di un monitor non sarà mai quello
pubblicizzato dalla casa madre, ma sarà più alto. Però, un monitor con 1ms GtG
sarà generalmente più veloce di un’altro che ha 4ms GTG.
Frequenza di aggiornamento: La
frequenza di aggiornamento è misurata in Hertz (Hz) ed indica quante volte al
secondo il monitor si aggiorna con nuove informazioni. Questa caratteristica è
quella più indicativa della fluidità dell’immagine e della risposta ai vostri
input quando state giocando. In un monitor a 60hz, ogni immagine permane su
schermo per 16.6ms. In un monitor a 144hz, solo per 6,9ms. Attenzione, perché
il refreshrate non è la stessa cosa del framerate. Il framerate è generato
dalla vostra scheda grafica, mentre gli hz sono del monitor e sono fissi.
Idealmente, per evitare artefatti e/o immagini poco fluide, la propria
configurazione dovrebbe garantire un numero di fps pari alla frequenza del
monitor, ne più né meno.
Ghosting:
Prendete le due definizioni di sopra. Quando il tempo di risposta dei propri
cristalli liquidi non è sufficientemente veloce per essere completamente
cambiati quando arriva la nuova immagine nella finestra di aggiornamento,
l’immagine precedente e successiva si fondono, creando degli effetti scia, o
ghosting. Per evitare ciò, bisogna avere monitor con tempi di risposta reali
molto più veloci delle frequenze di aggiornamento.
Frequenza di aggiornamento
variabile: Il limite tecnico del monitor è come la sua frequenza di
aggiornamento sia fissa mentre il framerate di un gioco sia molto variabile.
Per ovviare a questo problema sono state implementate diverse soluzioni per
sincronizzare i due mondi, andando però ad aumentare il lag tra input e
risposta a schermo. Si è quindi trovata una soluzione: la tecnologia VRR.
Un display dotato di questa tecnologia è in grado, all’interno di un range
prestabilito, di adeguare la sua velocità di refresh al framerate generato
dalla scheda grafica. Questo permette di avere un’esperienza sempre ottimale.
Questa feature è implementata in diversi modi:
Freesync: Il
Freesync è una tecnologia adattiva sviluppata da AMD e poi adottata in maniera
ufficiale dall’associazione VESA, che determina gli standard delle tecnologie
video, nelle specifiche del collegamento DisplayPort 1.2a e successivamente
HDMI. Questa tecnologia è supportata dalle schede video AMD e da quelle Nvidia
di ultima generazione, anche se queste ultime in modalità “compatibilità”,
presentando artefatti. Il Freesync di prima generazione ha range ridotti e
performance non proprio eccellenti. Il Freesync 2 rimuove tutti i difetti della
prima implementazione e supporta anche l’HDR.
G-sync: Il G-Sync è la tecnologia proprietaria di Nvidia di VRR. Questa fa uso di un modulo hardware inserito all’interno dei monitor, portandone ad un aumento del costo notevole. Se un monitor viene venduto come G-Sync compatible, si tratta di un semplice monitor VRR, senza modulo G-Sync a bordo.
Non ci capisco un piffero di Pc.
RispondiEliminaMa me lo sono segnato questo post per studiarmelo per bene :)