Prerequisiti per imparare le misure informatiche
I prerequisiti per imparare le misure informatiche sono:
Le unità di misura informatiche sono entrate a far parte della nostra vita quotidiana. Con lo sviluppo della tecnologia parliamo tutti i giorni di chiavette USB, memoria del telefono, megapixel della fotocamera… Scopriamo qualcosa di più sul mondo dell’informatica!
Oltre alle unità di misura del Sistema Internazionale e alle unità di misura derivate, ci sono molte altre unità di misura che ormai utilizziamo senza neanche rendercene conto.
I bit sono l’unità elementare dell’informazione. La somma di 8 bit è un byte, unità di misura che utilizziamo per le unità di memoria. Le memorie più capienti, ormai hanno raggiunto anche la dimensione di uno o più terabyte!
La velocità di un computer è importante: più il computer è veloce, migliori saranno le sue performance. Scopri qualcosa sulle unità di misura della frequenza: gli Hertz.
Oh, ma che bello il tuo telefono! Qual è la risoluzione dello schermo? L’unità di misura della risoluzione è il pixel: indica la quantità di dettagli che possono essere visualizzati su uno schermo.
Scopri come scegliere il tuo nuovo computer, o il tuo nuovo smartphone! Allenati con gli esercizi e impara a muoverti tra le unità di misura informatiche!
I prerequisiti per imparare le misure informatiche sono:
Abbiamo parlato di lunghezza, massa, capacità, tempo… Ma ci sono delle unità di misura che sono entrate nel nostro quotidiano e non ce ne rendiamo nemmeno conto: le unità di misura informatiche.
Parlando di computer, cellulari, memorie… Entrano in gioco megabyte, gigabyte, ma anche hertz e pixel.
Scopriamo a cosa servono tutte queste unità di misura, magari non ci ritroveremo nella situazione del ragazzo nell'immagine! ;-)
L’unità di misura che utilizziamo maggiormente in campo informatico è il byte. Si tratta dell’unità di misura utilizzata per la memorizzazione delle informazioni. Questo termine nasce da “a bite of it” che significa “un boccone di bit”, cioè un insieme di informazioni.
Un bit è l’unità elementare dell’informazione: bit deriva da BInary digiT, cioè cifra binaria. Infatti un bit raccoglie un singolo carattere che può essere lo 0 o l’1, i caratteri del sistema binario. Noi contiamo utilizzando il sistema decimale, cioè con 10 cifre dallo 0 al 9. In informatica, invece, bastano lo 0 e l’1 per rappresentare tantissime informazioni. Il processore di un computer può essere a 32 bit o a 64 bit. Ma qual è la differenza? Tutto sta nel sistema di gestione delle informazioni.In termini di prestazioni, un computer a 64 bit, è in grado di gestire un maggior numero di informazioni contemporaneamente, quindi è in grado di svolgere un maggior numero di istruzioni; tuttavia in termini di consumo energetico, potrebbe essere migliore un computer a 32 bit.
Per programmare, si sono raggruppati più bit in sequenze più vaste che raccolgono quindi più informazioni: i byte sono la somma di 8 bit. Vediamo tutte le unità di misura dell’informazione: anche il bit ha i suoi multipli. Per ogni unità di misura indichiamo il numero di valori possibili in termini di potenze di 2:
Quando leggiamo le informazioni sulla capacità di memoria di un nuovo smartphone o di un super computer, facciamo attenzione alle unità di misura! Noterai che le dimensioni sono espresse quasi sempre utilizzando le potenze di 2: troviamo smartphone con memorie da 8 GB, 16 GB, 32 GB… Ti ricordano qualcosa? Sono tutte potenze di 2. In informatica si è sempre espresso tutto utilizzando le potenze di 2. Li usiamo anche per le dimensioni delle unità di memoria perché rappresentano il valore più esatto della quantità di dati che può contenere una determinata unità di memoria. Spesso troviamo anche hard disk con capacità espressa usando i multipli di 10: questa è più che altro una trovata commerciale. Fai sempre attenzione alla capacità reale di un hard disk prima di acquistarlo!
Stai per acquistare un nuovo cellulare e sei indeciso tra due che sono apparentemente uguali. Cambia solo il numerino scritto di fianco alla voce processore: quale conviene comprare? Sicuramente il numero più grande corrisponde ad una potenza maggiore del cellulare, ma anche ad un maggior consumo di batteria.
La velocità del processore di un cellulare di solito è misurata in GHz, cioè gigahertz. L’unità di misura della frequenza è l’hertz. Prende il suo nome dal fisico Heinrich Hertz che ha dato un apporto fondamentale alla scienza nel campo dell’elettromagnetismo. L’hertz misura la velocità con cui è eseguita un’operazione.
Anche l’hertz ha i suoi multipli e sottomultipli:
Un’ultima cosa importante nella scelta di un nuovo smartphone è la risoluzione dello schermo e magari anche della fotocamera. Questa si misura in pixel: il termine deriva dalla contrazione di picture element e indica ciascuno degli elementi puntiformi che compongono la rappresentazione di un’immagine digitale. Quindi un pixel è la più piccola parte di un’immagine.
Il numero di pixel che possiamo visualizzare viene definito come risoluzione indica la quantità di dettagli fini che possono essere rappresentati nell’immagine.
Per indicare il numero di pixel che una fotocamera può riprodurre viene solitamente utilizzato un solo numero; per indicare invece il numero di pixel che vediamo in un display viene utilizzato un prodotto, pixel in larghezza per pixel in altezza, per questo la risoluzione di uno schermo dipende soprattutto dalla sua grandezza.
Quindi quando scegliamo il nostro nuovo smartphone, dobbiamo fare attenzione anche a questi dettagli: quanto è definito lo schermo? Quanto è precisa la fotocamera?
Il pixel si indica con il simbolo px. Parlando di fotocamera, abbiamo sicuramente sentito parlare dei multipli: un megapixel equivale a un milione di pixel. Ogni tanto troviamo anche il gigapixel, ma è utilizzato più che altro per le schede grafiche.