venerdì 3 ottobre 2014

1A- Informatica 2: bit e byte

Un carattere è un'unità minima di informazione che corrisponde a un simbolo della forma scritta di una lingua.
Esempi di carattere possono essere una lettera, un numero, o un segno di interpunzione. Il concetto include anche i caratteri di controllo necessari per processare un testo come per esempio Invio.
I computer rappresentano i caratteri con una codifica che assegna ad ogni carattere un numero. Il numero è rappresentato come una serie di bit (leggi bit).
Nelle figure seguenti vedi il circuito minimo (bit) che può essere spento (OFF) o acceso (ON).
Spento corrisponde a 0 (zero), acceso corrisponde a 1 (uno).




Per memorizzare più di due valori dovremo usare più bit: con due unità si possono rappresentare quattro valori distinti, rappresentati dalle coppie: 00, 01, 10, 11 dove la prima cifra binaria rappresenta il valore della prima unità, mentre la seconda cifra rappresenta il valore della seconda unità.
Con tre bit sono possibili 8 sequenze: 000, 001, 010, 011, 100, 101, 110, 111. Ho quindi un "alfabeto" di otto simboli. Con 4 bit, analogamente, 2x2x2x2=16 sequenze, con 5 bit 2x2x2x2x2=32 sequenze e così via (vedi la figura sotto).
L'esigenza di rappresentare un elevato numero di informazioni rende necessario l'uso di 8 bit.
8 bit fanno un byte (che è dunque una sequenza di 8 bit). Il byte (leggi bait) è l'unità di misura della memoria di un computer. I suoi multipli sono il chilobyte, il megabyte, il gigabyte e così via.

1 KB = 1 kilobyte = 1024 byte = 2x2x2x2x2x2x2x2x2x2 byte

Un esempio di sqeuenza di 4 bit
8 bit fanno un byte
Puntate precedenti:
http://bredainrete.blogspot.it/2014/10/informatica-1-i-caratteri.html

Credits:le immagini sono tratte dai tutorial di Joshua Hawcroft, un software engineer australiano che pubblica su youtube i suoi materiali.

Nessun commento:

Posta un commento