403 Shares 1472 views

Unità di informazioni

Un'unità di misura è presente in qualsiasi area dell'attività umana come equivalente generalmente accettato di misurare qualcosa. Volume, lunghezza, peso – il più comune dell'esistente. Sui diversi continenti, in diverse lingue e, indipendentemente dalla religione, usiamo le stesse misure di misurazione. Per una persona questo è conveniente, accessibile e comprensibile, non richiede alcuna azione con la conversione, che spesso porta a errori.

Con l'avvento di un computer nella vita di una persona, c'era anche la necessità di creare una singola unità per misurare la quantità di informazioni. Sì, tale che sia percepito e cinese, americano e qualsiasi altro computer nel mondo. Tutti i programmatori del mondo potrebbero utilizzarlo come una sola lingua. Quindi c'era un bit di logaritmo binario.

Un po 'è un'unità di informazioni pari alla quantità di informazioni e supponendo solo due valori: "on" e "off" (mostrati come 1 e 0). Per codificare l'alfabeto inglese sul computer, sei bits sono sufficienti, ma per implementare processi di programmazione più complessi, è necessario più unità di informazioni dimensionali che hanno preso in prestito i prefissi latini dalla matematica. Un po 'nel computer è un impulso elettrico inviato dal posto di comando al corpo esecutivo e un impulso di risposta circa il lavoro svolto. Comandi 0 e 1 sono dati in diverse gamme di tensione. Tutto questo succede ad una velocità così elevata, paragonabile al trasferimento di informazioni tra il cervello e le terminazioni nervose del corpo umano.

Tutti i linguaggi di programmazione sono codificati binari. La foto trasferita alla forma elettronica, i giochi e qualsiasi soft software, la gestione della produzione meccanizzata – tutti usano una singola unità di informazioni – un po '.

Raccogliendo in catene di impulsi, i bit formano nuove unità di misurazione di informazioni: byte, kilobit, kilobyte, megabit, megabyte, gigabyte, terabyte, petabyte e così via.

Un byte è considerato uguale a otto bit e ha un secondo nome – un ottetto, in quanto nella storia del computer esistono soluzioni di byte a 6 bit e byte a 32 bit, ma questa è solamente la soluzione software di alcune aziende per migliorare l'unità di misura delle informazioni che non ha Risultati fruttuosi. La base è un byte a 8 bit, per questo il nome "ottetto" è comunemente chiamato.

Per facilitare il lavoro con le informazioni, le unità di quantità di informazioni sono codificate in tabelle appositamente approvate, come ad esempio UNICOD e altri tipi di codifica che utilizzano Windows OS o un altro. Ciascuna delle tabelle è utilizzata per il suo scopo. Per un'immagine in bianco e nero viene utilizzato un sistema binario a 8 bit e per un colore viene utilizzato un bit a 24 bit. Per scrivere un testo in qualsiasi lingua del mondo è sufficiente utilizzare un UNICOD a 16 bit.

Al momento, un utente medio è disponibile una grande unità di informazioni tasamaya, come un terabyte – è 1024 gigabyte, che a sua volta è 1024 gigabyte. Se si moltiplicano entro il 1024, si ottiene il numero di megabyte che costituiscono un terabyte. Se tali semplici moltiplicazioni continuano all'unità originale di misurazione, il numero o-th sarà ottenuto o non può essere inserito in un calcolatore. Questo sarà il numero di codici binari necessari per riempire tale volume.

A proposito, molti produttori utilizzano il valore letterale delle console kilo, mega e giga quando rilasciano i componenti. Ciò porta a errori significativi e una frode velata. Cioè, un disco rigido da 1 terabyte può memorizzare fisicamente solo 950 megabyte di informazioni. La comunità di computer ha da tempo suggerito un modo per evitare questo.

Prefisso kilo, mega e così via rimangono con i loro soliti moltiplicatori. Un chilo è mille, una mega è un milione. Per l'uso corretto del computer, il moltiplicatore non è 1000, ma 1024. Il nome è anche inventato – kibi. Cioè, i prefissi e moltiplicatori corretti saranno: kibi, mibi e altri.