Tips&tricks

La Quettabyte era

Le quantità gigantesche di dati che saranno prodotte nell’era dei Big Data hanno un nome che è stato aggiunto al Sistema internazionale di unità di misura. Vediamo che cosa significano.

Alzi la mano chi, leggendo il titolo, già sapeva il significato del prefisso Quetta. Secondo me se va bene sarete in tre, ma per tutti gli altri possiamo tradurlo in termini meno “innovativi” dicendo che “Quetta” sta per quintilione. … e un quintilione sta per mille quadriliardi, oppure un milione di quadrilioni, o anche un miliardo di triliardi, che poi un triliardo sono mille miliardi di miliardi. Ahn… Ok, è il momento di fare qualche passo indietro, circa un miliardo di passi indietro per l’esattezza.

La Quettabyte Era non esiste, non ancora per lo meno, esiste però la ZettaByte Era, iniziata intorno a metà degli anni 2010, periodo in cui per la prima volta si superò il traffico IP di 1 ZettaByte (ufficialmente nel 2016).

Quasi sicuramente anche il prefisso “Zetta” non vi dirà un granché ma i ritmi dell’evoluzione digitale negli ultimi 20 anni stanno generando grandezze un tempo pressoché inimmaginabili, e nello specifico il prefisso Zetta indica una grandezza un miliardo di volte più piccola del Quetta.

In molti ricorderanno la famigerata frase di Bill Gates (una bufala che gira dal 1981) quando “disse” che 640 KiloByte di RAM sarebbero stati sufficienti per tutti: dove siamo arrivati oggi?

In 40 anni gli ordini di grandezza sono cresciuti di 6 volte, quindi di 6 zeri, e anche se l’utente medio ora difficilmente ha 64 GigaByte installati sul suo computer, il supercomputer italiano Leonardo ne può avere fino a 3 Petabyte, e nel panorama mondiale probabilmente non è nemmeno quello con la capacità maggiore.

A questo punto abbiamo usato anche “Peta” e più di qualcuno avrà pensato che cosa diavolo sia questo ennesimo prefisso in poche righe, quindi è arrivato il momento di mettere un po’ di ordine, partendo dai termini ormai d’uso corrente (come Giga, che trent’anni fa rappresentava informaticamente quello che Peta rappresenta oggi).

I Big Data attuali

Da utenti inconsapevoli è difficile rendersi conto della quantità di dati digitali che vengono quotidianamente movimentati, anche le previsioni di una decina di anni fa sono risultate sottodimensionate, e nel 2022 abbiamo avuto un traffico mobile (mobile!) medio di 100 ExaBytes al mese (quindi 1,2 ZettaByte su base annua).

Da dove arriva tutto questo traffico?

Sono in grandissima parte dati multimediali: immagini, musica e soprattutto video, sempre più grandi sia in termini di risoluzione che di colori rappresentati, e c’è da aspettarsi che continuerà ad aumentare nonostante (o “grazie a”) i nuovi, efficienti algoritmi di compressione.

Come ci siamo arrivati?

L’evoluzione delle fotocamere digitali ha aperto le danze: nel periodo che va dal loro lancio commerciale intorno agli anni ’90 fino ad oggi le immagini hanno molti più pixel, maggiore qualità, più profondità colore, colori più accurati e sistemi di salvataggio più ottimizzati (ad esempio come i formati HEIC ed HEIF), con pesi sempre proporzionalmente minori.

L’evoluzione delle connessioni, la loro velocità e la sempre più ampia copertura geografica ha fatto il resto, favorendo la diffusione di telefonini cosiddetti smart che ormai del telefono tradizionale hanno molto poco (diciamo che telefonano anche).

Alcuni dati?

⁃ Nel 2021 la velocità internet più alta è stata di 178 Terabit al secondo, considerando i bit specifici che vanno persi nella comunicazione dei pacchetti significa comunque un movimento intorno ai 20 TeraByte al secondo. Non certo per noi comuni mortali, ma svariate decine di Mb/s sono ormai disponibili per tutti un po’ ovunque.

⁃ I dati che attualmente vengono prodotti ogni giorno, quindi non solo il traffico su rete, sono stimati in 2,5 QuettaByte, e se fossero immagazzinati sotto forma di DVD potrebbero coprire fisicamente 225 milioni di km, cioè una volta e mezza la distanza media Terra-Sole.

⁃ Nel 2012 i dati prodotti giornalmente erano pari ad 1 ExaByte ma già l’anno successivo erano aumentati di oltre 12 volte (4,4 ZettaByte).

⁃ Le previsioni fatte nel 2012 puntavano a 40 ZB nel 2020: sono stati raggiunti i 64,2 ZB.

⁃ Fino al 2007 lo ZettaByte non era praticamente utilizzato, troppo “esoterica” come quantità.

E nel Desktop Publishing?

La reale portata di dati come quelli delle righe sopra è difficilmente comprensibile o anche solo immaginabile, d’altronde la mente umana generalmente tende a semplificare e, se può, conta così: uno, due, molti. Fine del conteggio.

D’altra parte però la progettazione dei software, delle infrastrutture per gli asset management e dei dispositivi/sistemi di archiviazione, locali o remoti (cloud) che siano, deve guardare molto attentamente a questi dati e al loro andamento, così da sostenere e, se possibile, prevenirne il sovraccarico.

Ecco che allora troviamo altri dati “sfiziosi”, come i seguenti:

⁃ Tutto il materiale stampabile al mondo è di “soli” 5 ExaByte.

⁃ Photoshop a 64 bit può gestire fino a 64 ExaBytes di memoria virtuale complessiva, distribuiti su 4 dischi/volumi logici (la classica memoria tampone).

⁃ Nel 2011 IBM ha sviluppato quella che, allora, era la più grande unità di archiviazione composita del mondo, pari a 120 PetaBytes di dati, con 200 mila dischi da 1 TB, non mi risulta ce ne sia una più grande (comunque potrebbe essere) e per arrivare al limite di Photoshop dovrebbero metterne insieme 533.

⁃ La capacità complessiva di tutti i server di Google al 2022 era di 1 milione di PetaByte, quindi 1 ZettaByte (eccolo!).

⁃ L’immagine digitale più dettagliata del mondo, seppur non la più grande in termini di pixel puri, è l’Operation Night Watch del Rijksmuseum olandese, da 717 Gigapixel con un dot pitch di 5 micrometri, cioè 0,005 millimetri. Quando lavoriamo con un’immagine per la stampa a 300 PPI il dettaglio più piccolo rappresentabile (legato necessariamente alla dimensione fisica che ha il pixel a questa risoluzione) è di 0,084 mm, quindi sarebbe come poter riprodurre a dimensioni reali una risoluzione di 16,9 volte maggiore, cioè 5070 PPI. Il che, per diversi motivi in parte trattati sullo speciale Risoluzione dell’anno scorso, non è fisicamente possibile e non ha percettivamente senso.

⁃ L’immagine digitale più grande del mondo dovrebbe essere ancora quella di Kuala Lumpur da 846 Gigapixel del 2014, ma se usciamo dal concetto di singola immagine e prendiamo in considerazione anche una dimensione temporale allora il timelapse planetario di Google Earth presenta 51,6 Terapixel distribuiti su un arco temporale di 29 anni.

⁃ Se consideriamo tale patrimonio di immagini in metodo RGB con profondità colore di 8 bit per canale allora avremo un peso totale non compresso di 154,8 TeraByte, che rispetto ai dati snocciolati nelle righe sopra sembrano pure pochi.

⁃ Nel 2010 è stato stimato che l’archiviazione di uno YottaByte su dischi da un TeraByte richiederebbe un milione di centri grandi come gli stati di Delaware e Rhode Island messi insieme. Alla fine del 2016 la densità di memoria era già aumentata al punto tale che uno YottaByte potrebbe essere immagazzinato in una scheda SD che occupa circa il doppio di un dirigibile Hindenburg. Ok, non sarà una SD da infilare in una fotocamera (oppure mettiamoci d’accordo sulle dimensioni che avrebbe questa fotocamera), ma rispetto alla prima modalità di archiviazione è decisamente piccola.

A proposito di piccolo…

Con la recente introduzione dei prefissi Ronna e Quetta. rispettivamente per 1027 e 1030 sono stati aggiunti anche i reciproci dall’altro lato della scala, (Ronto 10-27) e Quecto (10-30).

Per chi opera con il digitale o la grafica hanno qualche utilità? Si, ce l’hanno, anche se le occasioni sono in effetti molte meno.

⁃ Dal punto di vista della progettazione grafica pura e semplice solitamente bastano i millimetri, magari per filetti molto sottili possiamo usare ad esempio 0,25 mm, ma scomodare i micrometri per dire la stessa cosa (250 µm) non è particolarmente efficace.

⁃ Ha invece senso nello spessore delle plastifiche (tipo nei biglietti da visita) e dei wrapping nel packaging.

⁃ Il nanometro lo troviamo processi produttivi delle CPU, e indica la dimensione dei transistor, negli ultimi hanno raggiunto i 5 nm (come per gli Apple M1 ad esempio) ma sono pronte le tecnologie per scendere fino a 2 e a 1,8 (Intel), definiti anche 20A o 18A dall’uso dell’unità Angström (che non è uno standard di misurazione internazionale ufficiale, ma si usa e corrisponde a 1×10-10 m).

⁃ Il pico lo possiamo abbinare questa volta ai litri: il picolitro infatti va bene per la misura delle gocce di inchiostro nei sistemi inkjet, che possono scendere finanche a 1 pl.

⁃ Arrivati a questo punto non mi viene in mente molto altro, magari il laser a femtosecondi che nei processo di tagli industriali consentono elaborazioni di dimensioni molto piccole, nell’ordine degli 0,3 µm, però con la grafica digitale abbiamo poco a che vedere.

E tra 25 anni?

Nel film del 1997 il cervello di Johnny Mnemonic poteva contenere fino a 320 GB (dagli 80 iniziali), per quel tempo era una quantità di dati semplicemente enorme, mentre oggi è in linea con la capienza tutto sommato media di un telefono cellulare di fascia media.

Difficile immaginare che nei prossimi 25 anni ci potrà essere necessità di ulteriori prefissi, sia in un senso sia nell’altro, ma il progresso andrà sicuramente avanti, e quello che oggi sembra poco probabile un domani può diventare persino superato.

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here