Dati e simulazioni ai Gran Premi: più terabyte della Biblioteca del Congresso
domenica 16 novembre 2014 · Tecnica
tempo di lettura: 2 minuti
Telemetria, misure di pressione e temperatura, grafici, calcoli, simulazioni, eccetera eccetera. Vanno tutte in un cervellone che le elabora e le archivia: complessivamente, al Gran Premio di Austin i team hanno prodotto 243 terabyte di dati in formato elettronico secondo le stime che ha raccolto Forbes per conto di Red Bull e Infiniti.
Tanto per farsi un’idea: tra scambi di foto in rete, ogni gara il popolo che segue la Formula 1 arriva poco sopra i 2 tera; dieci cervelli umani hanno l’equivalente di una capacità di 15 terabyte; in una settimana il flusso di tweet nel mondo ammonta a 42 tera; nel 1994 il traffico globale su internet si attestava sui 200 tera; la Biblioteca del Congresso negli Stati Uniti, che rappresenta la maggiore biblioteca al mondo, tra manoscritti, libri, appunti, mappe e spartiti musicali oggi ospita informazioni per un totale di 235 tera, meno di quanti ne generano le squadre in un solo weekend.
È una crescita esponenziale: nell’arco di due anni la mole di dati si è triplicata, anche perché quando si corre in pista si lavora in parallelo alla base sulle elaborazioni in tempo reale.
A Maranello la rivoluzione è arrivata attraverso la McLaren. Se l’è portata dietro Pat Fry nel 2010: “Prima – spiegò Stefano Domenicali – era tutto illimitato, dalle spese ai test. Adesso si ragiona in termini di budget e di simulazione. È come se da un giorno all’altro il calcio si giocasse sul prato sintetico. Lo sport è lo stesso, ma cambiano i materiali, la preparazione e la tecnica”.