Venezia, 1.000 anni di storia su cloud

Prosegue il progetto Time Machine, finalizzato alla digitalizzazione delle fonti custodite nell’Archivio di Stato della città lagunare. L’obiettivo è di preservarle nel lungo periodo e renderle accessibili a storici, ricercatori e appassionati

Il progetto Venice Time Machine è promosso su iniziativa del Politecnico Federale di Losanna (Epfl) e dell'Università Ca' Foscari di Venezia, con il sostegno di un comitato internazionale di studiosi provenienti da Stanford, Columbia, Princeton e Oxford, e grazie alla partnership finanziaria della Fondation Lombard Odier. L’obiettivo che lo anima è di trasformare l’intero patrimonio custodito nell’Archivio di Stato di Venezia in un archivio digitale aperto. Si sta parlando di fonti che coprono 1.000 anni di storia della città, dal Medioevo al XX secolo. Tra questi, certificati, carte catastali, atti esattoriali, mappe e documenti relativi ai commerci, raccolti e custoditi al momento in oltre 80 km di scaffali. Un’operazione ambiziosissima, perché non solo si punta a digitalizzare queste fonti, ma anche a metterle in relazione, di modo che chi un domani decida di consultarle on line possa leggere in controluce i vari processi di trasformazione che interessarono Venezia. Dallo sviluppo della città e dei suoi edifici, al cambiamento delle forme di governo, all’alternarsi delle vicende individuali e familiari, fino all’evoluzione dei traffici che costituirono uno dei principali motori di affermazione della Serenissima.

Ovvio e scontato che a tanta ambizione corrisponda altrettanta complessità. Come si legge ad esempio (in francese) sul sito IT – Industrie & Technologies, non solo occorrerà scannerizzare una vastissima molte di documenti, per giunta spesso molto delicati per lo stato di conservazione in cui versano. In aggiunta, occorrerà anche trovare le soluzioni tecnologiche più adatte per riconoscere contenuti scritti in tante lingue, a cominciare dal latino, e con gli stili calligrafici più svariati. Il tutto ricorrendo a tecniche di estrazione solitamente utilizzate per i big data. Anche se questo, a detta di Frédéric Kaplan – professore al Politecnico di Losanna e responsabile del progetto – è un punto a favore, visto che la crescita dei dati da trattare può aumentare la probabilità di individuare modelli e schemi di riferimento.

Intanto, a circa un anno dall’avvio delle operazioni, i promotori dell’iniziativa hanno sviluppato le infrastrutture generali per la prosecuzione del lavoro, e definito un primo flusso di lavoro per la digitalizzazione di massa dei documenti.

Quanto agli altri passi necessari per proseguire l’opera, una occasione per discuterne c’è stata durante la seconda Fall School dedicata all’argomento, organizzata su iniziativa dell’Università Ca’ Foscari e dell’EFPL, e svoltasi dal 6 al 10 ottobre a Venezia.

Valuta il sito

Non hai trovato quello che cerchi ?

Piè di pagina