Una questione metodologica: la modellizzazione
Il trasferimento di un corpus documentario su un computer pone allo studioso, al di là dei problemi pratici, numerosi quesiti teorici.
Il computer e il digitale sono indubbiamente contraddistinti da una ambiguità di fondo, data dalla loro natura ibrida, che li mostra al tempo stesso come strumenti e come ambiente nel quale siamo immersi, come oggetti e come memoria, come materia e come informazione: un intreccio tra technè e d episteme che crea un disagio cognitivo.
Le implicazioni dell’uso del computer nella raccolta, nell’analisi e nell’elaborazione di dati storici sono infatti metodologiche, e non costituiscono un momento autonomo, privo di interferenze con il canale informativo e con la costruzione digitale di una fonte storica.
In verità, il problema affrontato dall’informatica storica nel trasporre l’informazione contenuta in fonti documentarie antiche in forme più congeniali agli strumenti concettuali di interpretazione e analisi dello studioso moderno «è per molti aspetti lo stesso problema che affronta la critica testuale nell’editare un testo a tradizione manoscritta in forme più familiari al lettore moderno»1.
Se infatti,
La codifica di un testo su supporto digitale, come ogni processo di rappresentazione che coinvolge il computer, è mediata da un apposito linguaggio formale, vincolato da rigide regole sintattiche che richiedono la risoluzione di ogni ambiguità.
Un linguaggio formale è costituito da un insieme organizzato di simboli che permettono di riscrivere, formalizzandolo, l’universo che si vuole descrivere, e da un insieme coerente di regole che governano le modalità di combinazione dei vari simboli e le produzioni che possono essere generate all’interno del linguaggio: è quindi un codice che, per le sue caratteristiche di non ambiguità e precisione sintattica, può essere utilizzato per affidare la realizzazione di un determinato compito ad un procedimento automatizzato. Da ciò discende la sua natura sostanzialmente epistemologica: la rappresentazione informatica come processo semiotico che implica dei processi interpretativi. La codifica è quindi un processo assai più complesso della semplice e meccanica correlazione biunivoca di strutture rappresentazionali, e impone un’approfondita riflessione sul problema testuale2. Se il computer è un manipolatore di simboli, il rapporto che con esso intrattiene il codificatore, qualora la codifica sia intesa come processo interpretativo piuttosto che riproduttivo, costituisce un linguaggio teorico, usato per dare forma consapevole a una teoria ontologica del testo, cioè a una determinata concezione sulla struttura del testo.
Con la definizione, è evidente, muta la stessa visione unitaria del testo, che viene atomizzato – per così dire – in una serie ampia, anche se non necessariamente inesauribile, di costituenti informativi, ciascuno dei quali acquista, o spesso riacquista, valenze diverse.
Il criterio è valido sempre e comunque, dalla scrittura in senso lato all’edizione di una fonte storica. La trascrizione di un manoscritto, che nella configurazione tradizionale del processo filologico non ha mai costituito un momento scientificamente forte, ma al contrario era ritenuto quasi un preliminare meccanico e noioso dell’attività editiva vera e propria, nelle procedure ecdotiche fondate su un sistema informatico diventa il perno decisivo: non solo perché – di fatto – è l’atto più costoso in termini di tempo/uomo, ma soprattutto perché configura l’aspetto cruciale della codifica.
Da un punto di vista teorico, la trascrizione come codifica costringe a interrogarsi analiticamente su cosa si sta codificando, o ricodificando, o decodificando; a scomporre questo qualcosa in elementi discreti, a ordinare in modo sequenziale le operazioni effettuate, evitando ambiguità, contraddizioni, ridondanze e costringendo – soprattutto – a formulare tutto ciò in modo rigoroso. In sostanza, si tratta di fornire un’adeguata quantità di informazione sull’informazione, trasformando il file di un testo codificato in uno strumento euristico che obbliga, affinchè risulti efficace, a dichiarare chiaramente le scelte, le pratiche e la metodologia seguite nel lavoro ermeneutico. La versatilità dei linguaggi di marcatura nel generare definizioni di diverse tipologie di documenti ha prodotto la convinzione diffusa che tali dispositivi potessero costituire uno strumento neutro, attraverso il quale rappresentare la conoscenza implicita delle fonti, dagli ordini commerciali ai manoscritti latini. Nella grande maggioranza dei casi gli umanisti hanno considerato la codifica un problema tecnico, un argomento ozioso – e noioso – del tutto privo di conseguenze ed effetti sulle loro discipline. Niente di più sbagliato:
D’altro canto, chi ha pienamente compreso la non neutralità di una codifica selettiva, ha mosso però una feroce critica alla soggettività delle scelte del codificatore, partendo dalla considerazione che, se è vero che ogni indagine storica opera – naturalmente – una selezione finalizzata dei documenti disponibili e delle informazioni in essi contenute, privilegiandone alcune in base alle esigenze poste dalla ricerca, una selezione suggerita o in qualche modo predeterminata dal computer costituisca invece un problema di metodo.
L’argomentazione in realtà è mal posta e a conti fatti i presupposti da cui parte si rivelano errati. Non diversamente da ogni altro strumento di lavoro, il computer non necessariamente condiziona la professionalità di chi se ne serve:
Paradossalmente, lo storico dimostrava il proprio interesse verso quella soggettività che tanta parte della critica ha fustigato, verso quella competenza dello studioso come meta-struttura, non infondata o arbitraria, proponendo – quasi inconsapevolmente – la metodologia più appropriata in ambiente informatico: motivare ogni decisione, illustrarla in modo dettagliato e in tutti i suoi aspetti, conseguendo per questa via un’attendibilità documentabile e forse maggiore rispetto a casi pretenziosamente oggettivi. Fin qui, i nodi teorici di un antico problema: quello della delimitazione pragmatica del processo di memorizzazione e trasposizione di un testo, in nessun caso – e tanto meno nel caso informatico – riducibile ad una semplice e meccanica trasposizione. Di fatto, quanto giace dietro le quinte dell’edizione ha una struttura definita anzitutto dalla necessità, da un lato, di scomporre l’informazione in elementi enucleabili e dall’altro, di mantenere i contenuti quanto più possibile indipendenti da qualsiasi forma specifica.
Il duplice profilo dei documenti – forma e contenuto – che in ambiente cartaceo mantiene un legame profondo, tanto che quando si agisce sull’uno si modifica anche l’altro, in ambiente elettronico si scinde inesorabilmente, creando inedite possibilità applicative.
Una caratteristica del genere è il fondamento su cui si basa, ad esempio, una disciplina di lunga tradizione, la diplomatica, dove l’analisi delle forme permette di individuare le strutture e viceversa, la presenza di strutture è roborata dall’uso di determinate forme.
La questione va però affrontata anche dal punto di vista pratico: come concretizzare i presupposti metodologici fin qui analizzati? Come esplicitare le scelte, gli interventi soggettivi, le metastrutture realizzate nell’ambito di un’edizione digitale? Come sciogliere quegli aspetti problematici, che riguardano – ad esempio – la funzione interpretativa dei linguaggi di marcatura? La soluzione prospettata dalla codifica elettronica passa per due termini fondamentali e strettamente intrecciati tra di loro: astrazione e modellizzazione. Nell’introdurre i due concetti, si legga in prima istanza la semplice ma efficace enunciazione di Rosenblueth e Wiener, fondatori della cibernetica:
La modellizzazione è dunque un processo di astrazione virtualmente interminabile ma in grado di individuare, all’interno dei testi, le due macrocategorie di struttura e contenuto.
Costruire un modello per memorizzare testi significa quindi da un lato, individuare correttamente ed esaustivamente i dati pertinenti della fonte, ovvero tutti gli elementi significanti del testo, anche quelli che ad una normale lettura non vengono considerati rilevanti perché immersi nella sfera dell’inconsapevole (sistema semantico del codice); e dall’altro, progettare un sistema di correlazioni biunivoche tra tali elementi e unità espressive discrete, compatibili con la natura fisica del canale e del destinatario, in grado di rappresentare nel passaggio dalla forma cartacea a quella elettronica tutte le informazioni codificate in modo trasparente. È in queste due attività che lo scrupoloso rispetto della fonte, presupposto ineludibile dell’approccio storico-filologico, si fonde con il dichiarato intervento soggettivo dello studioso. Il modello è una visione astratta di una realtà complessa e come tale soggetto a inevitabili nonché opportune semplificazioni: il livello di analiticità adottato deve essere costantemente riferito agli obiettivi e ai profili d’indagine, onde evitare dettagli irrilevanti per la corretta comprensione degli oggetti documentari, delle loro caratteristiche e delle loro interazioni. Tuttavia, l’elemento discrezionale non inficia il rigore di una metodologia che affonda le sue radici nei linguaggi formali, e che pertanto riduce drasticamente sia le possibilità di descrizione incoerente sia le ambiguità e le ridondanze del linguaggio naturale. Costruire un modello significa inoltre organizzare, partendo da un insieme di dati e di osservazioni sperimentali, uno schema assiomatico all’interno del quale, per mezzo di una serie di regole e simboli stabiliti, è possibile dedurre una serie di proprietà che sono vere nel modello. Non ha quindi senso chiedersi se un modello sia vero o falso in senso assoluto: è uno strumento di comodo, utile per l’interpretazione ma soggetto a modificarsi con l’accrescersi delle conoscenze e delle variabili in atto durante la ricerca. Nel caso qui prospettato – quello di una fonte dalle forti connotazioni storico-diplomatiche – modellizzare ha inoltre significato:
Scontato dire la modellizzazione relativa al codice Vat.Lat.3880 è stata attività delicata, fortemente interpretativa e intenzionale perché – più che soluzioni tecnologiche – ha riguardato le strutture semantiche del testo, l’individuazione e l’utilizzo delle sue componenti logiche e la definizione di sotto-sistemi efficaci ed efficienti, nel segno di una codifica pragmaticamente legata alle esigenze poste dalla ricerca. Il problema cruciale è stato infatti chiedersi quali fossero i caratteri irrinunciabili della fonte, quelli da non perdere nel processo di codificazione digitale.
È nel cuore di questi interrogativi che «si nascondono nodi concettuali di notevole spessore problematico, che hanno a che fare con la natura dei testi, con quella dei documenti nonché con l’operazione epistemologica che trasforma gli uni e gli altri in fonti storiche»4. Delineatasi come operazione che ha richiesto una progettualità forte e complessa, la modellizzazioneha quindi avuto come scopo precipuo la creazione di percorsi molteplici ma comunque preordinati e in quanto tale, ha posto come primo problema la selezione di un linguaggio adeguato a rappresentare l’organizzazione strutturale della fonte e i suoi elementi singolarizzanti.
Da qui, in conseguenza, la discrezionalità più volte dichiarata e la necessità di una integrazione su base individuale, pur inserite all’interno di un processo che include principi condivisi e una terminologia trasversale ai numerosi standard proposti. Come ha giustamente sottolineato Michele Ansani,
In questo senso la modellizzazione preventiva alla codifica effettiva ha implicato delle scelte e quindi, delle decisioni da prendere in anticipo rispetto alle domande cui il testo informaticamente trattato avrebbe dovuto rispondere una volta codificato.
Tuttavia, ed è bene sottolinearlo, la costruzione di un modello non è mai un processo rigidamente predeterminato, ma al contrario, configurabile – di volta in volta – in base alle esigenze, agli obiettivi cognitivi e agli interessi personali del codificatore. La modellizzazione dunque, non è un punto di non ritorno, ma un’operazione potenzialmente infinita, perché infinite sono le domande dello storico. Tenendo in considerazione, tra le proprietà della metodologia adottata, i criteri di generalità (il modello proposto nasce per poter essere utilizzato indipendentemente dalla fonte in questione e dagli strumenti a disposizione), qualità e facilità d’uso, i passi con cui si è raggiunta la modellizzazione della codifica adottata sono stati sintetizzati nel grafico sottostante:
La formulazione del problema, presupponendo una definizione sufficientemente precisa del sistema da analizzare e dei dati disponibili è stata, ovviamente, il punto fondamentale per un corretto sviluppo del modello e del piano di tutto il progetto. Lo schema sinteticamente presentato nella figura mostra però come ciascuno dei problemi, pur riferito ad una procedura unitaria, abbia implicazioni diversificate, e richiami ambiti teorici e relative discussioni che portano in numerose e differenti direzioni. Ma il punto finale del discorso è e resta che la codifica per supporto elettronico non è un procedimento che rimane parallelo ad una parte del processo semiotico di comunicazione, in modo da lasciare invariato nella sostanza tale processo: al contrario, essa potrà lasciare invariato il risultato di tale processo, cioè l’esatta comprensione del contenuto del messaggio da parte del ricevente, che è quello che si vuole, o comunque che piú importa, soltanto se sarà perfettamente corretta proprio dal punto di vista del processo euristico di modellizzazione. Nella progettazione dell’attività di modellizzazione, dovendo scegliere tra numerose opportunità, si è preferito comunque optare per il più classico modello Entità-Relazione (ER), che utilizza il simbolismo grafico per costruire dei diagrammi e descrivere in maniera formale la realtà d’interesse, attraverso cinque strutture di rappresentazione cui corrispondono altrettanti simboli:
Particolarmente utili sono state, ovviamente, la classe di entità, attraverso le quali sono stati individuati e rappresentati gli elementi con proprietà omogenee nel contesto in esame; quella degli attributi, che hanno permesso di descrivere le entità e rappresentare le proprietà della classe; infine, la classe delle relazioni, che hanno consentito di individuare i legami logici tra le istanze di una o più entità. È chiaro che una simile organizzazione rende ER il modello adatto a descrivere la fonte storica in modo indipendente dall’ambiente informatico che la supporta, presentando un livello di astrazione che da un lato, si rivela indispensabile per adeguarsi alla molteplice realtà presentata, tramite l’uso di un formalismo di valenza universale; dall’altro, richiede un processo di esplicitazione per passare dal modello concettuale dei dati, ovvero quello realizzato tramite le strutture che gli sono proprie, al modello logico, che tiene conto invece dell’ambiente operativo nel quale la fonte verrà verrà inserita. Il computer assume aspetti diversissimi e può essere costruito con materiali diversissimi: ciò che sta alla base di questa diversità è un meccanismo intimo, che guida le procedure operative.
2 Cfr. F. Ciotti, Testo, rappresentazione e computer. Contributi per una teoria della codifica informatica dei testi, in Internet e le Muse. La rivoluzione digitale nella cultura umanistica, a cura di P. Nerozzi Bellman, Milano, Mimesis 1997 (Eterotropie), pp. 221-250. 3 F. Braudel, Scritti sulla storia, Milano, Bompiani 1973 (Tascabili Bompiani, 256), p. 27. 4 S. Vitali, Passato digitale. Le fonti dello storico nell’era del computer cit., p. 56 |