Informatica e critica dei testi (Ovvero: contributi per una teoria dell’edizione critica che prenda sul serio l’informatica)

Raul Mordenti[1]

Informatica e critica dei testi (Ovvero: contributi per una teoria dell’edizione critica che prenda sul serio l’informatica).

Relazione alla Winter School Digital Humanities Palermo (4 marzo 2019)

Sommario:

0. 2

1. L’edizione. 2

2. La (onni)presenza dell’ermeneutica. 2

3. L’innovazione dell’informatica: due specificazioni. 2

3.1. Prima specificazione: distinguere fra HC (Humanities Computing) e DH (Digital Humanities). 2

3.2. L’informatica è una rivoluzione epistemologica, prima ancora di essere una rivoluzione tecnologica. 3

4. Cosa è il testo. 4

5. Il mistero del testo (e il suo disvelamento). 4

6. La paràdosis. 5

7. La conservazione dell’informazione: esaustività e funzionalità (operabilità) 6

TAVOLA 1: Conservazione dell’informazione 7

7.1. Il concetto di modello e la selezione dei tratti segnici significativi. 7

TAVOLA 2: Due modalità di operabilità 9

8. Un esempio di lavoro in corso: l’edizione informatica dello Zibaldone Laurenziano autografo di Boccaccio. 9

TAVOLA 3: La Tavola del ms 10

TAVOLA 4: Il variare della morfologia delle lettere di Boccaccio secondo Branca-Ricci 11

9. Che cosa effettivamente stiamo codificando? 11

TAVOLA 5: Semiotica e semantica nella nostra lettura dell’alfabeto 13

TAVOLA 6: Grafemi e atti di pronuncia 1 14

TAVOLA 7: Grafemi e atti di pronuncia 2 15

10. Distinguere tre concetti: grafema, alfabema, glifo 15

TAVOLA 8: grafemi, alfabemi, glifi dello ZL: A, B, C, D 17

TAVOLA 9: grafemi, alfabemi, glifi dello ZL: S 18

11. La produzione di una “Tastiera dedicata ZLB” 18

12. L’EDIC (per la macchina) e l’edizione interpretativa (per gli umani). 19

TAVOLE 10-11 19

TAVOLA 12: Schema dell’edizione fra digitale e stampa. 21

FINE 21

0. Vorrei cercare di essere fedele all’impegnativo titolo assegnato dal collega Monella alla mia relazione, proponendo alcuni problemi di teoria dell’edizione informatica; vorrei farlo concentrandomi sugli aspetti propriamente teorici del nostro lavoro di editori di testi, prescindendo dunque per quanto possibile dal versante pratico dell’informatica (di cui peraltro sono un profano).

1. L’edizione. L’edizione, nel senso più ristretto e proprio della parola, consiste nel “mettere fuori” il testo e presentarlo ad altri, dunque essa comporta nella sua essenza un’operazione di codifica, più precisamente di de-codifica di un oggetto testuale A (per ipotesi un manoscritto originale) e di sua ri-codifica in un oggetto testuale B, l’edizione.

Naturalmente questo schema elementarissimo non cambia, ma solo si complica, se l’oggetto testuale A è rappresentato non da un manoscritto ma da una stampa o da una serie di testimoni del testo (da organizzare per ipotesi in complessi stemmata), e quale che sia la forma materiale che assumerà l’oggetto testuale B (una semplice copia a mano, una stampa, una riproduzione meccanica, un’edizione diplomatico-interpretativa, un’edizione critica, etc.).

Il nostro problema consiste tutto nel fatto che l’edizione aspira a trasmettere il testo, cioè vuole anzi pretende che l’oggetto testuale A e l’oggetto testuale B siano lo stesso testo.

Su questo ritorneremo.

2. La (onni)presenza dell’ermeneutica. Già da questo primo spunto si comprende che l’attività ermeneutica (spesso definita, ma un po’ imprecisamente, come “critica”) è assolutamente implicata in questo lavoro, e d’altronde i nostri maestri, dalla Biblioteca di Alessandria in poi, ci hanno sempre insegnato che non c’è filologia senza critica e non c’è critica senza filologia.

Il gesto ermeneutico (cioè l’interpretazione nel senso forte della parola) è implicato già nella prima de-codifica (fosse anche la semplice lettura da parte nostra dell’oggetto testuale A, l’originale) ma ancora più radicalmente nell’attività di ri-codifica (fosse anche la copiatura con caratteri a stampa del testo manoscritto per produrre l’oggetto testuale B, l’edizione).

Nella codifica c’è molta più interpretazione di quanto comunemente si creda.

3. L’innovazione dell’informatica: due specificazioni.

Cosa innova l’informatica in questa procedura tradizionalissima? Per cercare di rispondere a questa domanda dobbiamo prima introdurre due specificazioni, terminologiche ma soprattutto concettuali.

3.1. Prima specificazione: distinguere fra HC (Humanities Computing) e DH (Digital Humanities).

Prima specificazione: io credo che occorra distinguere fra HC (Humanities Computing) e DH (Digital Humanities).

Dico subito che la necessità di tradurre in italiano queste due espressioni non ci aiuta, giacché mi sembra che fra noi manchi a tutt’oggi una traduzione condivisa di queste espressioni inglesi (una traduzione potrebbe forse essere, rispettivamente: “Informatica Umanistica” e “Umanistica Digitale”; ma si aspettano proposte migliori); così come non ci aiuta il fatto che la formula “DH” (forse semplicemente per la sua comodità) sembra essere entrata ormai nell’uso comune, fino a partecipare di molti acronimi di importanti istituzioni del nostro settore, sia di ambito europeo, come EADH (The Europan Association for Digital Humanities), che tuttavia ha mutato il nome originale (risalente al 1973) di ALLC (Association for Literary and Linguistic Computing ), sia anche di ambito mondiale, come ADHO (Alliance of Digital Humanities Organizations). Ma mi piace notare che la nostra italiana AIUCD (Associazione per l’Informatica Umanistica e la Cultura Digitale), costituita a Firenze nel 2011 e di cui è stato ed è magna pars il nostro collega Ciotti, ha scelto il suo nome, dopo un lungo dibattito, proprio per unire i due ambiti, cioè – se ho ben inteso – quello più specifico e proprio dell’Informatica Umanistica e quello più vasto della Cultura Digitale.

Il punto è che, come ci ha insegnato Tito Orlandi, esiste effettivamente una differenza sostanziale fra il Digitale (da cui “DH”, Digital Humanities) e il Computazionale (da cui “HC”, Humanities Computing). E proprio il nostro campo della filologia e delle edizioni, si presta a chiarire, come meglio non si potrebbe, di quale differenza si tratti.

Un’edizione digitale, o digitalizzata, può essere anche la semplice trasformazione di un oggetto analogico (nel nostro caso un manoscritto o una stampa o altro) in un oggetto digitale, e questo – almeno a partire dall’invenzione degli scanner – può anche avvenire senza alcun intervento critico da parte dello studioso, più o meno come avveniva per fare una fotocopia.

Un’edizione computazionale (che io chiamerò d’ora in poi, e propongo di chiamare, semplicemente “edizione informatica”) è invece un’edizione che si svolge a partire dalle potenzialità euristiche della computazione (cioè della macchina di Turing) con l’intenzione di sfruttarle pienamente per migliorare la conoscibilità del testo (si può forse dire che la centralità della codifica – più precisamente del markup – e la sua complessità rappresenti il confine fra le due modalità di uso dell’informatica).

Ciò significa allora che solo nel primo caso (HC o computazione o informatica umanistica), e non nel secondo (DH o digitalizzazione), l’uso del computer si pone un obiettivo propriamente euristico, cioè intende conseguire un significativo plusvalore conoscitivo, che può consistere nel produrre edizioni critiche migliori o nel consentire operazioni analitiche impossibili senza l’informatica, nel definire ontologie adeguate ai nostri campi di ricerca o nel supportare originali analisi semi-automatiche, etc.

È la Computazione che fa del computer, come è stato detto, un “medium cognitivo”.

Sembra invece caratterizzare DH (o digitalizzazione) un incremento (voglio ripeterlo a scanso di equivoci: altrettanto utile e prezioso) della comodità di accesso ai dati e della loro diffusione, come ad esempio la produzione delle grandi e ormai indispensabili banche dati testuali.

Limitandoci al nostro campo che riguarda la filologia e i testi, si potrebbe dire che la Digitalizzazione lavora sulla forma dell’oggetto testuale (ora reso in forma digitale e non più analogica) e si arresta invece di fronte alle porte del testo in quanto tale, cioè in quanto messaggio storico e semantico (accade questo, ad esempio, quando vengono fornite in formato digitale le immagini dei manoscritti), mentre la Computazione (per noi ormai e d’ora in poi: l’informatica umanistica vera e propria) intende proprio attraversare quella soglia fatale per incrementare, attraverso l’uso dell’automa, le nostre capacità di lettura dell’oggetto testuale.

Questo ci introduce alla nostra seconda specificazione.

3.2. L’informatica è una rivoluzione epistemologica, prima ancora di essere una rivoluzione tecnologica. La seconda necessaria specificazione è questa: che almeno per noi (a cui piace definirci della scuola di Tito Orlandi) l’informatica è una rivoluzione epistemologica, prima ancora di essere una rivoluzione tecnologica.

L’uso dell’informatica non rappresenta banalmente un sussidio tecnologico per accelerare le procedure di ricerca (pre-informatiche) tuttora vigenti ma, ben più radicalmente, comporta una complessiva ridefinizione dei problemi, anzitutto teorici, delle nostre discipline umanistiche e delle procedure che sono loro connesse. Non insomma un aiuto per risolvere i problemi delle vecchie procedure ma la determinazione (e – si spera – la soluzione) di problemi del tutto nuovi.

Ciò significa che nel caso dell’informatica umanistica è implicata, e anzi diventa centrale, la procedura della ricerca, più precisamente la ridefinizione delle procedure caratteristiche delle nostre discipline umanistiche che sono chiamate ad operare nel nuovo ambiente informatico.

Personalmente credo che proprio questo sia il punto più prezioso (e – se posso dirlo – anche entusiasmante) del nostro attuale lavoro, quello in cui le nostre discipline umanistiche e il loro secolare corredo di procedure, venendo messe alla prova nel nuovo ambiente segnato dall’informatica, ritrovano, ma anche modificano e affinano, se stesse.

Penso anche che consista esattamente in questo punto un apporto possibile degli umanisti, che non si limitano dunque più a “ricevere” e usare qualcosa che proviene dagli informatici ma possono a loro volta fornire qualcosa di inedito, per ipotesi utile allo sforzo comune di incrementare la conoscenza.

Ciò significa che l’uso dell’informatica invita, e costringe, a riflettere radicalmente sugli oggetti dei nostri studi e che esso ridefinisce completamente il metodo (e quando si deve ridiscutere del metodo – lo sappiamo bene – è segno che qualcosa di importante sta avvenendo).

Faccio notare, en passant, che anche la stampa (lo stiamo capendo ora sempre meglio) è stata una rivoluzione epistemologica, oltre che tecnologica, e che il testo risultò modificato dalla stampa nel suo statuto teorico, non meno che nelle modalità sociali della sua fruizione.

4. Cosa è il testo. Compiute queste due specificazioni, o premesse, possiamo tornare al nostro problema che consiste, come ricorderete, nel voler trasformare un oggetto testuale A (l’originale) in un oggetto testuale B (l’edizione) pretendendo però che le due cose siano lo stesso testo.

Per ragionare attorno a questo nesso di problemi occorre allora cercare di definire che cosa è il testo.

Il testo è un messaggio, ma un messaggio di tipo assai particolare. Ciò che differenzia essenzialmente un testo da un qualsiasi altro messaggio (o atto locutorio) è la sua (tendenziale) stabilità. Il testo è un messaggio caratterizzato da un’intenzione di stabilità.

Secondo Cesare Segre, «il testo è l’invariante, la successione dei valori, rispetto alle variabili dei caratteri, della scrittura»[2]. La stabilità del testo è esattamente ciò che consente la sua ripetibilità, cioè la sua “trasportabilità” nel tempo e nello spazio.

è dunque all’esigenza di ripetibilità del testo che si lega la sua fissità segnica, cioè l’organizzazione stabile del discorso; proprio questa tendenziale stabilità rappresenta l’intenzione del testo: poter essere κτη̃μα ει̉ς α̉εί (ktèma èis aèi = «possesso per sempre») come scrive Tucidide. Ed è qui utile ritornare a quanto ci ha ricordato Derrida a proposito del nesso fondativo che lega l’iscrizione e la traccia alla volontà di sopravvivenza oltre la morte.

Il testo consente infatti una comunicazione a distanza e in absentia del suo Mittente, sostituendo (di solito con un sovrappiù di informazione e di codificazione) l’assenza dei fattori contestuali, pragmatici e retro-attivi (prosodia e gestualità soprattutto) tipici della comunicazione interpersonale e in praesentia.

5. Il mistero del testo (e il suo disvelamento). Ma proprio l’invarianza del testo è ciò che rappresenta il suo mistero. Essa infatti coesiste con una altrettanto costitutiva variabilità.

Il testo varia ad ogni atto di ri-produzione, e addirittura dentro la sua composizione, così come varia ad ogni atto di lettura nella diversità delle interpretazioni. Si noti dunque che la mobilità del testo non appartiene affatto in esclusiva al testo informatico (come talvolta si dice) e meno che mai essa rappresenta una inaudita novità. Il testo chirografico (per non parlare del testo orale che è, ad ogni effetto, definibile propriamente come testo) si è “mosso” continuamente per secoli, ad ogni atto di lettura/scrittura/copiatura/rilettura e questo non gli ha impedito affatto di significare. Basterebbe questa un po’ banale osservazione a smentire i sostenitori dell’incapacità/impossibilità del testo informatico a significare: se ha potuto significare il testo mobile pre-gutemberghiano (chirografico) non si vede perché non possa farlo anche il testo mobile post-gutemberghiano (informatico).

Semmai è proprio il testo gutemberghiano che reca (recava) con sé una sua particolarissima rigidità unita a una pretesa di immutabilità (“ne varietur!”) e tali caratteristiche ci appaiono oggi per quello che sono, cioè da un lato strettamente legate alla tecnologia della stampa e dall’altro fortemente consonanti con l’ontologia occidentale, cioè con l’ipostatizzazione del Testo – con la iniziale maiuscola – inteso come portatore autonomo e assoluto di significato; ma noi, immersi come siamo nel testo informatizzato, dobbiamo considerare ormai il testo gutemberghiano solo come una delle tante idee di testo possibili, e – se vogliamo – solo come una parentesi, una grande parentesi di circa cinque secoli che si sta chiudendo sotto i nostri occhi.

Eppure, per quanto si muova, il testo consiste in un’intenzione di stabilità, cioè di invarianza. Come osserva Dino Buzzetti, parlando di testo come «oggetto mobile e immutabile ad un tempo, mobile per la sua variabilità e immutabile per la sua invarianza», i due elementi «si ritrovano dinamicamente ed essenzialmente collegati nella natura stessa del testo[3]

Se in un oggetto coesistono indissolubilmente variabilità e invarianza, sembrerebbe che nella sua natura debba finire col prevalere l’aspetto della variabilità. Invece nel testo (solo nel testo?) non è così; e potremmo dire che quali che siano gli elementi della variazione il testo tende all’invarianza.

Come si spiega questo apparente paradosso?

Ciò accade e può accadere perché il testo è capace di giocare l’intenzione della stabilità (che, come abbiamo visto, lo fonda) continuamente spostandosi – per così dire – dal piano dell’espressione a quello del contenuto, dal suo essere significante al suo essere significato, e viceversa.

Nel variare dell’espressione o del significante il testo si appella all’invarianza del contenuto, o del significato. Così Platone: «chi possiede la scienza dei nomi considera il loro valore e non si turba se qualche lettera viene aggiunta, spostata o tolta, o addirittura, se il potere del nome viene espresso in lettere del tutto diverse. (…) per esempio Astianatte ed Ettore non hanno nessuna lettera uguale, tranne il tau, eppure hanno lo stesso significato.» (Cratilo: 394, b-c); Segre: «…il testo può essere trascritto più volte, in materiale scrittorio e con caratteri differenti, ma non cessa di essere lo stesso testo»[4]. Forse allude a questo anche Aristotele quando afferma: «L’essere si dice in molti modi (πολλαχω̃ς)», (Metafisica: IV, 1003, a33).

E di converso: nel variare del contenuto o del significato il testo fa invece appello al vincolo invariante rappresentato dalla persistenza della sua espressione o del significante («Sic est textus!», «Sta scritto…»).

Il solco che impedisce una lettura de-lirante (cioè, alla lettera: fuori dal solco) è il vincolo rappresentato dalla tendenziale stabilità materiale del testo, a cui è sempre possibile fare ricorso.

Il fatto che il testo organizzi se stesso nella forma della stabilità, per sfidare l’entropia (dispersione dell’informazione) e gli ostacoli frapposti dal tempo e dallo spazio alla comunicazione, ci conferma che non solo il testo è un Messaggio (dunque un atto di comunicazione/significazione) ma che in esso l’intenzione comunicativa è assolutamente cruciale e fondativa.

Tale intenzione comunicativa va dunque rispettata: il testo vuole comunicare.

6. La paràdosis. La possibilità del testo di significare e comunicare non appartiene dunque affatto alla sua “immobilità” bensì proprio all’attività creativa e ricreativa che vive nella trasmissione del testo stesso, cioè alla sua tradizione, alla παράδοσις (paràdosis = “consegna, trasmissione, tradizione”).

Ma questo ragionamento sulla paràdosis, che pure come alcuni dei presenti sanno mi è molto cara[5], ci porterebbe troppo lontano e dunque lo abbandoniamo senz’altro.

Diciamo solo, riprendendo il filo principale del nostro ragionamento, che l’edizione è il fulcro della paràdosis testuale: lo è storicamente (tutti i testi che conosciamo ci sono arrivati attraverso edizioni) e lo è teoricamente, dato che – come abbiamo detto – l’edizione è nella sua essenza un’operazione di de-codifica di un oggetto testuale A (per ipotesi un manoscritto originale) e di sua ri-codifica in un oggetto testuale B, un’operazione che si compie per trasmettere il testo (conservarlo trasmettendolo, trasmetterlo conservandolo), cioè aspirando a far sì che l’oggetto testuale A e l’oggetto testuale B siano lo stesso testo.

7. La conservazione dell’informazione: esaustività e funzionalità (operabilità).

Possiamo dunque anche considerare il testo come una informazione che si trasmette la quale consiste in un sistema di segni, e sappiamo che sono due le condizioni essenziali per la conservazione dell’informazione: a) l’esaustività e b) la funzionalità, che si può anche considerare (dal nostro punto di vista) come la sua operabilità.

TAVOLA 1: Conservazione dell’informazione

Consideriamo la situazione più semplice (a cui – come si è detto – è sempre possibile ricondurre le situazioni più complesse), quella dell’edizione di un testo pervenutoci in un unico testimone, per ipotesi un manoscritto. In linea di principio, riprodurre il manoscritto soddisferebbe la prima condizione, mentre consentirne la lettura soddisferebbe la seconda.

In un’edizione si potrebbe scegliere di editare la riproduzione meccanica di un manoscritto (per soddisfare la prima condizione, a), ma risultando questo – per ipotesi – di difficile lettura, cioè non operabile, si dovrebbe accompagnare tale riproduzione almeno con la sua trascrizione diplomatico-interpretativa (per soddisfare la seconda condizione, b).

In realtà le cose sono assai più complesse, e l’approccio informatico (ricordate?: l’informatica come rivoluzione epistemica e fonte di nuovi problemi) ci aiuta a capire la effettiva complessità dell’operazione ecdotica a cui ci accingiamo.

7.1. Il concetto di modello e la selezione dei tratti segnici significativi.

Anzitutto: se il manoscritto è un sistema di segni, allora occorre assumere il fatto che in esso ogni segno significa, e più precisamente che un sistema di segni è in quanto tale totalmente significativo.

Domandiamoci: gli errori dello Scriba, veri o presunti, sono significativi oppure no? I lachmanniani presenti risponderebbero di certo, in coro, di sì. Ma la lingua dello Scriba e i suoi tratti, per ipotesi, connotativi? E la mise en pâge, gli a capo, il sistema paragrafematico, il colore dell’inchiostro, la morfologia grafica, le dimensioni delle lettere, le caratteristiche del supporto scrittorio (e questo elenco potrebbe continuare a lungo) sono significativi oppure no? E a chi sembrasse meramente provocatorio questo elenco, faccio notare che ci sono illustri discipline che assumono per loro oggetto proprio alcuni di questi tratti segnici che ho qui elencato, casualmente e alla rinfusa.

Allora deve essere chiaro il concetto di modello, cioè che quando noi compiamo un gesto conoscitivo in realtà non operiamo affatto sulle cose bensì sui loro modelli; intendo per modello di un oggetto (primo) la costruzione, fosse anche solo mentale, di un oggetto (secondo), isomorfo al primo per alcune caratteristiche o aspetti, che ci consente di compiere operazioni conoscitive che sarebbero impossibili sull’oggetto primo in sé considerato.

Dunque in realtà noi delle cose conosciamo solo i loro modelli che ci siamo costruiti, e qui è dunque sempre implicato un decisivo atto di selezione.

Se mi conto le dita della mano faccio astrazione dalle caratteristiche proprie di ciascun dito, perché nel mio modello, determinato dall’atto conoscitivo di sapere quante dita ho, ciascun dito vale come un numero, cioè seleziono fra le tante caratteristiche di ciascun dito solo quella caratteristica che mi interessa (in questo caso l’essere, appunto, corrispondente a un numero) prescindendo da tutte le altre caratteristiche (tanto è vero che in questo elementare modello il pollice equivale perfettamente all’indice o al mignolo). È del tutto evidente che se volessi compiere un diverso atto conoscitivo avente per oggetto le medesime dita, ad esempio sapere in quale successione esse si presentano, selezionerei altri aspetti, cioè mi costruirei un altro modello, e trascurerei il loro numero.

Anche noi nel costruirci il nostro modello di edizione, fosse pure nella forma più semplice di una trascrizione, in realtà selezioniamo fra i mille e mille aspetti segnici del manoscritto solo alcuni, e ne tralasciamo molti altri. Faccio notare che è sempre stato così, solo che ora l’informatica ci costringe ad esplicitare questo modo di procedere, cioè a esplicitare quali tratti segnici consideriamo fra i tanti, perché saranno questi, e non altri, ad essere oggetto del nostro processo di codifica e – attraverso questo – saranno offerti alla potenza ordinatrice della macchina. E per codificare qualcosa – se ne converrà – è bene che si sappia che cosa vogliamo/dobbiamo codificare.

Inoltre le caratteristiche della procedura informatica impongono che tale scelta sia consapevole, esplicita, esauriente, non contraddittoria e anche che essa sia precoce, cioè immediata, dato che sarebbe del tutto irrazionale procedere a una codifica imperfetta e poi dover ricominciare tutto da capo perché abbiamo trascurato degli aspetti che, solo a un certo punto del nostro lavoro, ci saranno apparsi importanti.

Segnalo, en passant, che qui c’è una differenza importante fra la procedura di edizione informatica rispetto a quella tradizionale (che chiamerei ormai “gutemberghiana”), in cui il momento della trascrizione era del tutto secondario, al limite pre-scientifico e provvisorio, o perfino affidato ad altri, dato che la perizia del filologo era chiamata ad esercitarsi non certo nella fase della prima trascrizione ma in altre e successive fasi (come la costruzione degli stemmata o l’emendatio ope ingenii, etc.).

Non solo, ma da questo ragionamento deriva che avendo ogni edizione i propri caratteristici problemi critici, la selezione dei tratti segnici significativi da sottoporre a codifica per consentire alla macchina di determinare un incremento conoscitivo a loro riguardo sarà di volta in volta diversa. E anche questo la filologia lo sa da sempre; i nostri maestri ci hanno sempre detto (ricordate?): “Ogni edizione ha il suo specifico problema critico, e ne dipende”.

Né c’è bisogno di ribadire – a questo punto del nostro ragionamento – che la codifica informatica di cui parliamo (cioè la operabilità che essa consente) è cosa ben diversa dal favorire la lettura degli umani, dato che tale trascrizione/codifica assume (per dir così) la macchina, e non gli umani, come suo destinatario. Già a questo punto emerge insomma con chiarezza che in realtà la nostra edizione è costitutivamente duplice, una per la macchina e una per gli umani.

Possiamo così complicare lo schema della conservazione e del trattamento dell’informazione: ciò che abbiamo definito nella Tavola 1 come (b) funzionalità, od operabilità, si scinde rispetto a due diversi destinatari, la lettura umana e la codifica per la macchina che useremo per i trattamenti automatici, e questa seconda destinazione dipende direttamente dai tratti segnici che abbiamo scelto di considerare e retroagisce su di essi.

TAVOLA 2: Due modalità di operabilità

8. Un esempio di lavoro in corso: l’edizione informatica dello Zibaldone Laurenziano autografo di Boccaccio.

Credo che a questo punto possa essere utile chiamare in causa, a mò’ di esempio, un lavoro pratico in corso, cioè l’edizione dello Zibaldone Laurenziano di Giovanni Boccaccio (Biblioteca Medicea Laurenziana, Plut. XXIX. 8) a cui lavoro da molti (troppi) anni.

Di questo testo non dirò quasi nulla, anche perché ne ho parlato già troppe volte. Dirò solo che si tratta di un manoscritto, interamente autografo, che ha accompagnato Boccaccio per molti anni della sua vita e che contiene 55 testi diversi; questi vanno dalla cultura astronomica e matematica medievale (le lezioni di Andalò del Negro) fino all’instaurarsi dell’egemonia di Petrarca, passando per cronache e leggende, per testi classici e svariate composizioni altrui (ad esempio delle egloghe di Giovanni del Virgilio) e – naturalmente passando per Dante:

TAVOLA 3: La Tavola del ms

Sono testi che il Certaldese copiava nel suo “libro archivio d’Autore”, cioè usandoli non solo come strumenti della propria auto-formazione ma anche e soprattutto come elementi del suo intratesto, cioè riutilizzandoli nelle sue opere.

Si capisce allora bene che è molto importante stabilire la datazione, sia assoluta che relativa, della copiatura di questi testi da parte di Boccaccio (da cui potrebbe derivare una percezione più perspicua delle fonti di Boccaccio e delle influenze che operarono su di lui), senza contare che restano tuttora aperti alcuni rilevanti problemi di attribuzione autoriale.

Per affrontare questi problemi mi è sembrato utile esaminare l’evoluzione nel tempo della grafia di Boccaccio (Boccaccio muta negli anni la morfologia del suo alfabeto), prolungando una linea di ricerca già intuita dal Barbi e che permise a Ricci e a Branca non solo di riconoscere finalmente l’autografia del Decameron Hamilton 90 (la cui scrittura era assai diversa da quella di altri manoscritti sicuramente autografi) ma anche di datare l’autografo del Decameron con sufficiente approssimazione.

TAVOLA 4: Il variare della morfologia delle lettere di Boccaccio secondo Branca-Ricci

Questo dunque il problema specifico a base del mio lavoro di edizione e per il quale ho chiamato in soccorso la potenza ordinatrice della macchina, per sostituire con essa ciò che in filologi come Michele Barbi era, o sembrava, puro frutto di intuito e sapienza.

Ma per farlo sono stato costretto a chiedermi: quando trascriviamo una lettera dell’alfabeto che cosa precisamente stiamo codificando?

9. Che cosa effettivamente stiamo codificando?

Ri-codificare il testo per la macchina (e – si noti bene – non solo attraverso la macchina, ma per la macchina, e ormai in seconda istanza per gli umani) significa anzitutto comprendere bene una tautologia, cioè che il prodotto digitale della nostra codifica non è analogico, non è affatto analogo al manoscritto di partenza (e per dir così: non “gli somiglia” affatto), e che qualsiasi informazione noi vogliamo sia conservata, ebbene, allora essa deve essere codificata per la macchina informatica in linguaggio digitale.

Non deve trarci in inganno che l’output di questo oggetto digitale possa presentarsi di nuovo in forma planare, “imitando” la bidimensionalità della pagina: in realtà anche un tale output appartiene alla meravigliosa (e ingannevole) capacità mimetica dell’informatica[6], ma ciò che effettivamente il testo digitale è non ha in realtà alcuna dimensione, essendo semplicemente una serie di 0 e di 1[7] che la macchina sa leggere e gestire, e anche la scelta di fargli assumere in uscita una forma planare non è altro che il frutto di mark-up e di codifica (e dell’impiego di un programma in grado di trasmettere e far eseguire alla macchina tali istruzioni).

La nostra codifica comporta essenzialmente due cose:

i) cercare di ridurre al minimo la perdita di informazione nel trasformare i fenomeni da continui-analogici in discreti-digitali, cioè nel passaggio dei dati testuali dalla forma planare e bi-dimensionale del manoscritto alla forma unilineare e priva di consistenza spaziale del digitale;

ii) produrre in tal modo un nuovo messaggio codificato che però deve rispettare le caratteristiche di univocità, non ambiguità, non ridondanza etc., che la macchina informatica richiede per poter funzionare.

Ma, di nuovo, ci troviamo di fronte a un’apparente semplicità che cela un abisso di problemi, primo fra tutti il fatto che il sistema simbolico di cui gli umani si servono abitualmente non presenta affatto le caratteristiche appena citate che sono indispensabili per la macchina.

Per sistema simbolico intendo un apparato che lega sistematicamente e stabilmente dei segni a dei significati, ma ciò avviene fra umani in modo molto meno rigoroso e univoco di quanto siamo abituati a pensare (basterebbe riflettere su questo per capire l’assoluta inutilità di un semplice rispecchiamento del sistema simbolico analogico di un manoscritto, ad es. attraverso la mera digitalizzazione dei simboli analogici in corrispondenti simboli digitali, senza passare per un’analitica interpretazione).

Il più straordinario sistema simbolico usato per secoli dall’umanità, l’alfabeto, si presta bene a esemplificare ciò che stiamo dicendo. Nell’alfabeto si presuppone che dei segni grafici rinviino a dei suoni (anche solo mentali) come ai loro significati, e la decodifica di tali segni da parte del destinatario è ciò che consente la lettura. Ma se esaminato in base alle cogenti esigenze (informatiche) di univocità, non ambiguità, non ridondanza etc., che la macchina informatica richiede, l’alfabeto si rivela del tutto insoddisfacente.

Accade in realtà di continuo nell’alfabeto che segni diversi abbiano significati identici e, al contrario, che significati (cioè atti di lettura) diversi possano essere veicolati da uno stesso segno; se un tale imperfetto sistema di rinvio da segno ad atto di lettura può funzionare (come in effetti ha funzionato per secoli) ciò accade solo perché interviene una forte cooperazione interpretativa da parte del destinatario-lettore, cioè perché una semantica si sovrappone continuamente alla semiotica, facendoci intendere come identici, o equivalenti per significato, segni che di per sé sono del tutto diversi (in questo caso un segno che sta per il signficato/pronuncia <a>):

TAVOLA 5: Semiotica e semantica nella nostra lettura dell’alfabeto

Ma tale cooperazione interpretativa, naturale negli umani, nel caso della macchina deve essere invece esclusa in via di principio.

Facciamo due semplici esempi tratti dal nostro manoscritto.

Nel primo caso (Tavola 6) leggiamo in modo diverso, a seconda del contesto, dei segni di origine tironiana:

TAVOLA 6: Grafemi e atti di pronuncia 1

­­­­­­

Nel secondo caso (Tavola 7) riferito all’arcigrafema u/v, leggiamo nello stesso modo due segni diversi (=vero/uero) e leggiamo invece in modo diverso (di volta in volta /u/ o /v/) dei segni identici:

TAVOLA 7: Grafemi e atti di pronuncia 2

Si comprende dunque bene come nella nostra ricerca, rivolta a determinare le varianti morfologiche, fosse del tutto inutilizzabile il ricorso ai meri segni alfabetici, senza ulteriori distinzioni analitiche.

Per cercare di dipanarci in questa confusione dell’alfabeto ci è stato necessario allora introdurre delle distinzioni concettuali e terminologiche, ad esempio distinguere all’interno del troppo vago concetto di “lettera” i tre concetti diversi di grafema, alfabema, e glifo, che qui proponiamo.

10. Distinguere tre concetti: grafema, alfabema, glifo

Intendo per grafema una esecuzione materiale grafica che corrisponde a una unità minima (cioè: non suddivisibile ulteriormente) di un sistema grafematico.

Intendo per per alfabema un segno appartenente alla serie alfabetica; per limitarsi alla serie dei segni presenti in una tastiera, il cancelletto <#> o il segno di paragrafo <§> sono dei grafemi ma non sono degli alfabemi, in quanto non appartengono alla nostra serie alfabetica.

L’alfabema va considerato però in quanto astrazione, nella sua forma puramente ideale, cioè a prescindere da qualsiasi particolarità o differenza nella sua esecuzione materiale (forma del grafema, uso di un determinato set di caratteri, maiuscola o minuscola, varietà di esecuzione glifica, etc.). Insomma un alfabema è il tipo ideale di un elemento minimo fra quelli che compongono un set alfabetico dato;

Intendo infine per glifo (o grafo o tipo glifico o variante morfologica) l’esecuzione individuale di un grafema (e nel nostro caso in particolare di un alfabema) quale si presenta nella pratica scrittoria determinata di uno scriba.

In questo senso il concetto di glifo è assai simile a quello di grafo, che è la forma in cui si realizza concretamente il grafema (così come un fono è la forma in cui si realizza concretamente il fonema) ed è significativo che già Cardona attirasse l’attenzione sulla diversità che intercorre fra grafema e grafo e proponesse di segnalare i grafi fra doppie parentesi uncinate per tentare di distinguerli dai grafemi, i quali – come è noto – sono segnalati dai linguisti con parentesi uncinate singole.

Credo tuttavia che usare la parola e il concetto di glifo (invece che grafo), di cui sono debitore a Tito Orlandi, ci permetta meglio di richiamare l’attenzione sulla concreta esecuzione scrittoria, cioè su due fatti: (i) che varianti morfologiche di uno stesso grafema danno in effetti luogo a diversi glifi e (ii) che l’accento della nostra attenzione va posto proprio su tali differenze.

È del tutto evidente, ma va sempre esplicitato, che ci troviamo qui di fronte a scelte selettive del nostro sguardo ermeneutico, cioè a meri livelli analitici dei fenomeni, e più precisamente a livelli di astrazione diversi, e non ad entità fenomeniche ontologicamente diverse; anche il glifo – che nella nostra progressione astraente rappresenta il livello, per dir così, meno astratto e più prossimo alla realtà individua del fenomeno – è, necessariamente, un’astrazione e una generalizzazione tipica (per generalizzazione tipica intendo il ricondurre un fenomeno individuo a un tipo ideale); se così non fosse ogni esecuzione scrittoria darebbe luogo, a rigore, a un glifo diverso; è questo il motivo per cui sarebbe più esatto dire “tipo glifico” che non “glifo”.

Ciò che varia (e ciò che conta) è però il livello di tale astrazione analitica e della riconduzione dei fenomeni a tipi: nel caso della scrittura alfabetica che qui ci interessa, tale astrazione è massima al livello dell’alfabema, e minima al livello del glifo.

Non per caso, mentre il numero dei glifi è del tutto variabile e indeterminabile, il numero degli alfabemi è sostanzialmente fisso in una certa cultura grafica, oscillando fra 21 a 26 per l’alfabeto latino, oppure da 42 a 52, se considerassimo distintamente i grafemi delle maiuscole. L’oscillazione fra 21 e 26 dipende, come è noto, dall’aggiungere oppure no ai 21 segni del nostro alfabeto i 5 alfabemi che qualcuno definisce “non indigeni” (sic!), cioè /k/, /x/, /y/, /j/ e /w/; in realtà a me sembra un po’ strano definire così questi segni, perché davvero non c’è niente di straniero al latino in almeno quattro di essi[8], e non a caso tutti e quattro vengono usati largamente nel nostro manoscritto medievale. Da dove deriva allora questa strana definizione di “non indigeni” per /k/, /x/, /y/, /j/ e /w/? Ancora una volta deriva dalla dominante quanto inavvertita epistemologia di Gutenberg, cioè dal momento storico in cui l’alfabeto si consolidò e si definì nella forma che la mia generazione (forse per ultima) studiò in prima elementare. Quel momento storico – come è noto – si pone fra Cinquecento e Seicento cioè corrisponde all’insediarsi dell’epistemologia gutemberghiana: fu infatti la stampa (con le sue evidentissime e cogenti necessità di standardizzazione) che ridussse e stabilizzò a 21 caratteri l’alfabeto, ad esempio distinguendo su proposta del Trissino[9] fra /u/ e /v/, etc., e rendendo così “stranieri” in Italia degli alfabemi che erano state invece normalissimi nella latinità e nel Medioevo, e che – con un singolare percorso – sarebbero tornati sulle nostre tastiere venendo dal mondo anglosassone e dalla sua scrittura.

Assumiamo comunque nel caso del nostro ms come relativamente stabile il numero degli alfabemi, più ampio ma relativamente stabile è anche il numero dei grafemi, senza confini certi e assai variabile è invece – come detto – il numero dei tipi glifici o glifi da noi considerato; quest’ultimo, nel caso nel nostro scriba anzi del nostro manoscritto[10], si attesta intorno al numero di 100 circa. Si tratterà allora di trascrivere, cioè di codificare, questi 100 segni invece che 21 o 26.

Vediamo, sia pure in modo cursorio, una parte della nostra “Tabella degli alfabemi, dei grafemi e dei glifi” da noi codificati nello Zibaldone Laurenziano autografo di Boccaccio

TAVOLA 8: grafemi, alfabemi, glifi dello ZL: A, B, C, D

Come si vede nella Tavola 8,

/a/ costituisce un solo alfabema, presenta due tipi grafemici (minuscola e maiuscola) ma nel nostro manoscritto ben 7 glifi, di cui tre maiuscoli;

/b/ un alfabema, due grafemi (minuscola e maiuscola) e due glifi, come /c/, e la maggior parte dei casi;

/d/ presenta invece in corrispondenza della maiuscola ben 4 diversi glifi, etc.

TAVOLA 9: grafemi, alfabemi, glifi dello ZL: S

/s/ presenta nel nostro caso il numero massimo di varianti glifiche (vedi Tavola 9), ben 7 per la minuscola (fra cui due forme per la contrazione di “..us”) e 3 per la maiuscola, e così via.

11. La produzione di una “Tastiera dedicata ZLB”

È evidente che una tale codifica (o ipercodifica) presenta come fondamentale il problema del tempo che rende necessario.

A parità di complessità e difficoltà di una pericope di testo da trascrivere, si può dire che fra la nostra modalità di trascrizione/codifica e quella tradizionale della trascrizione diplomatico-interpretativa il tempo da noi impiegato sia almeno di dieci volte superiore.

Questo impiego di tempo noi lo abbiamo considerato – non si dimentichi questo punto – un investimento ragionevole, perché esso ci consente, o almeno ci promette, di poter fornire informazioni preziose che, al di fuori di una codifica informatica analitica, sarebbero per noi del tutto inattingibili.

Per cercare di risolvere questo problema del tempo abbiamo prodotto una “Tastiera dedicata ZLB” (Zibaldone Laurenziano di Boccaccio)”, essendo essa costruita sul nostro ms e non sull’intera produzione scrittoria di Boccaccio.

Così la stessa macchina responsabile di questi tempi lunghi può aiutarci a risparmiare tempo. A questo serve la Tastiera ZLB, che consente con una sola digitazione di un solo tasto di dare luogo a una stringa di caratteri anche molto lunga, a cominciare dalle “entità” della TEI di più frequente utilizzazione. Analoghe tastiere dedicate potrebbero essere prodotte per altri lavori di edizione, con relativa facilità di progettazione e con cospicui guadagni di tempo di lavoro.

12. L’EDIC (per la macchina) e l’edizione interpretativa (per gli umani).

Il testo così codificato adotta il linguaggio SGML compatibile TEI e dà luogo a quella che ho chiamato EDIC (Edizione Diplomatico-Interpretativa Codificata), che si presenta in questa forma:

TAVOLE 10-11

Non è importante che questa pagina sia brutta o illeggibile per noi umani; l’importante è che sia leggibile, anzi operabile, per la macchina e che in tal modo essa possa informarci dell’evoluzione della morfologia alfabetica di Boccaccio, nonché del suo sistema paragrafematico, consentendoci per questa via di datare ogni singolo testo dello ZL e – per ipotesi – anche di dirci qualcosa in merito all’attribuzione autoriale.

Tutte le operazioni di analisi del testo (spogli, Index locorum, Concordanze, ma soprattutto statistiche in ordine alla presenza/assenza e all’evoluzione delle varianti glifiche considerate) saranno condotte – si noti! – solo a partire dalla EDIC, e tuttavia occorre prevedere anche un’edizione rivolta ai lettori umani. Questa sarà dunque corredata di introduzioni critico-filologiche (per i singoli segmenti testuali), di note filologiche e interpretative, e direi anche se possibile di traduzione dal latino, oltre che di utili link alle altre edizioni, cartacee o digitali, ove disponibili. Potremmo anche definire questa edizione rivolta agli umani come EDINT, cioè Edizione Diplomatico Interpretativa (o Edizione Contemporanea: EC).

Trattandosi di un’edizione che abbiamo voluto prendesse sul serio l’informatica,

questa caratteristica deve essere rispettata anche nel momento della fruizione lettoriale, che dovrà essere completamente diversa da quella tradizionale, gutemberghiana e cartacea.

Ad esempio che la pubblicazione debba avvenire liberamente e gratuitamente on line mi sembra evidente, così come è evidente il fatto che si debbano offrire al lettore assieme alla Edizione Diplomatico Interpretativa Codificata anche le diverse operazioni che a partire da essa è stato possibile compiere; infine sarà fondamentale rendere disponibili i files sorgente dell’EDIC, per consentire al lettore di compiere, se lo vuole, sulla base della nostra codifica altre e diverse operazioni di ricerca non previste dal primo editore.

Ora si tratta solo di trovare un editore abbastanza lungimirante da pubblicare 950 pagine (queste, grosso modo le dimensioni dell’edizione) consentendone la fruizione gratuita nella rete. Forse lo Stato serve a cose come queste.

TAVOLA 12: Schema dell’edizione fra digitale e stampa.

La Tavola 12 schematizza i rapporti fra fruizione informatizzata on line e fruizione editoriale tradizionale (cartacea o gutemberghiana) nella progettata edizione.

FINE

  1. Docens Turris Virgatae. E-mail: mordenti@uniroma2.it; www.raulmordenti.it
  2. C. Segre, Avviamento all’analisi del testo letterario, Torino, Einaudi, 1985, p. 29 (corsivo aggiunto).
  3. Dino Buzzetti, Biblioteche digitali e oggetti digitali complessi. Esaustività e funzionalità della conservazione, in Archivi informatici per il patrimonio culturale. Convegno Internazionale organizzato in collaborazione con ERPANET e la Fondazione ‘Ezio Franceschini’ (Roma, 17-19 novembre 2003), Roma, Accademia Nazionale dei Lincei – Bardi Editore Commerciale, 2006, pp. 41-75 (53).
  4. Cesare Segre, Testo, in Enciclopedia, vol.XIV, Tema/motivo-Zero, Torino, Einaudi, 1981, pp. 269-91 (270).
  5. cfr. Raul Mordenti, Paràdosis. A proposito del testo informatico, Atti della Accademia Nazionale dei Lincei, anno CDVIII-2011. Classe di Scienze Morali, Storiche e Filologiche, Memorie, serie IX, volume XXVIII, fascicolo 4, Roma, Scienze e Lettere Editore Commerciale, 2011.
  6. Cfr. Orlandi 2011.
  7. In effetti neanche questo è vero, giacché ‘0’ e ‘1’ sono a loro volta delle rappresentazioni convenzionali, dunque dei segni, che indicano una situazione materiale la quale consiste nel passaggio, o nel non-passaggio, di una corrente elettrica.
  8. Cioè tutti meno la /w/. La /j/ sembra presentarsi invece come una mera variante della /i/, di solito in fine di parola.
  9. Fortunatamente altre proposte del Trissino non passarono: ad es. la distinzione tipografica della differente pronuncia degli arcigrafemi /e/ ed /o/ con il ricorso ai caratteri greci /η/ e /ω/.
  10. Questa distinzione è assai importante: non solo è possibile (o probabile) che in alti mss. boccacciani la situazione sia diversa, ma soprattutto, poiché la scelta di prendere in esame determinati tipi glifici, e non altri, deriva dalle necessità della nostra ricerca, non si deve affatto escludere che – per altre e diverse ricerche – possa essere utile considerare altri e diversi tipi glifici.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.