La Valiunzione del calcolo strutturale una nuova tipologia di validazione – Paolo Rugarli

Affidabilità dei calcoli

Un nuovo approccio alla validazione dei modelli strutturali va facendosi strada in Italia, ponendo nuovi problemi e costituendo un chiaro pericolo. 1) Il controllo automatico dei progetti strutturali fatta da un software proprietario, le regole ed i contenuti del quale sono ignoti. 2) L’emissione da parte della Università di Brescia di un documento di validazione nel quale si dice che uno specifico software è genericamente capace di “eseguire in modo affidabile” l’analisi sismica di una certa famiglia di strutture in accordo alla legge italiana. Questi due esempi pongono il problema di una possibile diffusione di una pratica di validazione degenere, più simile alla sacralizzazione che alla analisi tecnica.

Image credits: kkstudio (Katerina Kamprani)

Autore

Paolo Rugarli – Ingegnere strutturista
La valiunzione del calcolo strutturale
Castalia srl Milano, 2012 – 
www.castaliaweb.com

 

Introduzione

Da quando le NTC 2005 prima, e le NTC 2008, poi, hanno incluso specifiche regole obbligatorie che impongono di eseguire una qualche forma di validazione della progettazione e modellazione strutturale, la validazione è diventata una specie di nuovo El Dorado.

Per lungo tempo trascurata, la disciplina è ora molto di moda, e anche persone che mai hanno sviluppato software né mai hanno effettivamente validato alcun che, ne discettano in articoli e in strilli pubblicitari, o magari hanno incarichi di rilievo nelle preposte Commissioni.

Dato che la disciplina in questione è vastissima ed assai complessa, non è possibile in un solo articolo, e nemmeno probabilmente in un solo libro, darne una esauriente spiegazione, ma in questo articolo ci si limiterà a dire cosa non è validazione, per mettere in chiaro alcuni concetti di base dato che la degenerazione ormai rischia di dilagare. Come dice Montale:

Codesto solo oggi possiamo dirti,
ciò che non siamo, ciò che non vogliamo.

Controlli

E’ bene premettere che la validazione della progettazione strutturale non riguarda solo la modellazione numerica né i soli calcoli strutturali. Per una completa validazione di un progetto servono diverse alte professionalità, e controlli ad ampio raggio. Tuttavia è indubbio che è nell’area del calcolo strutturale che si concentrano le maggiori novità della normativa, ed anche le maggiori insidie. Questo articolo mette in rilievo alcune possibili degenerazioni della validazione dei calcoli e dei modelli strutturali, modelli generalmente fatti mediante l’impiego di software specializzato.

Nel lungo sforzo (tuttora in itinere) di descrivere e catalogare in modo esauriente i problemi e le tecniche utili ad eseguire la validazione di un modello di calcolo strutturale, chi scrive ha proposto in varie occasioni pubbliche (la prima delle quali è al riferimento /1/) una classificazione dei controlli che mettesse al centro logico della attività di validazione il nucleo algoritmico del problema (Fig. 1). Così si sono introdotti i concetti di metacontrollo, esocontrollo ed endocontrollo, da opporre ai metaerrori, gli esoerrori e gli endoerrori.

I metaerrori sono errori teorici, concettuali, e si estrinsecano nell’errato uso di un modello matematico, una teoria, una particolare metodologia. Il metacontrollo è dunque la specifica azione che consiste nel verificare che i modelli e le ipotesi adottate siano correttamente applicabili al caso in esame. I metaerrori sono errori che di solito vengono compiuti per ignoranza o per omologazione del pensiero alla moda, e dunque chi li commette difficilmente è in grado di trovarli da solo.

Gli esoerrori sono errori di uso del modello teorico, come errori di introduzione dei dati, o errori di lettura di un disegno, o banali errori di conto fatto a mente. Sono errori involontari evitabili e rinvenibili da chi li compie. Questi errori sono mitigati, ovvero resi meno probabili, dall’esocontrollo, vale a dire l’ordinato (ri)-controllo dei dati di ingresso e di uscita, da svolgersi con tecniche probabilistiche opportune.

inserire immagine

Gli endoerrori, infine, sono errori compiuti dai programmi di calcolo, in genere fatti da chi li ha programmati, ma anche talvolta commessi a causa di un uso improprio degli stessi programmi. Gli endoerrori non rinvenibili dall’utente mediante controlli sono detti in particolare criptoerrori. A questi errori si contrappone l’endocontrollo, che è di fatto pressoché l’unico controllo che può al momento essere in parte automatizzabile. Per il metacontrollo e per l’esocontrollo serve una testa pensante (o più), per l’endocontrollo basta anche, almeno in una prima fase, un software. Considerazioni probabilistiche (/2/) consentono infatti di escludere endoerrori generici, in presenza di numerose elaborazioni diverse che diano scarti entro certe piccole soglie ed in certi peculiari risultati (non in tutti: scarti elevati su risultati di minore importanza sono attesi, a causa degli errori di troncamento ed arrotondamento ed a causa delle diverse formulazioni: /1/). Per elaborazioni diverse si intende eseguite con algoritmi solutori diversi, e quindi software diversi (cfr. anche il Cap. 10 delle NTC 2008).

Il metacontrollo e l’esocontrollo sono tipicamente controlli della attività di chi ha fatto il modello, mentre l’endocontrollo è prevalentemente un controllo della bontà del software, da farsi seguendo specifiche regole strettamente legate al calcolo numerico. L’endocontrollo di uno specifico calcolo può essere fatto mediante un singolo cross-check con un programma diverso, mentre l’endocontrollo di un intero programma, da controllarsi nel suo complesso, richiede decine e decine o diverse centinaia di casi prova, anni di prove e di test.

Mentre nel metacontrollo e nell’esocontrollo si ha ben chiaro che la realtà fisica è cosa ben diversa da un modello, e quindi si considerano con opportuni criteri i modelli, i dati di ingresso e quelli in uscita, e considerando che un eccesso di precisione è impossibile e inutile, nell’endocontrollo la precisione deve essere la maggiore possibile, e il treno di cifre significative sufficiente. Ciò che si deve valutare, infatti, non è la pregnanza del modello, né la sua aderenza al caso reale di specie, bensì la precisione con cui il programma riproduce un ben preciso calcolo, del quale è noto o calcolabile il risultato asintotico. Lo spazio di riferimento non è quello fisico, ma quello computazionale. Hanno quindi fondamentale importanza informazioni come la mesh, la formulazione degli elementi finiti, gli scarti nei risultati, le metodologie di calcolo adottate (solutori skyline, o sparse, metodo di Cholesky o di Gauss, subspace iteration o Lanczos, ecc. ecc.), e così via. Se si fa una attività di controllo su un software, si sta facendo una serie di endocontrolli, e li si deve fare avendo ben chiaro il terreno su cui ci si sta muovendo, altrimenti si rischia di dire cose infondate.

Ebbene, l’attualità della Repubblica impone di aggiungere a questa classificazione generale di errori e controlli, che si credeva stabile, una nuova categoria di controlli, che si possono definire (osservando che ieratico vuol dire “del sacerdote”, avendo la radice greca ieratikòs), ierocontrolli. Gli ierocontrolli non si contrappongono ad alcun particolare tipo di errore, prescindendo completamente dalla natura e dalla eziologia dell’errore stesso. Essi possono essere definiti così: controlli che, a causa della autorevolezza di chi li ha fatti, o del suo potere economico e/o politico o della sua fama accademica, o dello strumento che ha usato, non possono o non devono o non richiedono di essere a loro volta controllati, ma devono, per così dire, essere accettati a scatola chiusa. L’attività di validazione che ne consegue, non essendo controllabile o discutibile, non può ovviamente dirsi una autentica validazione (che come vedremo è sempre di tipo probabilistico e mai completa), ma deve dirsi una valiunzione, ovvero la unzione dell’entità da controllare con l’autorità del controllore che, dotata di un’aura di intoccabilità e di perfezione, automaticamente modifica l’entità da controllare trasformandola in valida. La procedura ierocontrollata potrà dirsi valiunta dall’Autorità di specie. La valiunzione è per definizione un atto di remissione, se non di fede, e quindi non è per definizione una attività scientifica.

Ovviamente il controllo di uno ierocontrollo si configura come una offesa, così come è scortese la sfiducia nelle virtù taumaturgiche e rigeneratrici di una unzione sacra: per definizione lo ierocontrollo non richiede ulteriori approfondimenti. Infatti, se lo ierocontrollo fosse esso stesso controllato, e lo si trovasse per pura ipotesi errato, infondato, pretestuoso, puerile o addirittura in ipotesi criminale, l’aura celeste di chi lo ha preparato ne verrebbe intaccata. Cosa che non deve succedere. Invece lo ierocontrollo è fatto da Persone o Enti così al di sopra di ogni sospetto che non potrebbe essere discusso. E di solito non lo è.

E’ chiaro che questo è il germe della Autocrazia e dell’Ancien Régime. E’ qualcosa di arcaico, di incompatibile con le regole di una civiltà moderna. Lo ierocontrollo è la negazione della modernità e dell’approccio scientifico.

In questo articolo vedremo due esempi di procedure che rischiano di sembrare ierocontrolli: uno ierocontrollo in senso stretto (nel quale l’oscurità è completa e l’aura di sacralità totale) ed uno ierocontrollo in senso lato, nel quale è possibile fare luce e capire che si tratta di un controllo fatto in modo discutibile, ma, siccome a farlo è un’Università della Repubblica, su carta intestata, ciò pone delle spinosissime, intrattabili, questioni politiche e amministrative. Si può forse dire senza scandalo, infatti, che una Università attesta cose impossibili da attestare? E’ obiettivamente scandaloso.

Il concetto di controllo a scatola chiusa (applicabile al primo dei due esempi) fa tornare alla mente un delizioso e pertinente siparietto che c’era tanti anni fa, a Carosello. Un agguerrito venditore propone a un signore uno strano marchingegno, decantandone le lodi (“mi creda, ogni pezzo vale oro”). Allontanatosi per un attimo, al suo ritorno trova il marchingegno fatto a pezzi, ed esclama: “ma cosa ha fatto? Lo ha aperto!” (Fig. 2) ottenendo la celebre risposta “Io a scatola chiusa compro solo Arrigoni!” (/3/).

Questo appunto dovrebbe fare una buona validazione: fare a pezzi per capire ogni cosa, e poi spiegare anche cosa si è fatto in modo che chiunque possa averne contezza.

Validazione automatica e secondo metodologie ignote

Un Ente (non a scopo di lucro) mette a punto una procedura automatica che funziona sul web e che ha per scopo ” digitalizzare l’intera procedura di invio, gestione e

controllo delle pratiche edilizie ” (/4/). Questa procedura richiede una serie di dati in merito ad un generico progetto strutturale, ed in cambio è in grado di controllarlo automaticamente, emettendo un giudizio di conformità. Infatti essa è (/4/)

“l’unico software in grado di supportare le regioni e le province nelle verifiche di conformità della progettazione di costruzioni in zone sismiche”.

La procedura nella versione adottata dalla Regione Calabria si chiama SI-ERC, SIS nella versione adottata dalla Regione Emilia mentre GIPE è il nome assegnatole dal produttore.

Le “verifiche di conformità”, vengono eseguite automaticamente a partire dai dati di ingresso, e consentono ai funzionari statali incaricati di “dare un supporto alla valutazione delle pratiche stesse basato su algoritmi derivati dalle più recenti ricerche scientifiche”. In pratica di delegare a un wizard il primo controllo dei progetti.

L’Ente vende la procedura alle Amministrazioni pubbliche, che se ne dotano rivalendosi poi sui progettisti, che sono obbligati ad usarla. Infatti come suggerito dallo stesso Ente produttore:

“È importante evidenziare come sia possibile, da parte dell’Ente utilizzatore, richiedere ai progettisti il versamento di un contributo per l’avvio della procedura di valutazione della pratica edilizia, ottenendo così un’importante fonte di autofinanziamento.” /4/

Per la proprietà transitiva, i progettisti pagano per essere validati da questa stra-ordinaria (“unica”) procedura, fatta dall’Ente.

Procedure automatiche che verifichino la presenza di tutti i documenti necessari o che facciano un controllo formale sono ipotizzabili e comprensibili (e in questa prima versione tale procedura pare stata sino ad ora adottata dalla Regione Emilia). Qui però si parla del controllo sostanziale. A riprova di ciò si deve citare la lettera della legge regionale della Regione Calabria del 19 ottobre 2009 /20/, così come modificata dalla legge regionale del 5 gennaio 2010 /21/ (art. 7, commi 2, 3 e 6, la presente scrittura tiene conto delle modifiche):

“7.2 Le verifiche sono eseguite secondo quanto specificato dal Regolamento regionale, anche con il supporto della procedura informatizzata SI-ERC. L’utilizzo di tale procedura garantisce l’uniformità dei dati che i progettisti trasmettono agli Uffici Tecnici Regionali e, di conseguenza, l’uniformità della valutazione. I dati trasferiti dai progettisti mediante il SI-ERC consentono inoltre, ai fini della verifica, elaborazioni indipendenti secondo quanto stabilito dal paragrafo 10.1 delle NTC08 da parte di soggetti diversi dal redattore del progetto. La procedura SI-ERC esegue tali elaborazioni in modo automatico a garanzia della univocità del processo.

“7.3 Il Servizio Tecnico Regionale esegue, per tutte le opere classificate dal Regolamento come a) edifici e b) ponti, verifiche preliminari di conformità dei progetti. Le verifiche vengono condotte in modo automatico attraverso i dati inseriti nel sistema informatico SI-ERC così come stabilito dal Regolamento stesso.”

“7.6 Per le opere relative alle classi d’uso I e II le verifiche sostanziali sono effettuate sulla base delle verifiche preliminari di conformità di cui al precedente comma 3, secondo quanto specificato dal Regolamento. Tali verifiche corrispondono ad una serie di controlli ai sensi delle NTC08 che consentono di identificare le strutture sicuramente adeguate, quelle sicuramente inadeguate e quelle che richiedono un controllo sostanziale più approfondito.”

Questo vuol dire che tutti gli edifici e i ponti in Classe d’uso I e II sono verificati dal SI-ERC (“le verifiche sostanziali sono effettuate sulla base delle verifiche preliminari”, le verifiche preliminari “sono condotte in modo automatico dal SI-ERC come stabilito dal Regolamento stesso”).

Qui ci sono importanti questioni di cui discutere, di interesse generale. Infatti qui si discute di cosa sia la validazione, e di come le Amministrazioni Pubbliche debbano comportarsi. Vi sono almeno tre problemi.

Il primo problema è di principio. I controlli del Cap. 10 delle NTC non possono essere fatti da una procedura automatica, ciò stravolge sia lo spirito della legge che la sua lettera. Lo spirito della legge, perché la legge voleva imporre controlli approfonditi, replicabili e controllabili, controlli autentici fatti da esperti diversi, in carne e ossa. La lettera della legge, perché la NTC 2008 dice che i controlli indipendenti devono essere fatti “da soggetti diversi”. Un soggetto per la legge vuol dire una persona fisica o giuridica, non una macchina. Dunque la legge regionale appare essere fuori-legge, nel senso che si sovrappone a una legge nazionale, di fatto svuotandola di significato. La legge regionale asserisce che un software è assimilabile a un “soggetto diverso”, mentre così non è: un software è un software, non è un soggetto.

Il secondo problema è che la procedura, in sé, non si sa cosa sia. Cosa faccia. Come esattamente lo faccia. Quindi non si può giudicare. Non si può valutare. Non si può comprendere. Né risulta che per la fornitura vi sia stata una gara, una qualsiasi forma di competizione o di valutazione comparata, dato che il progetto è unico. Si tratta di una vendita in regime di monopolio, e per di più completamente oscura nei contenuti effettivi. E’ un mistero, ed è appunto per questo che si è portati a parlare di ierocontrollo, ovvero di controllo di tipo sacrale, di una procedura a cui credere a scatola chiusa. Estese ricerche su Internet non hanno portato ad alcuna pubblicazione che spieghi cosa effettivamente faccia tale procedura. Si è cercato anche nei siti internazionali, ad esempio tra i report del PEERC (Pacific Earthquake Engineering Research Center), per vedere dove fosse la notizia di tanta mirabile procedura, che automaticamente giudica i progetti in zona sismica, ma niente. Nessuna notizia. Neppure nel sito dell’Ente produttore. Eppure un simile ritrovato dovrebbe essere proposto alla ammirazione dei tecnici di tutto il mondo. Si sono fatte formalmente alcune domande alla Regione Calabria. Tra le domande poste le seguenti:

E’ vero che il SI-ERC non serve solo a verificare la regolarità formale delle pratiche edilizie ma anche a validare il progetto strutturale distinguendo tra “progetti che sicuramente vanno bene, progetti che sicuramente non vanno bene e progetti da rivedere”?

Premesso che la delibera regionale del 19-10-2010 ha stanziato 400 000 euro per l’acquisto della procedura, tale cifra rappresenta la spesa complessiva per la Regione o vi sono altre spese?

Chi ha validato la procedura SI-ERC? Esiste un documento di validazione pubblico che possa essere consultato?

E’ noto alla Amministrazione cosa esattamente, nel dettaglio, fa la procedura SI-ERC, e dove si possono reperire tali informazioni, se sono pubbliche?

Quali soglie di errore sono considerate accettabili nel raffrontare i dati attualmente introdotti e quelli obiettivo?

Esiste, per quanto sia noto alla Amministrazione, un vero e proprio calcolo strutturale fatto in background relativo al progetto strutturale da controllare o invece le operazioni che il programma fa per controllare si possono eseguire con carta, penna e calcolatrice da tasca (come qualcuno ha sostenuto)?

Esiste, per quanto sia noto alla Amministrazione, qualche pubblicazione scientifica italiana o internazionale con peer review dove ciò che il SI-ERC fa per controllare il progetto strutturale sia stato esposto e spiegato?

Esiste una bug list consultabile relativa al prodotto SI-ERC?

In presenza del rinvenimento di un difetto o di un errore nel SI-ERC quali procedure ha previsto la Regione per informare chi ha presentato le pratiche e per rivedere le pratiche già controllate?

La Regione Calabria (/23/) ha risposto negando che i controlli vengano in definitiva fatti dal solo software, che costituirebbe meramente un ausilio alla attività di validazione condotta invece dai funzionari (ma ciò a rigore di cronaca non è in effetti quello che è scritto nella Legge Regionale). Il software SI-ERC si limiterebbe a fare dei controlli eseguibili con calcolatrice da tasca (ma ciò sembra in contraddizione con gli “algoritmi derivati dalle più recenti ricerche scientifiche”) e non eseguirebbe altri calcoli più complessi. Dato che la validazione la fanno i funzionari, dice sempre la Regione Calabria, tutti i problemi sulla necessità di chiarire la validazione, origine e contenuto del software SI-ERC vengono meno. Inoltre, la Regione fa presente, comprensibilmente, l’estrema onerosità dei controlli che per legge essa deve fare, come tutte le altre Regioni, e dunque invita a ben comprendere la necessità di una qualche forma di ausilio. La Regione ha informato della esistenza di un bando pubblico appena uscito relativo al SI-ERC, e precisato che i soldi effettivamente spesi per il SI-ERC non sono esattamente desumibili dato che i capitoli di spesa prevedevano varie poste e non una sola. Infine, vengono smentite come leggende metropolitane le voci circolate che prevedono un contratto di manutenzione ventennale con l’Ente e una spesa di un milione di euro.

A noi – e lo abbiamo detto lealmente al Dirigente interpellato-, la risposta non è parsa completamente chiarificatrice, in quanto ancora non è chiaro cosa faccia esattamente il SI-ERC né come esattamente funzioni il processo decisionale. Questo non è stato spiegato in dettaglio, né possiamo entrare negli uffici della Regione Calabria. Ci limitiamo a leggere con molta attenzione il testo della Legge Regionale in vigore, ed a fare ricerche per capire di più. Se la procedura interna della Regione non prevede che il SI-ERC, contrariamente a quanto scritto nella Legge Regionale stessa, emetta giudizi automatici sulle pratiche in modo da decidere se sono sicuramente adeguate, ce ne rallegriamo. La Legge Regionale dice però obiettivamente un’altra cosa: “Tali verifiche corrispondono ad una serie di controlli ai sensi delle NTC08 che consentono di identificare le strutture sicuramente adeguate,…” (/20/, /21/, art. 7.6)”.

A suffragio del fatto che il SI-ERC è un guardiano non aggirabile, pur essendo a noi ignoto ciò che fa, e non uno strumento suppletivo, giunge però, ad esempio, la notizia di uno stabilimento balneare in legno che non è stato approvato perché non dispone del piano rigido, e per il quale si attende che l’Ente introduca le necessarie integrazioni al software. Varie altre segnalazioni riguardano l’onerosità della introduzione dei dati, e la rigidità dei dati di ingresso, alcuni dei quali si potrebbero inserire con valori non aderenti alla normativa.

Il terzo problema, questo più di natura estetica, è che lo stesso Ente che ha sviluppato il software ha dato (/22/) “supporto per la stesura della nuova normativa regionale approvata da parte del Consiglio Regionale con legge n. 35 del 19 ottobre 2009”, ovvero per la stesura della stessa legge che si è citata in precedenza. La legge regionale che dà al SI-ERC il crisma di controllore automatico è stata fatta con l’aiuto determinante di chi ha sviluppato il SI-ERC stesso, cioè dell’Ente.

Forse si vuol implicitamente sostenere che controlli a tappeto di tipo preliminare e di contenuto ignoto, siano preferibili ai “vecchi” controlli sostanziali a sorteggio, fatti da tecnici competenti. Ma tale tesi non è condivisibile, in quanto il progettista ora sa di doversi misurare con un software, non con una testa pensante, con tutto quanto ne consegue (continuiamo infatti a ritenere che le teste pensanti, se preparate, siano meglio di qualunque software).

Si sa che ben due Regioni della Repubblica Italiana hanno già acquisito la procedura, e che diverse software house si sono attrezzate per fare in modo che i loro programmi preparino automaticamente i dati per il Grande Moloch (errando a parere di chi scrive per fretta eccessiva).

Dobbiamo quindi concludere con stupore, che una procedura della quale:

non si sa cosa faccia esattamente;

non si sa chi l’abbia fatta esattamente se non genericamente l’Ente;

non si sa secondo quali principi, modelli, semplificazioni, ipotesi, algoritmi, basi di validazione sia stata fatta…..

… sia per Legge Regionale autorizzata a controllare automaticamente tutti i progetti di edifici e ponti in Classi I e II in una Regione della Repubblica.

Il progettista in Calabria è tenuto a dimostrare di aver fatto l’esame al suo software ed è tenuto a descrivere le sue procedure di validazione (via cap. 10 NTC). L’Amministrazione invece no, può controllare mediante uno strumento automatico di cui nessuno sa nulla, ma che, perché messo a punto da un Ente al di sopra di ogni sospetto può essere imposta per legge (regionale, per ora) senza che nessuno al di fuori di una ristretta cerchia sappia esattamente cosa fa, nel dettaglio.

Il controllo automatico fatto dall’Amministrazione pubblica è esente da controlli pubblici, dato che nessuno che non appartenga a una ristretta cerchia sa cosa venga fatto. Il controllo automatico fatto dall’Amministrazione pubblica è in effetti fatto dall’Ente, mediante procedura software SI-ERC misteriosa e sacrale. Il controllo fatto dalla procedura misteriosa e sacrale appare dunque come uno ierocontrollo, una unzione sacra, della quale occorre fidarsi ciecamente. La pratica edilizia sottoposta al controllo della procedura non controllata è valiunta da essa, e come tale non più soggetta ad altri controlli (“strutture sicuramente adeguate”).

Leggendo il manuale del GIPE si constata che ivi si parla di controlli di primo livello, che non escludono i “vecchi” controlli di secondo livello (fatti dai funzionari), quando la validazione sia stata negativa (infatti la procedura può, a suo giudizio, asserire che la pratica non va bene, e quindi richiedere controlli ulteriori). Se invece la validazione c’è stata, il controllo di secondo livello non è (più) necessario, nemmeno a sorteggio. Si potrebbe sostenere che sebbene la procedura automatica possa forse anche sbagliare, e quindi dare per buono un progetto che forse tanto buono non era, o magari dare per rivedibile un progetto molto ben fatto, gli eventuali errori non possono essere considerati peggiori di quelli che si commetterebbero con una estrazione a sorte dei progetti da controllare, come oggi spesso si fa.

Invece a giudizio di chi scrive questi possibili (sempre possibili) errori sono peggiori per varie ragioni:

sono peggiori, perché si rischia di dare una patente di accettabilità sulla base di metodologie proprietarie del tutto ignote.

Sono peggiori perché prima un progetto non controllato era non-controllato, ora un progetto ierocontrollato è controllato; da chi? Dall’Ente. Come? Non si sa. E d’altro canto se i funzionari devono rifare i controlli già fatti dal software, non ne si vede l’utilità, mentre se il software orienta i controlli, già svolge una funzione eccessiva per un software di cui pubblicamente, nulla di sa. A meno che non si accetti un ragionamento alla Arrigoni, per cui tale software andrebbe accettato a scatola chiusa in quanto fatto dall’Ente, e ciò al di sopra di ogni indagine o dubbio anche tecnico, cosa che non dovrebbe andare bene, dato che si parla di pubblici uffici, e non delle scelte di privati.

Sono peggiori perché accentrare tutti i controlli sui progetti strutturali della Repubblica (è là che infatti si tende ad arrivare), fossero anche solo relativi a strutture in Classi d’uso I e II, o anche solo di una unica Regione della Repubblica (come già avviene), nelle mani di un unico Ente, è estremamente pericoloso e potenzialmente disastroso.

Chi scrive crede che non si possa accettare a scatola chiusa nulla, nemmeno il software dell’ Ente.

Dimenticavo quello che appare un dettaglio data la generale validità delle argomentazioni, il nome dell’Ente: l’Ente si chiama Eucentre.

Certificazione universitaria della attendibilità di un software

La ricerca di strategie per risultare più competitivi fa parte delle regole del gioco nella libera attività economica, ed in sé è una buona cosa. Capita tuttavia che in questa legittima ricerca, qualcuno si faccia prendere dalla foga ed adotti strategie di competizione molto discutibili o addirittura scorrette, non tanto e non solo nei riguardi della concorrenza (chi sviluppa programmi per il calcestruzzo armato), ma soprattutto nei riguardi del bene pubblico.

E’ il caso del prodotto CEMAR (/8/), prodotto e pubblicizzato dalla ditta Tecnobit, che assume di essere stato “certificato e validato dalla Università di Brescia”, un qualcosa che molti software vorrebbero avere, ma che non possono avere. Non possono averlo non perché siano meno buoni del programma della Tecnobit, ma perché nessun programma può essere certificato o validato in senso assoluto.

Alla lettura dello strillo pubblicitario si è subito pensato ad una esagerazione, una millanteria della Casa produttrice, magari alla ricerca (umana) di un po’ di visibilità.

inserire immagine

Ebbene, purtroppo non è così: il Dipartimento di Ingegneria Civile, Architettura Territorio e Ambiente (DICATA) dell’Università di Brescia ha effettivamente dichiarato di aver validato il software, e questo, per le ragioni che ora vedremo in dettaglio, è molto grave. Il Dipartimento si è candidamente dato il diritto di dire una cosa che non poteva tecnicamente dire, meno che meno sulla carta intestata di una Università.

Infatti la validazione di un programma software abbastanza ampio non può essere fatta in senso assoluto. Nessuno può affermare “questo software è valido perché l’ho provato in alcuni casi e mi ha dato risultati soddisfacenti”. Tutto quello che si può dire è: “io asserisco e certifico di aver eseguito delle prove, queste, e di aver riscontrato che in queste prove, eseguite con questa macchina, questo sistema operativo, questa versione del software, in questi specifici casi, i risultati, per queste ragioni, sono apparsi a me soddisfacenti”. Si capisce che c’è una bella differenza. Il Dipartimento ha invece dichiarato nella sua “relazione conclusiva del programma CEMAR 9.03”, e su carta intestata della Università di Brescia, che (/8/) “il software CEMAR esegue in modo affidabile il calcolo della risposta della struttura alle azioni orizzontali dovute al vento o sisma secondo modelli coerenti con quelli suggeriti dalle Norme Tecniche per le Costruzioni, restituendo risultati attendibili”.

Tale affermazione corrisponde in un solo colpo: 1) ad una validazione del metodo “semplificato” seguito dal programma (che invece come vedremo non è giusto in assenza di specifici controlli che mancano, metavalidazione assoluta). 2) Ad una validazione assoluta dei suoi algoritmi e della sua fase di soluzione e post processing, cosa totalmente impossibile per definizione (endovalidazione assoluta).

Usando la classificazione proposta da chi scrive, il software con questa affermazione è stato metavalidato ed endovalidato in senso assoluto.

A causa dell’uso del presente indicativo, il documento in questione ha effettivamente varcato un Rubicone, spingendosi ad affermare – caso unico al mondo – che il programma “esegue in modo affidabile” quei calcoli. Non: “ha eseguito”; ma:” esegue”. Purtroppo il Dipartimento non può fare questa affermazione, a meno che non sia Dio, perché non può provarla2.

Relativamente all’endocontrollo, il Dipartimento non può essere sicuro che a causa di fatti ad esso ignoti, e sempre possibili, per qualche caso particolare (dovuto

al particolare modello, configurazione strutturale, carichi, sito, alla particolare macchina, sistema operativo, versione del programma, configurazione della memoria, occupazione di spazio su disco, ecc. ecc.) quel programma, come tutti i programmi, possa fornire anche risultati non corretti. Nessuno può dire di nessun programma “esegue in modo affidabile i calcoli”. Lo si potrebbe dire solo in termini probabilistici, in funzione del numero di test eseguiti. L’Università di Brescia pare ne abbia eseguiti quattro o cinque. O almeno tali sono i casi reperibili nel sito del produttore ed ascritti alla Università di Brescia. E’ bene dirlo chiaramente: nessuno può validare in senso assoluto alcun software, se lo fa, fa una cosa sbagliata. Dice, ricordando i Viaggi di Gulliver, “cosa-che-non-è”, cosa che non esiste e non può esistere.

Inoltre, passando al metacontrollo, sono purtroppo mancati alcuni controlli fondamentali che non risultano soddisfatti, quindi anche il metacontrollo non va bene, e la “semplificazione” proposta dal metodo è pericolosa e fuorviante. Qual è tale semplificazione? Lo spiega il sito del produttore:

“Lo schema statico di Cemar_NTC è quello di elementi verticali incastrati alla base con solai considerati infinitamente rigidi nel loro piano. Questo modello fornisce molti vantaggi al progettista in quanto gli permette di:

dimensionare gli impalcati (solai e travi) in modo tradizionale utilizzando lo schema a trave continua con i carichi gravitazionali previsti dalla normativa allo SLU;

continuare ad utilizzare le travi in spessore di solaio, non essendo considerate sismo-resistenti come negli schemi a telaio;

evitare l’imponente mole di parametri e dati di input tipica dei software ad elementi finiti e la conseguente probabilità di commettere errori;

evitare i nodi trave-pilastro secondo le prescrizioni della normativa, difficilissimi da realizzare in cantiere a causa dell’enorme congestione di armatura.”

In pratica verrebbero ad essere considerati sismo resistenti solo le pareti mentre le travi e le colonne no, sarebbero “elementi secondari”. Spiega ulteriormente il documento di validazione della Università di Brescia (/9/, corsivo nostro):

“Con riferimento al DM 14-1-2008, il modulo di calcolo ‘Analisi sismica’ è destinato alla modellazione di:

edifici monopiano a pilastri isostatici;

edifici multipiano a pilastri isostatici con vincoli a cerniera tra travi e pilastri (come tipicamente si verifica nelle strutture prefabbricate);

edifici a struttura sismo resistente a pareti non accoppiate in calcestruzzo armato ove ricorrano le condizioni, previste dal DM 14-1-2008, per cui il telaio strutturale possa essere considerato elemento secondario non sismo resistente. Questo è tipicamente il caso di edifici con un numero di piani fuori terra non superiore a 4, con travi e solai di bassa rigidezza flessionale (es. travi in spessore) e con setti di controvento caratterizzati da rapporti lunghezza spessore della sezione Lw/bw 4” (corsivo nostro).

In pratica si vuole considerare un edificio fatto nel vecchio modo (travi in spessore) ma con qualche “parete”, come un “sistema a pareti” considerando secondarie tutte le travi e tutte le colonne considerate, anche nel documento di validazione, non “sismo resistenti”. Via la gerarchia delle resistenze, tutto magicamente si semplifica. La struttura è vecchia come concezione e realizzazione, ma magicamente si adatta alle nuove regole. Dicono infatti i produttori, nella locandina del “Seminario Formativo” tenutosi il 14 maggio a Roma, presso, ahimè, l’Ordine degli Ingegneri della Provincia di Roma, ed intitolato “Il calcolo sismico di strutture in c.a. secondo le N.T.C. 2008 ‘ un modello semplificato'”:

“Spesso il progettista non ha più la percezione di avere ‘sotto controllo’ la struttura e sembra che tutta la sua professionalità sia ‘affidata’ al software. Il modello strutturale Semplificato [sic] che viene presentato in questo seminario aiuta il progettista a riappropriarsi della struttura e dei numeri che la controllano, portando anche una grande semplificazione nella fase esecutiva di cantiere.”

Oltre all’Ordine di Roma, il programma è stato presentato o sarà presentato agli Ordini di Lodi, Treviso e Vicenza. Il Produttore ha prontamente utilizzato la “validazione” per pubblicizzare il prodotto, non l’ha tenuta in un cassetto per chi l’avesse chiesta. Nella pagina del prodotto (/8/) troviamo infatti scritto:

“Il solutore Analisi Sismica di Cemar 9.03 è stato sottoposto ad approfonditi test e verifiche condotte dal Dipartimento di Ingegneria Civile, dell’Università di Brescia, ottenendo un esito positivo e la conseguente validazione e certificazione del software da parte di tale facoltà.

Questo attestato va quindi ben oltre quanto stabilito dal cap. 10 delle NTC che richiede alla software house di fornire ampia documentazione circa i modelli di calcolo, gli algoritmi impiegati ed esempi di calcolo commentati e realizzati con il proprio software, documentazione comunque inclusa a corredo del software.”

inserire immagine

Nello “spot” del programma /15/ si legge testualmente (evidenziazioni nostre):

“CEMAR, l’unico software che semplifica i calcoli per le NTC 2008. Gli altri software ti fanno fare…ammassi di ferri irrealizzabili? Pacchi di tabulati incomprensibili? Sei preoccupato da … ‘spettro di risposta elastico’, ‘analisi lineare’, ‘fattore di struttura’, ‘modi di vibrare’, ‘analisi dinamica modale’, ‘periodo di ritorno’, ‘baricentro delle masse’, ‘raggio di inerzia polare’, ‘pseudo accelerazione sismica’, ‘centro di taglio’ ?

Risolvi tutto con CEMAR, metodo di calcolo semplificato a setti certificato dall’università di Brescia tutto a soli € 390”.

Le parole tra semplici virgolette fluttuano minacciosamente nella pagina del filmato pubblicitario (Fig. 4): ma si tratta di concetti che chiunque faccia calcoli strutturali in zona sismica dovrebbe conoscere a menadito, e dei quali, certo, non essere “preoccupato”.

Nella presentazione della società (/16/) è ribadito il concetto che CEMAR è l’unico software ad essere stato validato da una Università italiana:

“CALCOLO STRUTTURALE. Il nostro prodotto di riferimento su questa tematica è il software Cemar, un programma che, rispetto ai concorrenti, presenta tre grandi punti di forza:

– unico software italiano ad aver ottenuto la validazione del metodo di calcolo adottato da una Università Italiana;

– semplifica al massimo la grande complessità della recente normativa anti-sismica (NTC 2008), a differenza dei software concorrenti, più sofisticati ma difficilissimi da utilizzare;

– un prezzo molto contenuto, a differenza dei concorrenti che costano 3 volte di più.

Questo binomio semplicità/prezzo ci ha garantito un ottimo successo di vendita.”

E qualcuno ha infatti rilanciato, per gli “ingegneri sezione B” traendo sue – è da dirsi: disastrose – conclusioni, che tuttavia devono essere lette sino in fondo (/17/, corsivo aggiunto, il resto invariato):

“In allegato un documento ufficiale del mondo universitario nel campo della progettazione strutturale di edifici.

Trattasi di un software di analisi strutturale dell’Università di Brescia, redatto appositamente per ingegneri con laurea dalla durata triennale da cui le loro progettazioni con metodo standardizzato di opere semplici.

Infatti la particolarità di questo software è quella di implementare un “Modello di calcolo” SEMPLIFICATO.

Nell’ultimo capoverso della prima pagina viene dichiarato dall’Università di Brescia:

‘In particolare, il modulo di calcolo Analisi Sismica utilizza un modello strutturale semplificato che consente di eseguire analisi con metodologie standardizzate, come l’analisi dinamica lineare (analisi modale e a spettro di risposta) e l’analisi statica lineare per strutture sismo resistenti in calcestruzzo armato…’

E’ evidente che il richiamo all’Art. 46 del DPR 328/01 dove si citano le ‘costruzioni civili semplici’ e le ‘metodologie semplificate’, trova in questo documento ufficiale rilasciato da una università, un chiarimento nel campo della progettazione strutturale.

In altre parole la ‘costruzione civile semplice’ nell’ambito strutturale coincide con l’uso di un “Modello di calcolo semplificato” (cioè semplice). Mentre le “metodologie standardizzate” sono

delle metodologie di analisi strutturale ormai consolidate e normate come appunto, l’analisi dinamica lineare e l’analisi statica lineare.

Tale dichiarazione di natura accademica/universitaria è la dimostrazione dell’esatto contrario di ciò che sostiene il CC.SS.LL.PP. C.N.I. & il suo Centro Studi cioè che non esistono costruzioni semplici in zona sismica. Affermazione, quest’ultima, RIDICOLA in quanto priva di dimostrazioni tecniche/scientifiche/giuridiche con valenza nazionale.”

E’ chiaro l’effetto distorcente (anche sulla concorrenza) che il lavoro della Università di Brescia ha consentito di compiere.

“Se lo dice l’Università di Brescia che va bene, noi abbiamo fatto ben più di quello che chiede la normativa”.

Metacontrollo del “metodo semplificato”

Le struttura “a pareti” in accordo a NTC 2008 §7.4.3.1 , sono quelle “nelle quali la resistenza alle azioni sia verticali che orizzontali è affidata principalmente a pareti singole o accoppiate […]”.

L’esempio in /9/, un telaio multipiano con travi in spessore, colonne e pareti, ha un’area emergente di pareti pari a 51000 cmq, e di colonne pari a 32000 cmq. Le colonne (ben 20 pilastri isolati, 40×40), coprono il 38% dell’area strutturale emergente (quella di N/A) e in questo e negli altri esempi sono dichiarate “secondarie”. Le pareti il 62%. Non pare che questo significhi che la struttura resiste ai carichi verticali “principalmente” con le pareti. Ampie zone della pianta sono sorrette solo da colonne isolate, non da pareti. L’esempio 1 (/12/) ha 6400 cmq di “pareti” (4 da 80×20) e 4500 cmq per le colonne (5 da 30×30). L’esempio 2 ha in pianta 5 “pareti” da 80×20, 9000 cmq, e 8 pilastri da 25×25, 5000 cm. L’esempio 3, infine, ha 4 setti da 100×25, 10000 cmq, e 5 pilastri da 30×30, 4500 cmq.

Secondo il §7.2.3 delle NTC 2008 si possono definire “secondari” elementi che portino ad un aumento della rigidezza laterale non superiore al 15%:

“…nè il contributo alla rigidezza totale sotto azioni orizzontali degli elementi secondari può superare il 15% della analoga rigidezza degli elementi principali”.

Dunque bisogna fare un controllo che il programma non fa e che non fa la relazione di validazione, nemmeno nei casi da essa proposti a mo’ di esempio di accettabilità del metodo semplificato.

Questo controllo di rigidezza si deve fare (si veda ad esempio /11/ o /18/) mediante due modelli: in un modello “PS” ci sono tutti gli elementi, principali e secondari, nell’altro modello “P” ci sono solo, ai fini della resistenza alle azioni orizzontali sismiche, gli elementi principali. Entrambi i modelli devono essere assoggettati allo stesso sistema di forze, di solito quello derivante da una analisi

statica equivalente (/11/). Gli spostamenti nel caso “P” saranno maggiori di quelli del caso “PS”. Deve risultare:

KSP = F/sSP < 1,15 KP = 1,15 F/sP

e quindi

Spostamenti “P” < 1,15 Spostamenti “SP”

La norma è chiara: “la rigidezza” non deve cambiare per più del 15%. E per misurare una variazione di rigidezza, o si misurano variazioni di spostamento a parità di forza, o si misurano variazioni di forza a parità di spostamento, su due modelli diversi.

E’ importante notare che la procedura, spesso descritta in forum, documenti a firma di alcuni autori e altro che circola in rete, secondo la quale il controllo sulla variazione di rigidezza si dovrebbe fare facendo due calcoli sismici a spettro di risposta su due modelli diversi, e verificando che le azioni alla base prese dagli elementi primari cambino poco, è errata. Infatti, a tacer d’altro, se cambia la rigidezza cambiano i periodi e dunque cambiano i coefficienti di risposta, ovvero le ordinate dello spettro. Dunque due modelli con spostamenti e azioni applicate differenti verrebbero controllati per misurare, tramite il confronto dei tagli alla base o delle azioni interne, una variazione di “rigidezza”. Come detto tale pratica è errata: per misurare una differenza di rigidezza la via corretta è sottoporre i due modelli diversi al medesimo insieme di forze e misurare le differenze di spostamento.

E’ errata anche l’altra pratica, in particolare proposta nei filmati di presentazione del prodotto CEMAR (/19/), ma anche altrove descritta, secondo la quale il controllo di normativa si farebbe paragonando i tagli alla base del modello completo PS assorbiti dagli elementi “secondari” con quelli complessivi. Infatti i tagli alla base non sono in relazione diretta con le rigidezze, e può tranquillamente avvenire che pur in presenza di rigidezze molto diverse tra modello P e modello PS, il carico orizzontale migri comunque quasi tutto sugli elementi P, anche nel modello PS. Vedremo in seguito un esempio concreto di tale affermazione (ma basta vedere la Fig. 5).

inserire immagine

Si dovrebbe fare il controllo ad ogni piano (/11/), noi lo faremo solo in sommità.

Per fare questo conteggio che manca dalla relazione di validazione, si è rifatto il modello dell’edificio descritto in /9/, cercando di replicare i risultati ivi descritti (e quindi adottando ipotesi che sono anche sembrate discutibili, come quella di usare elementi beam per le pareti o non modellare le eccentricità. Si sono avuti problemi perché il modello non è descritto esattamente, ad esempio per la parte torsionale, nulla si sa). L’analisi modale del modello fatto da chi scrive, denominato “SR”, ha mostrato in termini di periodi dei primissimi modi risultati molto vicini, praticamente identici, a quelli ottenuti nel documento /9/ e dati rispettivamente come “EF” ed “EF+telaio” il che ha dimostrato che si era modellato l’edificio in modo molto simile a come fatto dal validatore. Precisamente si ha di seguito il raffronto sui periodi dei primi cinque modi nei due casi “EF” (che sarebbe il modello “P”) ed “EF+telaio” (che sarebbe il modello “PS”):

 

Tabella 1. Confronto tra i periodi dei modelli del validatore, /9/ “EF”, e quelli qui impiegati, “SR”

Figura 6. Pianta del piano tipo, da /9/

Si è quindi potuto osservare dal raffronto dei periodi che il modello fatto dal validatore (quello inclusivo del telaio, “EF+telaio”) non includeva le eccentricità rigide degli elementi e ciò benché vi fossero pareti lunghe 3,5 metri (1,75 m in meno per parte nella luce netta delle travi affluenti, si veda la Fig. 6, ad esempio la trave 19-20, o 10-19). Vedremo in seguito l’effetto (forte) di tali eccentricità non conteggiate.

Garantito che il modello fosse molto simile si sono fatte due analisi statiche equivalenti, con forze identiche in due modelli diversi, assumendo un coefficiente di risposta C pari a (dati desunti da /9/ tranne T, periodo del primo modo, che è quello ottenuto con “SR”):

C= (S x ag x Fo *Tc) / (q T)= 1,46 x 0,158 x 2,484 * 0,439 / 3 / 0,469 = 0,178 0,18

Sono stati studiati due modelli, PS e P. Il modello P, “senza telaio”, è stato ottenuto dal modello PS “con telaio”:

1. ponendo cerniere in entrambi i piani principali sugli estremi a terra dei pilastri (non cerniere torsionali);

2. ponendo cerniere su entrambi i piani principali in tutte le travi di piano (non cerniere torsionali).

Ebbene la seguente tabella mostra i risultati ottenuti per lo spostamento in sommità, senza le eccentricità, nei due casi “PS” e “P”, ovvero con e senza telaio

Tabella 2. Differenze di spostamento nei modelli EF (P) ed EF+telaio (PS)

La tabella dice che tali variazioni di spostamento, ottenute a parità di forze applicate, e quindi variazioni di rigidezza, sono totalmente, drasticamente incompatibili con la ipotesi che le colonne e le travi siano “secondarie” in accordo alla normativa (15%).

Nella successiva tabella si paragonano i tagli alla base del solo modello PS affluenti ai pilastri, e quelli totali dello stesso modello, nella analisi statica equivalente per il sisma X:

Tabella 3. Differenze nei tagli alla base modelli EF (P) ed EF+telaio (PS), sisma X, analisi statica equivalente.

Si noti che il taglio totale, 2584,4 kN, corrisponde al coefficiente di risposta adottato nella statica equivalente moltiplicato per il peso della massa totale (quasi ma non identica a quella dichiarata in /9/ dato che noi abbiamo usato g=9,81 e non g=10): 2584,4 = 0,18 * 14361 kN.

Dunque non vi è alcun rapporto tra il taglio incassato dai pilastri diviso per il taglio totale nel modello “PS” (0.13, che darebbe una ipotetica variazione del 13% nella rigidezza) ed il rapporto tra gli spostamenti dei due modelli “PS” e “P”, sotto l’azione delle medesime forze applicate (1,465, che dà il 46.5% di variazione di rigidezza).

Torniamo a esaminare la variazione di rigidezza laterale tra “P” e “PS” calcolata nel modo corretto.

Tenendo anche conto, come necessario, delle eccentricità rigide degli elementi (che non vanno da nodo a nodo, ma si fermano prima data l’estensione fisica delle pareti da 3,5 metri e da 2,1 metri, e dei pilastri da 40 cm x 40 cm), si sono ottenuti i risultati di Tabella 4 (qualitativamente ben noti: /11/, /13/), ancora peggiori, ovvero ancora più drasticamente lontani dalla soglia del 15% (Fig. 7):

Tabella 4: variazione di rigidezza laterale tenendo conto delle eccentricità rigide degli elementi beam, modelli EF (P) ed EF+telaio (PS)

Le differenze di rigidezza nei due modelli con e senza eccentricità si riverberano ovviamente anche sui periodi dei modi propri (il primo modo passa da 0,47 a 0,42 secondi, che nell’oscillatore semplice corrisponde a un incremento di rigidezza del 25%, (47/42)2).

Figura 7. Raffronto di spostamento tra modelli P e PS con eccentricità rigide per le zone occupate dalle pareti. Sisma X. Modelli preparati dall’autore.

Dunque secondo le normative vigenti gli elementi “secondari”, secondari non sono affatto.

Dice invece l’Università di Brescia:

“il contributo degli elementi secondari non stravolge la risposta della struttura, tuttavia produce un incremento del rapporto tra le azioni di taglio e momento nelle pareti, pari a circa il 20% nelle zone critiche” /9/.

Infatti il validatore sta comparando le azioni interne negli elementi, in modelli che hanno rigidezze, periodi, e coefficienti di risposta differenti. Se avesse comparato i periodi dei primi modi cosa avrebbe trovato, raffrontando “EF” ed “EF+telaio”?

Figura 8. La tabella 4 tratta da /9/. Si osservano i periodi dei modi propri al variare dei modelli.

Ecco la tabella con anche il calcolo della variazione di rigidezza nella ipotesi semplificativa di oscillatore semplice (la seconda e terza colonna elencano i risultati ottenuti dalla Università di Brescia, alcuni dei quali in Fig. 8):

Tabella 5. Rapporti nella variazione dei periodi dei modi dominanti e loro quadrato, come desunti da /9/ e /12/. La seconda e terza colonna elencano i risultati calcolati dal Dipartimento DICATA della Università di Brescia.

L’ultima colonna dà una stima della variazione di rigidezza, considerando il comportamento di un oscillatore semplice (la massa è la stessa, nei modelli “EF” ed “EF+telaio”, i periodi cambiano perché è cambiata la rigidezza). Si noti come il risultato trovato per il modello usando appropriatamente i risultati in /9/, 43% di differenza nelle rigidezze, sia relativamente vicino al risultato trovato in modo più corretto facendo il rapporto tra gli spostamenti in sommità derivanti dal calcolo fatto con l’analisi statica equivalente (45-46%). Si notino anche i valori drammaticamente diversi per la rigidezza stimata nei casi di Esempio 1 e 3 (l’Esempio 2 in /12/ non riporta i dati relativi al modello “EF+telaio”, cosa questa assai strana).

Il manuale del programma dice correttamente che

“Poiché il codice di calcolo non considera il contributo resistente degli elementi strutturali orizzontali (travi, solai)3 esso non è adatto all’analisi della risposta sismica di edifici in cui eventuali telai contribuiscano in modo significativo alla risposta sismica dell’edificio.”

ma il programma non fa alcuno specifico controllo di rigidezza nel modo corretto, a quanto emerge dalla relazione di validazione, che nemmeno ne parla, di questo controllo, né dice che si deve farlo (abbiamo visto che nel filmato /19/ del produttore il controllo è ivi fatto in modo errato). Dunque ciò che non si dice è che bisognerebbe fare un altro calcolo per essere sicuri di poter adottare quel metodo, altrimenti si rischia molto.

In ogni caso il produttore è comunque tutelato dalla licenza. Chi non è tutelato è a nostro parere l’Università di Brescia.

Quanto alla affermazione del documento di validazione della Università di Brescia, coerente del resto con tutto quanto fatto da essa, secondo la quale il caso di “edifici con un numero di piani fuori terra non superiore a 4, con travi e solai di bassa rigidezza flessionale (es. travi in spessore) e con setti di controvento caratterizzati da rapporti lunghezza spessore della sezione Lw/bw 4” è “tipicamente quello” in cui “ricorrono le condizioni, previste dal DM 14-1-2008, per cui il telaio strutturale possa essere considerato elemento secondario non sismo resistente “, essa come abbiamo visto è contraddetta dagli stessi esempi fatti nei documenti di validazione, dove i telai portati ad esempio non sono e non possono essere considerati secondari, ed è una affermazione a parere di chi scrive assai pericolosa, generica e non comprovabile (anzi, come abbiamo visto, immediatamente confutabile).

Inoltre, come spiegato autorevolmente in /11/ dal Prof. Fardis

“al fine di soddisfare al ruolo assegnato alle pareti in calcestruzzo armato da EN 1998-1 e soddisfare alle tacite assunzioni di base sul loro comportamento, la lunghezza, lw, della loro sezione trasversale dovrebbe essere grande non soltanto rispetto allo spessore, bw, ma anche in termini assoluti. A questo fine, e considerando anche le dimensioni delle travi che si trovano comunemente negli edifici, è raccomandato per lw un valore di almeno 1,5m nel caso di edifici bassi o 2m per edifici medi o alti”.

Figura 9. Pianta dell’edificio dell’esempio 1 tratto da /12/. Si osservano le “pareti” 80×20 cmq.

La ragione è chiara: se no basterebbe fare colonne da 20×80 e chiamarle “pareti”. Ebbene, è proprio quello che avviene negli esempi 1 (80×20, Fig. 9), 2 (80×20) e 3 (100×25) della documentazione della Università di Brescia (/12/).

Gli elementi secondari devono resistere alle azioni loro comunicate nel corso del sisma. Secondo la norma NTC 2008 (§7.2.3 NTC 2008) gli elementi “secondari” (tutti i pilastri e tutte le travi negli esempi fatti per la validazione) “devono essere in grado di assorbire le deformazioni della struttura soggetta all’azione sismica di progetto, mantenendo la capacità portante nei confronti dei carichi verticali”. Il validatore di questo non fa menzione, questo controllo nel programma CEMAR manca.

Se si ha ragione nel dire che il “metodo semplificato” è totalmente errato nei casi di specie, e quindi il software potenzialmente pericoloso in molti possibili casi (inclusi tutti quelli degli esempi validati), come risolvere il fatto che una Università ha dichiarato su carta intestata che va bene?

E come commentare che vari Ordini Professionali accolgono tranquillamente seminari che diffondono le metodologie discusse?

 

Sull’endocontrollo assoluto

Torniamo ora all’endocontrollo, ovvero il controllo interno del solutore. A riprova del fatto che l’endocontrollo di un programma non può portare ad affermare che il programma “dà risultati affidabili”, si consideri la licenza d’uso di uno dei programmi maggiormente diffusi a livello mondiale, fatto da esperti di fama mondiale (il Prof. Wilson, tra questi): Sap 2000TM. Essa recita:

“Premesso lo stato delle possibilità attualmente offerte dalla tecnica e la non esattezza assoluta della scienza informatica, non si può garantire che il Programma e il suo Manuale di istruzioni siano totalmente privi di errori e/o difetti. Allo sviluppo del Programma SAP2000 ADVANCED e della documentazione relativa sono stati dedicati molto lavoro e risorse. Il Programma è stato utilizzato e testato a fondo, anche se a causa della grande varietà di possibili applicazioni non è stato testato in tutte le situazioni in cui potrebbe essere usato. Scegliendo di usufruirne tuttavia, l’Utente accetta e capisce che nessuna garanzia sulla sua accuratezza è espressamente o implicitamente offerta dal produttore o dal distributore (“no warranty is made on its accuracy or reliability”). L’Utente ha l’onere di comprendere chiaramente gli assunti del Programma e di verificarne in modo indipendente i risultati”.

E qui si capisce che a parlare è gente competente. Non va bene Sap2000? Prendiamo SASI AnsysTM:

“SASI does not guarantee the accuracy and/or usefulness of the results or solutions of any analysis performed in accordance with the procedures, commands, elements, and theories contained in the Manual”.

Open SeesTM:

“The software program and documentation are supplied “as is”, without any accompanying services from The Regents. The Regents does not warrant that the operation of the program will be uninterrupted or error-free. The end-user understands that the program was developed for research purposes and is advised not to rely exclusively on the program for any reason”

UGS FEMAPTM:

“UGS does not guarantee the accuracy and/or usefulness of the results or solutions, even if performed in accordance with the procedures, commands and theories contained in the enclosed document”.

Tutti meno bravi?

Cosa dicono gli studiosi della validazione del software? Ad esempio Beizer scrive (/5/):

“If the objective of testing were to prove that a program is free of bugs, then testing not only would be practically impossible, but also would be theoretically impossible”.[…] “Each approach leads to the conclusion that complete testing, in the sense of a proof is neither theoretically nor practically possible”4.

Mentre Morgan (/6/) afferma:

“Running a test through a software system can only show that one or more defects exist. Testing cannot show that the software is error free”.

 

E ancora:

“With large and complex systems it will never be possible to test everything exhaustively; in fact it is impossible to test even moderately complex systems exhaustively”.5

In /7/ (un testo di base, per chi vuole imparare proprio i rudimenti) troviamo:

“Testing Principle. Testing can show that defects are present, but cannot prove that there are no defects. […] even if no defects are found, it is not a proof of correctness.6”

Eppure qui, in Italia, c’è una Università, che scrive al presente indicativo che un software “esegue in modo affidabile il calcolo della risposta della struttura alle azioni orizzontali dovute al vento o sisma secondo modelli coerenti con quelli suggeriti dalle Norme Tecniche per le Costruzioni, restituendo risultati attendibili”.

Altre critiche alla validazione eseguita

Facciamo le seguenti ulteriori osservazioni facendo finta che il metacontrollo sia andato a buon fine, ovvero senza entrare nel dettaglio di come i risultati della validazione siano stati ottenuti.

1. Non viene mai detto che mesh sia stata usata, con che elementi finiti, aventi quale formulazione. Il documento di validazione manca di parti che si direbbero fondamentali.

2. E’ ignoto il numero di gradi di libertà dei modelli né se i modelli siano sensibili alla discretizzazione usata.

3. Si assume che l’accelerazione di gravità valga 10 anziché 9,81 il che, se ci si accinge a fare una validazione numerica (endocontrollo) è incongruo.

4. Dato che il modello CEMAR prevede mensole slegate dalle travi e dalle strutture di piano, e pilastri incernierati alla base, cosa viene poi richiesto per garantire che lo schema strutturale sia effettivamente rispondente a quello calcolato in fase sismica?

5. Il fatto che gli spostamenti di CEMAR siano sempre maggiori di quelli calcolati con altri schemi (pareti più telaio) è considerato sempre a favore di sicurezza dal validatore, anche se tali maggiori spostamenti sono da mettere in relazione alla sparizione di intere parti della risposta strutturale (energia di deformazione azzerata dagli svincoli e dalle ipotesi di calcolo, azioni interne corrispondenti azzerate). Abbiamo infatti visto dal metacontrollo che non è affatto a favore di sicurezza.

6. Ancora dalla relazione si cita testualmente: “Si osserva che, nella verifica degli effetti del secondo ordine dei carichi verticali, la modellazione fatta con Cemar e con EF [due modelli che avrebbero dovuto essere sostanzialmente identici date le medesime ipotesi fatte] mostra differenze nella valutazione del coefficiente ai vari piani inferiori al 27% e a sfavore di sicurezza per Cemar. Tale significativa differenza non modifica il calcolo delle sollecitazioni nell’esempio [in questo particolare esempio] in quanto il coefficiente è ampiamente inferiore a 0,1 e pertanto l’effetto del secondo ordine può essere trascurato”. Tale “significativa differenza” avrebbe invece dovuto mettere sul chi vivo il validatore che avrebbe dovuto spiegarne la ragione, e quindi confinarne il possibile ripetersi a casi ben definiti. Il fatto che in quell’esempio la differenza non fosse significativa, non provava nulla sulla validità generale del software.

Più volte il documento in questione enumera differenze rilevanti e marcate, trattandole come si farebbe con dati irrilevanti, là dove invece tali differenze avrebbero dovuto insospettire e richiedere ulteriori controlli.

Riassumendo, qui interessa principalmente affermare: che per definizione nessuna certificazione o validazione “assoluta” di nessun software può essere fatta, nemmeno se la fa una Università. Che la “validazione” del software in questione, in particolare, è stata fatta con criteri che non sono in accordo a quelli previsti dalla normativa. Che da parte del produttore si dice che se la “validazione” la fa una Università, allora si è fatto “di più”, si è “gli unici”, il che è precisamente il meccanismo dello ierocontrollo ed il principio del disastro.

Ciò che stupisce di questa validazione è la temerarietà. La temerarietà delle affermazioni generali fatte dalla Università, da un lato; la temerarietà di chi le esibisce in un sito e le usa a fini commerciali senza rendersi conto che si sta danneggiando da solo, dall’altro.

Stupisce anche il silenzio. Come è possibile che nessuno abbia detto nulla?

Su questa validazione molto si potrebbe obiettare, ma non è questo il punto focale della discussione, bensì: è possibile farlo a tutti e facilmente ?

Dato che chi le ha fatte non è un singolo ma una Istituzione dello Stato, una Università italiana, si nutrono dubbi che si possa dire tranquillamente che una tale “validazione” è totalmente insufficiente per esprimere i giudizi riportati nel documento ufficiale emesso. Chi meglio di una Università può validare un programma nell’immaginario collettivo?

I rischi per la collettività sono svariati. C’è il rischio immediato connesso alla propagazione di “semplificazioni” che sono molto pericolose, suffragate da una Università della Repubblica. Ma vi è anche un rischio di lungo periodo legato alla cosiddetta “legge di Gresham”: nel lungo periodo la moneta cattiva scaccia quella buona. A furia di consentire di agire senza limiti alla moneta cattiva, i semplificatori, quelli che raccontano che è tutto facile, si otterrà che gli incompetenti faranno i lavori che avrebbero dovuto fare i competenti e l’ingegneria strutturale andrà a farsi friggere. Il risultato non è solo un danno a chi cerca di praticare seriamente la professione, è un danno al Paese. E’ ora di ristabilire la verità dei fatti: i calcoli strutturali li possono fare solo professionisti altamente competenti.

Dato che non è pensabile senza scandalo asserire che la validazione di una Università italiana non va per niente bene, contiene degli errori ma soprattutto afferma cose che nessuno potrà mai affermare per ragioni teoriche, qualsiasi attività svolga, tale controllo fatto dall’Ente in questione diventa di fatto uno ierocontrollo. Ma uno ierocontrollo non è una cosa accettabile in una società moderna ed è la negazione di ciò che in effetti dovrebbe essere un controllo.

Conclusioni

La validazione dei modelli di calcolo strutturale e dei programmi è una attività seria e necessaria, giustamente le normative hanno codificato la necessità di procedere in modo sistematico ad eseguirla.

La attività di validazione, per sua natura, deve essere trasparente e a sua volta verificabile ed ispezionabile, altrimenti diventa un atto di fede e non una attività tecnico-scientifica.

Nessuno può affermare, di nessun programma, che questo è affidabile o privo di errori e difetti, e men che meno certificarne la validità assoluta. Tutto quello che si può certificare è l’attività svolta per trovare difetti, e gli esiti riscontrati.

Attività di validazione o controllo che violino questi due principi base, in specie se poste in atto da Enti che dovrebbero avere la massima attendibilità scientifica e tecnica, pongono le premesse per pericolose scorciatoie e fraintendimenti, che rischiano di snaturare alla radice il significato della attività di validazione e la sua ragione d’essere, trasformandola da una attività tecnico-scientifica misurabile e analizzabile, in giudizi sacrali che, a causa della autorevolezza di chi li ha emessi, distorcono il mercato da un lato, annichilano la possibilità di fare vera validazione dall’altro.

Sembra quindi opportuno che il mondo professionale ed accademico, entrambi coinvolti da queste novità, esprimano il loro punto di vista dato che si tratta di questioni di interesse generale. Forse, lo stesso Consiglio Superiore dei Lavori Pubblici potrebbe emettere utili linee guida a riguardo.

Riferimenti

  • /1/ “Validazione dei Modelli di Calcolo Strutturale Automatico. Evoluzione delle Normative, Inquadramento del Problema”, Paolo Rugarli, Seminario tenuto il 29-10-2007 presso l’Ordine degli Ingegneri di Bergamo.
  • /2/ “Software di calcolo”, P.Rugarli, in Manuale dell’Ingegnere (Colombo), LXXXIV ed., Hoepli, 2003
  • /3/ Spot Arrigoni: http://www.youtube.com/watch?v=2gUvPNvDeK8&feature=relmfu
  • /4/ Depliant GIPE: http://www.eucentre.it/media/Depliant_GIPE.pdf
  • /5/ Software Testing Techniques, Boris Beizer, Thomson Computer Press, 1990
  • /6/ Software Testing, Brian Hambling (Ed.), British Computer Society, 2007.
  • /7/ Foundations of Software Testing, D. Graham, E. Van Veenendaal, I. Evans, R. Black, ISTBQ Certification, Cengage Learning EMEA, 2008
  • /8/ Pagina web del prodotto CEMAR: http://www.tecnobit.info/product.php?cod_sw=4080
  • /9/ Allegato C: Esempio di Applicazione del programma “Analisi Sismica” di Cemar (Versione 9.03) a cura del Dipartimento DICATA della Università di Brescia. Dal sito del produttore di CEMAR.
  • /10/ Bollettino Ufficiale Regione Calabria: www.burc.regione.calabria.it. Delibera del 19-10-2010
  • /11/ “Guida all’Eurocodice 8, Progettazione delle strutture per la resistenza sismica: EN 1998-1, EN 1998-5”, M.N. Fardis, E. C. Carvalho, A. Elnashai, E. Faccioli, P. E. Pinto, A. Plumier, EPC Editore, Roma, 2011, su licenza di Thomas Telford Ed.
  • /12/ “Allegato D. Esempi di applicazione del programma ‘Analisi sismica’ di CEMAR, versione 9.03” a cura del Dipartimento DICATA della Università di Brescia. Dal sito del produttore di CEMAR vedi /8/.
  • /13/ Analisi Modale Ragionata, P. Rugarli, EPC Libri, 2005
  • /14/ “Descrizione delle basi teoriche e degli algoritmi impiegati, Allegato A”, a cura di Tecnobit, dal sito del produttore di CEMAR, www.tecnobit.info/product.php?cod_sw=4080.
  • /15/ Spot del programma CEMAR: http://www.youtube.com/watch?v=JMyXlgPquxA
  • /16/ Presentazione della società Tecnobit on line: http://www.tbcad.it/downloads/formazione/Presentazione_Tecnobit_Comm.pdf
  • /17/ http://ingegneresezioneb.it/2012/01/universita-elaborato-software-strutturale-per-ingegneri-1%C2%B0-livello/
  • /18/ “Local effects due to infills. Design and detailing of secondary seismic elements. Provisions for concrete diaphragms”, Fardis M., reperibile in rete qui: http://eurocodes.jrc.it/doc/WS_335/S5_EC8-Lisbon_M%20FARDIS.pdf
  • /19/ Filmato presentazione CEMAR: “Elementi secondari”, minuti 1:10sec-1:30sec: http://www.youtube.com/watch?v=xdzM9VgpjfQ
  • /20/ Legge Regionale Regione Calabria 19-10-2009, n. 35, SS B.U.R.C. n. 19 del 16-10-2009
  • /21/ Legge Regionale Regione Calabria 5-1-2010, n. 1, SS B.U.R.C., n.24 del 31-12-2009.
  • /22/ Deliberazione della Giunta Regionale della Regione Calabria, 19-10-2010, n. 687
  • /23/ Comunicazione Email del Dott. Ing. Iiritano all’autore dell’articolo.
  • /24/ La validazione del calcolo strutturale, Paolo Rugarli, in corso di stesura

Approfondimenti

Dibattito Ordine degli Ingegneri della Provincia di Milano:
https://www.ordineingegneri.milano.it/argomenti/ntc-2008-1/dibattiti

Diego Lallopizzi

Ing. Diego LALLOPIZZI
(Pescara - Italy)

INGEGNERE EDILE
Specializzato in Progettazione (BIM):

  • Strutturale/Architettonica
  • Project Management
  • Direzione Lavori (4/5/6D)

CONSULENTE BIM
"Aiuto Tecnici, Progettisti e Imprese a gestire commesse con l'approccio Ingegneristico OpenBIM, ottimizzando tempi e costi, dal Design al Cantiere"


Potrebbero interessarti anche...