|
L’ampio dibattito, apertosi sul Forum Sismico della
Regione Emilia Romagna (1),
attorno al nuovo quadro normativo, introdotto a
partire dal marzo 2003 dal governo Berlusconi, prima
attraverso l’azione del Dipartimento della
Protezione Civile e poi del Ministero delle
Infrastrutture, ha recentemente investito temi che,
per importanza ed attualità, meritano di essere
esposti all’intera comunità del settore.
Lo stimolo è venuto dai recenti interventi del Prof.
Pozzati (2), con i quali, l’esimio
professore ed ingegnere invita a non farsi ammaliare
dalle sirene del tecnicismo, che sono portatrici di
un futuro tragico per questa epoca critica
che stiamo vivendo; ed esorta gli ingegneri, in
quanto cittadini del mondo, e partecipi in prima
linea nella gestione dei nuovi straordinari
strumenti, a farsi carico di un’etica della ragione,
che tenga conto dell’enorme rischio insito nello
sbalorditivo progresso a cui siamo sottoposti.
Limitandoci al nostro campo di ingegneri
strutturisti, (ma il ragionamento vale in generale
per ogni campo della tecnica), come non accorgersi
che i nuovi strumenti informatici, permettendo di
eseguire un numero enorme di calcoli in tempi
brevissimi, possono farci perdere il senso del
reale. Troppo spesso tutto quello che esce dai
personal computer viene preso acriticamente come la
soluzione del problema, senza conoscere
adeguatamente i limiti del software utilizzato. Se
fino ad ieri esisteva infatti la possibilità di un
confronto con i risultati ottenibili dai metodi
manuali, approssimati ma sicuri, perché riscontrati
da anni di controprove, oggi questa è una prassi che
non sembra più essere seguita. Chi ha dovuto sudare
attorno al calcolo manuale di un telaio sottoposto a
forze orizzontali, ne ha acquisito la possibile
distribuzione delle sollecitazioni, cosa che invece
non conosce il giovane tecnico cresciuto al tempo
dell’informatizzazione, troppo spesso scollegata
dalla realtà del cantiere.
Il rischio è che anche nella risoluzione dei
problemi più complessi, trasformabili agevolmente in
modelli di calcolo, si operi con una incosciente
superficialità. Tutto questo è aggravato dal fatto
che non vi è una qualche forma di “certificazione”
dei software ed il risultato è quindi lasciato alla
responsabilità ed al buon senso del progettista.
Le perplessità crescono se si pensa che i
professionisti abilitati a progettare interventi
strutturali in zona sismica, sono in minima parte
ingegneri strutturisti, con adeguata preparazione
specialistica. Per non parlare poi della misera
realtà delle imprese edili, che si tenta di
nascondere, scaricandone la responsabilità sui
professionisti. (3)
Al riguardo dell’uso del software, sono
significative queste osservazioni del prof. Pozzati:
Chiaramente, allo stato attuale, tutto questo
tende sempre più a rappresentare un imprescindibile
supporto quando si voglia verificare una struttura
di caratteristiche già definite; per quanto,
parallelamente, sia da rilevare che, in tali
operazioni, la figura dell’ingegnere si trovi a
regredire al ruolo di un mero gestore di programmi,
quasi un’appendice della macchina, che
frequentemente acquista un illusorio e pericoloso
carisma di esattezza e di verità. Quindi, i vantaggi
sono ovviamente notevoli impiegando i computer, ma
non può essere taciuto il richiamo anche alle gravi
ombre che questi proiettano sull’attività dell’uomo
ingegnere: infatti ciò che Heidegger ha definito
“l'essenza divoratrice del calcolo” porta l’uomo
alla frenesia di ricerche quantitative sempre più
spinte, ma spesso in gran parte illusorie perché
poco sfugge, specie nell’analisi strutturale
sismica, al convenzionalismo; sicché i numeri,
anziché essere mezzo di interpretazione del reale,
possono divenire mezzi di occultamento, generando
pericolose e infide sicurezze. Mentre, qualunque sia
il percorso effettuato, l’ingegnere al termine del
suo lavoro deve arretrarsi di un passo ed esaminare
con sguardo sintetico l’opera nel suo insieme,
rivedendo le principali ipotesi adottate, e
confrontando con i risultati dei calcoli di massima
della prima fase quelli forniti dall’elaboratore, i
cui programmi dovrebbero essere omologati; e
principalmente controllando che il tutto sia
armonico e risponda a quell’estetica d’insieme che,
correttamente concepita, l’opera deve possedere.
Possono inoltre essere d’aiuto, in questa
riflessione, le parole del compianto prof. Edoardo
Benvenuto, il quale, concludendo il suo pregevole e
purtroppo solitario lavoro sulla storia della
scienza delle costruzioni (4),
analizza l’ingresso del calcolatore nel campo
dell’ingegneria strutturale, illustrandone le
possibilità legate all’analisi matriciale delle
strutture, con un cenno al metodo degli elementi
finiti, quale strumento di analisi numerica “per
lo studio di strutture più complesse, non
riconducibili a travi e a travature” e su cui si
incontrava lo scoglio, spesso insormontabile dei
sistemi di equazioni differenziali alle derivate
parziali rilevando, al riguardo del metodo agli
elementi finiti, che “… questo metodo interpreta
la struttura come una composizione di elementi di
varia forma e dimensione; su ognuno di essi è svolta
una preventiva analisi approssimata, in modo da
caratterizzarne il comportamento mediante un numero
discreto di parametri (o gradi di libertà),
giungendo ad equazioni di legame tra le forze
applicate nei vertici dell’elemento e gli
spostamenti dei vertici stessi…. Successivamente
viene affrontato il problema dell’assemblaggio dei
diversi elementi, per esprimere la relazione tra le
forze esterne agenti sulla struttura e gli
spostamenti nei vertici della maglia a cui il
continuo è stato ricondotto… A differenza di quel
che accade nell’analisi delle strutture
monodimensionali, tale idealizzazione produce di
norma errori incorreggibili, violando
l’equilibrio puntuale sui lati o sulle facce
dell’elemento. Il comportamento reale è avvicinabile
aumentando il numero e diminuendo la dimensione
della partitura: almeno questa è una speranza
legittima in molte circostanze…. Infine una
malcelata sottolineatura polemica nei confronti di
autori, che esponendo la meccanica dei continui e
delle strutture nel linguaggio matriciale hanno
l’aria di inventare tutto da capo, o di rifondare su
nuove basi, i risultati di più noti e vetusti, come
se l’intera disciplina fosse nata nel loro
cervello.”
Anche il Prof. Nicola Augenti (5),
nel suo recente libro sulle murature in zona sismica
affronta questi temi, con un contributo dialettico,
che investe anche la recente riforma universitaria e
le ultime generazioni di progettisti.
…il metodo degli elementi finiti, con
l’affermarsi dei computer, ha rivoluzionato il mondo
del calcolo strutturale, dando luogo, però nel
contempo, a pericolose illusioni.
… la possibilità originariamente offerta al
professionista di risolvere un problema progettuale
in maniera completa una sola volta e di “consegnare”
il programma delle operazioni da svolgere al
computer per la successiva ripetizione, si è
trasformato nell’opportunità (solo apparente) di far
risolvere ad altri il problema e di utilizzare il
programma da altri elaborato … a scatola chiusa.
Tale abitudine non solo ha fatto proliferare un
mercato nel quale si vende di tutto senza alcun
controllo, ma ha prodotto generazioni di
professionisti i quali non posseggono alcuna
conoscenza, non solo degli strumenti di calcolo che
utilizzano, ma anche dei problemi che affrontano.
… ad esempio il calcolo dei telai che veniva
effettuato con il metodo delle forze, è stato
affrontato con il metodo degli spostamenti quando i
personal computer hanno reso possibile la gestione
di grossi sistemi di equazioni algebriche.
Abbandonare, però i primi metodi per i secondi, ha
provocato sotto l’aspetto formativo, un notevole
danno:
… la possibilità offerta al progettista di seguire
il rilassamento di un telaio offerta dai metodi
iterativi, è stata sostituita dall’asettico
riempimento delle matrici di rigidezza, che non
consente più di avere alcuna cognizione della
struttura e del suo modo di deformarsi. … il rischio
è che ci si allontani sempre di più dal mondo fisico
per immergersi in quello numerico, perdendo così di
vista il comportamento reale della struttura, in un
viaggio senza fine nel mondo teorico del suo
modello.
Certe volte viene da chiedersi se nel passaggio dal
regolo calcolatore al personal computer si sia
verificata una evoluzione o non piuttosto una
involuzione: il quesito però non può che essere
provocatorio, atteso che un uso sapiente e prudente
degli elaboratori elettronici può consentire solo un
miglioramento progettuale.
Purtroppo invece, è piuttosto frequente sentir
affermare che i computer e per essi i codici di
calcolo agli elementi finiti, sono oramai in grado
di risolvere qualunque problema strutturale: niente
di più pericolosamente falso!
L’uso indiscriminato del computer può facilmente
conferire l’illusione di conseguire risultati
esatti, rigorosi del comportamento strutturale,
mentre al più tale esattezza può riguardare il
comportamento del modello assunto (che nella
migliore delle ipotesi, fornisce una
rappresentazione molto sfocata della realtà).
E’ per tale motivo che l’utilizzazione di software
finalizzato al calcolo automatico deve presupporre,
necessariamente, una profonda conoscenza della
Scienza e della Tecnica delle Costruzioni, oltre che
una consumata esperienza di progettazione condotta
con sistemi tradizionali.
Purtroppo, dall’avvento degli elaboratori si studia
sempre meno essendo ormai diffuso il convincimento
che la risoluzione dei problemi progettuali
(strutturali) possa essere demandata ai codici di
calcolo in commercio. Con l’avvento della sciagurata
riforma degli studi universitari, il livello dei
nostri laureati non potrà che abbassarsi a quello
esistente presso altri paesi europei, con un danno
incommensurabile per i futuri professionisti che,
ancora oggi posseggono una forma mentis e una
preparazione di gran lunga superiori a quella dei
loro colleghi stranieri.
Oltre a questi problemi, altri se ne pongono a
seguito dell’ufficializzazione fornita
dall’OPCM.3274/2003 ad alcuni metodi di calcolo, ai
più sconosciuti. Poco male, anzi opportuno, se
questo derivasse da un ritardo di aggiornamento
professionale. Molto grave se invece l’indicazione
di nuovi metodi, non risulta suffragata dai
necessari ed indispensabili riscontri scientifici e
di applicazione pratica.
Per non rimanere nel vago, approfondiamo un aspetto
specifico. La maggioranza degli ingegneri non ha
ancora dimestichezza con l’analisi modale a spettro
di risposta; l’analisi limite è praticamente
sconosciuta e le norme allegate all’OPCM 3274
introducono l’analisi push-over, da usarsi
per le strutture più disparate, ivi comprese le
murature esistenti, abbinandovi il novello metodo
a telai equivalenti.
Molti sono i dubbi, ben evidenziati sul Forum dal
contributo “Gattopardismi” dell’ing. Paolo Rugarli,
perché questo tipo di analisi è ancora oggetto di
studio e presenta non pochi limiti applicativi; come
tutti i tipi di analisi non lineare
(6). In particolare essa è
applicabile solo per strutture intelaiate regolari.
L’estensione agli edifici in muratura deve essere
attentamente valutata, anche perché non tutti
ritengono possibile in ambito FEM una definizione
seria di un “elemento muratura”.
(7)
Lo stesso dicasi per il metodo a telai equivalenti,
proposto per la verifica di edifici esistenti in
muratura, sulla cui validità vi sono forti dubbi,
come ad esempio quelli posti dai Proff. Roca, Molins
e Marí, della Università Politècnica de Catalunya,
nel contributo pubblicato sul Journal of Structural
Engineering ASCE, nell’ottobre 2005, dal titolo: “Strength
Capacity of Masonry Wall Structures by the
Equivalent Frame Method”, che così conclude:
The examples presented illustrate the capability
of the method to predict the failure mechanism and
ultimate loading capacityload-bearing wall masonry
systems.
However, the full assessmentthe present method—or
other possible methods aimed at the analysis of
similar constructions—requires further experimental
investigation of the ultimate response of
unreinforced masonry buildings.
Una indagine approfondita è riportata nel libro
citato del prof. Augenti, in cui sono analizzati nel
dettaglio numerosi metodi (POR RAN VET VEM SAM)
attualmente proposti per l’analisi delle strutture
in muratura, e verificati in relazione ad una
struttura portata realmente a collasso,
confrontandone poi i risultati. I risultati sono
quanto di più variabile ci si possa attendere, con
buona pace della sicurezza, ed in particolare anche
il metodo SAM a telai equivalenti non sembra fornire
buoni risultati, con una percentuale d’errore
elevata e simile a quella trovata con il codice
POR90.
Ed ancora, se si sfoglia il terzo volume di
“Ingegneria delle strutture” Utet 2002, del prof.
Elio Giangreco, ci si imbatte, a pag. 140, nella
seguente considerazione dei proff. Magenes e Macchi
sui metodi a telaio equivalente per le strutture in
muratura:
Sebbene esista una concreta possibilità di
opportuno utilizzo di questi metodi nelle
applicazioni, tali strumenti hanno al momento
principalmente il significato di strumenti di
ricerca.
Siamo quindi in presenza di ottimi studi, la cui
completa affidabilità è comunque ancora da
accertare, e l’aver proceduto alla loro
ufficializzazione in una norma, di una materia
promettente, ma che ancora necessita di studi e di
una consacrazione ufficiale del mondo scientifico e
professionale, è stata una operazione molto
discutibile e comunque perlomeno eccessiva.
Evidentemente il non aver percorso le ordinarie
strade (8) per la stesura
delle norme ha portato ad avere al loro interno il
risultato delle ricerche e del lavoro dei singoli
membri delle commissioni, con l’indicazione di
metodi per i quali, probabilmente vi è invece ancora
la necessità di ricerca, sperimentazione ed
acquisizione di dati.
Il prof. Giangreco conclude il suo volume (pag. 691)
con alcune riflessioni sull’etica riferita alla
sicurezza strutturale :
E’ quindi giusto limitare “eticamente” quelle
applicazioni che, proprio per la consapevolezza
dell’ignoranza, possono dar luogo a rischi gravi,
d’altra parte come rileva più che giustamente la
Levi Montalcini “non tutto ciò che si può fare deve
esser fatto”.
Oggi ci troviamo di fronte a due nuove norme
tecniche coesistenti (9),
entrambe oggetto di critiche da parte di opposti
schieramenti di valenti studiosi, che le giudicano
inapplicabili (10).
Tutto questo nel momento in cui sono stati approvati
in sede Europea, gli Eurocodici, la cui entrata in
vigore è prevista per il 2007.
A proposito del proliferare delle normative, e delle
semplificazioni in esse contenute, il Prof. Pozzati
rileva:
Alcuni di Voi, con ogni probabilità interpreti di
un malessere diffuso, hanno posto quesiti che
testimoniano una crescente preoccupazione di fronte
a una mole sempre più vasta di normative, e di
fronte alle conseguenti maggiori difficoltà di
affrontare la professione e di mantenersi
aggiornati; sentendosi da un lato sempre più oberati
di responsabilità e dall’altro sempre più in ombra e
meno tutelati.
Ritengo che abbiano pienamente ragione, e che in
effetti i problemi si stiano facendo quanto mai
complessi, soprattutto a causa di una crescente
frammentazione del sapere e di una incessante
evoluzione della tecnica, che continuamente si
brucia e si rinnova, generando innumerevoli
informazioni e culture sempre più specializzate,
nonché crescite abnormi di normative, come ho già
accennato; provocando ciò, in definitiva, gravi
sfasamenti tra cultura generale e realtà sociali.
….. è opportuno rendersi conto se l’entità di certi
coefficienti fissati dalle norme (che spesso con un
semplice numero intendono interpretare fenomeni
complessi, come per l’appunto si ha col fattore “q”)
sia veramente attendibile; e controllare altresì se
sussista coerenza tra eventuali affinamenti dei
calcoli e certi pesanti presupposti convenzionali.
E tutto ciò per trarre le necessarie indicazioni sul
piano progettuale. A parte la considerazione che
è eticamente riprovevole presentare come
affidabile un calcolo che è invece poco credibile,
ritengo che ogni progettista dovrebbe essere tenuto
a esprimere un giudizio di affidabilità conclusivo
alle elaborazioni di calcolo effettuate,
traendo le debite conseguenze sulla scelta dei
coefficienti di sicurezza; e penso che le norme
dovrebbero evitare la categoricità nell’indicare
vari valori numerici.
Dall’interessante contributo dell’ing. Ivan
Silvestri “jura vigilantibus non dormientibus
prosunt” comparso sul Forum citato, si apprende che:
Se con l’emanazione delle Norme Tecniche per le
Costruzioni, di cui al Decreto Ministeriale del
14/09/05, l’intenzione del legislatore era quella di
fornire un "Testo
Unitario che abbia le caratteristiche di coerenza,
chiarezza, univocità, sinteticità e sia improntato
al più moderno indirizzo di normazione prestazionale,
piuttosto che prescrittiva e di semplificazione
legislativa", come proclamato nel Preambolo a pag.
18.
…. tale obiettivo non è stato raggiunto ed è
invece aumentata la complessità per definire un
quadro normativo di riferimento certo e verificabile
per tutti gli operatori del settore costruzioni, con
tendenze opposte a quelle di semplificazione del
contesto normativo concordate dall'UE nel 2005 e
note come "strategia di Lisbona".
….I rapporti conflittuali tra i diversi soggetti
istituzionali coinvolti non giovano affatto alla
corretta implementazione nel “sistema Paese Italia”
delle regole stabilite dall’Unione Europea…
Per le ricerche avviate per agevolare l’integrazione
negli Eurocodici dei più recenti sviluppi
scientifici e tecnologici, alla Raccomandazione n° 6
del documento UE, si invitano gli Stati Membri a
riunire/coordinare i finanziamenti nazionali
operando in cooperazione con il Centro Comune di
ricerca europeo, ma questo non è avvenuto con il
finanziamento di 15 milioni di euro assegnati al
programma triennale di ricerca sulla vulnerabilità
sismica, in base all’art. 4 dell’Ordinanza
P.C.M. 3274/03 e successive integrazioni,
attraverso un accordo tra il Dipartimento della
Protezione Civile ed il Consorzio Reluis, con
conseguente dispersione delle poche risorse
disponibili per la ricerca, visto che altri tecnici
italiani operano in progetti similari europei.
….Adottare i criteri progettuali previsti dagli
I.B.C. o, per la la sismica, dalla Guida ASCE 7-02,
implica la contestuale adozione dei criteri di
verifica e delle norme di prodotto ivi indicati, che
fanno riferimento a un “sistema Paese” diverso da
quello stabilito dalle regole SEE,che non tengono
conto di quanto avviene in Europa.
Altri interessanti argomenti sono posti dall’ing.
Francesco Zorzi (11):
Una Norma, che è inevitabilmente cogente,
sopratutto per le strutture più modeste, deve essere
semplice, chiara, inequivocabile, applicabile dal
più umile dei nostri colleghi.
I metodi agli stati limite non sono metodi di
progettazione, ma solo metodi di verifica, validi
solo per casi ben circoscritti e quando i risultati
che si ottengono non sono in chiara contraddizione
con l’esperienza ed il buon senso.
… i numerosi casi colleghi bravissimi e
preparatissimi si sono presentati da me con
risultati incredibili ottenuti con software
prestigiosi e validati.
Come mai ultimamente accadono tanti inconvenienti e
diversi lavori, soprattutto tra quelli più
importanti sono fermi per gravi carenze progettuali,
pur essendo progettati dagli studi più prestigiosi e
validati a tutti i livelli? Perché questo avviene
anche quando gli studi prestigiosi sono stranieri ed
in alcuni casi gli inconvenienti si sono trasformati
in tragedia?
Noto infine come all’estero, anche se non se ne
parla (forse per un malinteso senso della privacy),
gli inconvenienti, soprattutto nelle strutture più
prestigiose, sono ancor più numerosi che da noi.
Mentre l’ing. Paolo Rugarli (12),
ha voluto contribuire al dibattito, con il solito
acume:
Norme che vanno nella direzione giusta, ma
inapplicabili perché scritte affrettatamente e male.
Norme emanate d’imperio, chi le ha fatte deve essere
messo da parte.
E le nostre università, cosa hanno fatto?
L’impressione è che ci sia una generazione di
docenti che ha mancato ai propri doveri. Dove sono
quelli che dovrebbero semplificare e rendere
dominabili i risultati della ricerca? … dov’è il
lavoro di raccordo tra la ricerca e l’ingegneria? E’
quasi inesistente. Esso non paga, non da lustro ne
aiuta per la carriera universitaria e inoltre crea
concorrenti nel ricco piatto delle consulenze.
Con la frettolosa fuga in avanti fatta dalle
ordinanze, argomenti specialistici e ancora soggetti
a ricerca, sono stati dati in pasto al grande
pubblico degli inesperti con l’alternativa : o bere
o affogare.
Ciò che è avvenuto è la negazione del progresso. Le
cose si modificano piano piano, non a colpi di grida
ministeriali, ma con il lavoro di tutti i giorni.
Perché sugli Eurocodici non esiste ancora uno
straccio di collane paragonabili a quelle dei paesi
civili (per es. UK) dove le tematiche della loro
applicazione sono seriamente discusse?
Qualunque software non è esente da difetti, pertanto
affidarsi mani e piedi solo ad un software è da
sconsiderati. Eppure il software oggi è
indispensabile, e allora occorre un controllo
indipendente da esso; un controllo di “testa” che è
possibile solo se sono disponibili approcci
ingegneristici.
Noi siamo ingegneri, alle parole non dobbiamo
credere più del necessario. Noi abbiamo di fronte le
strutture reali, non i modelli di calcolo soltanto.
Attenzione a non confondere ingegneria reale e
numeri di tabulato: sono due cose diverse, la prima
essendo più vasta e più generale dei secondi, tant’è
vero che la si pratica con successo da molto prima
che esistessero i calcolatori.
Altri ancora hanno fatto rilevare come ultimamente,
sono comparsi testi e software commerciali che ci
propongono metodi di calcolo sviluppati presso
Università pubbliche Italiane e “ufficializzati”
dall’OPCM.3274/2003, come pure alcuni prodotti
commerciali la cui validità di presidio antisismico
viene certificata da laboratori universitari. Tutto
questo può ingenerare il dubbio che vi sia un
intreccio, non troppo virtuoso, tra attività
d’insegnamento, ricerca, normative ed attività
commerciali, su cui sarebbe forse opportuna una
approfondita riflessione.
Quanti dubbi ci assalgono in questa “epoca critica”
che stiamo vivendo, a cui non ha fatto certamente
bene il furore normativo. Molti ritengono che
bastava dare corso agli aggiornamenti (già
disponibili all’epoca), dei D.M. 1996 e poi, invece
di far sciupare tempo e risorse dietro lo studio di
norme “inapplicabili”, discutere sugli EuroCodici,
diffonderli e pubblicare anche qualche testo
applicativo. Aprendo un’ampia discussione
sull’opportunità di rendere cogente un testo così
voluminoso, oppure pervenire ad un provvedimento
normativo più snello ed essenziale, che definisca i
principi a cui attenersi, rimandando agli EC come
documento tecnico di riferimento.
Se una lezione vogliamo coglierla da questa vicenda,
non possiamo che invitare i legislatori a diffidare
di chi vuole farci credere che la sicurezza dai
terremoti, la si ottiene attraverso l’emanazione di
norme più o meno estemporanee, ed a percorrere
invece la strada maestra della qualificazione
dell’intero settore, attraverso azioni volte
prioritariamente a:
• selezionare e qualificare le imprese che operano
in ambito strutturale, alla stessa stregua degli
impiantisti, con l’obbligo di rilasciare a fine
lavori una dichiarazione di conformità ;
• riaffermare la centralità del progetto e definire
le competenze professionali nel settore edilizio, in
un processo che veda coinvolti tutti gli
interlocutori necessari a garantire un risultato
ottimale sotto tutti gli aspetti (Architettonico,
Strutturale, Impiantistico, etc.).
Concludendo giova ricordare le parole dell’ing.
Eladio Dieste (13), che con
foglio e matita progettava volte in laterizio dello
spessore di 12 cm con luce superiore ai 70 metri:
Se vogliamo formare degli ingegneri, non dobbiamo
educare i giovani ad usare tabelle e manuali di cui
non conoscono il fondamento, ma al contrario fornire
loro una solida base di conoscenze scientifiche e,
attraverso corsi di progettazione o laboratori,
insegnare loro ad usare quelle basi.
Queste riflessioni, insieme alle parole del prof.
Pozzati ed al suo invito all’uso della ragione, sono
oggi più che mai attuali, anche per noi ingegneri e
ci impongono di fermarci e di avviare una seria
riflessione.
Fausto Giovannardi
27 Febbraio 2006
CLIKKA
QUI E SCARICA QUESTO ARTICOLO IN FORMATO PDF
NOTE
1
http://www.regione.emilia-romagna.it/geologia/forum/sismica/default.asp
2 Opportunamente pubblicati
sul sito della Regione Emilia Romagna
3 Vedi ad esempio la
normativa sulla sicurezza 494, i DURC, etc
4 La scienza delle
costruzioni e il suo sviluppo storico, Edoardo
Benvenuto - Sansoni 1981 paragrafo 21.2
5 Il calcolo sismico degli
edifici in muratura, UTET maggio 2005. (estratto
dalle pag.66-69)
6 Piero Mauro Giornale AICAP
n.4 Aprile 2005 trattando dello stato dell’analisi
non lineare dice “si devono però superare difficoltà
operative attinenti alla non validità del Principio
di sovrapposizione degli effetti, alla presa in
conto della sequenza di applicazione delle azioni e
degli aspetti stocastici… infine una difficoltà
d’applicazione deriva dall’insufficienza di dati
disponibili sulle leggi di deformazione in presenza
di stati di tensione complessi.
7 Roberto Spagnuolo
“Parliamo di analisi pushover” 24 maggio 2004 sito
web Softing Realizzare un elemento piano non
resistente a trazione è banale. Però che succede nel
momento in cui, di colpo, la matrice di rigidezza
della struttura cambia perché si vanifica l’apporto
di un punto della struttura? … Esiste un problema
ancora più grosso: la fessura (parlo sempre in un
salotto) è valutata in un punto ma si “spalma”
sull’elemento per cui di fatto la variazione di
rigidezza dovuta alla formazione di fessure… E’ per
questo che non abbiamo mai fatto il famigerato
“elemento muratura “, come dicono alcuni dimostrando
di non aver capito nulla di elementi finiti. Cioè,
non abbiamo mai rilasciato elementi non reagenti a
trazione. In genere, contrariamente a quello che i
più pensano, quando dei professionisti non
rilasciano sul mercato degli “articoli” che
sarebbero anche utili per vendere, un motivo ci
sarà. O no?
8 Teresa Crespellani DIFESA
DAI TERREMOTI E NORMATIVE TECNICHE. UN’EREDITÀ
DIFFICILE in Democrazia e Diritto n.3/2005
9 OPCM 3274-2003 e s.m. e
D.M. 14.09.2005 Norme Tecniche per le Costruzioni.
10 Una risposta ha provato a
darla la trasmissione Report su RaiTre del 23
ottobre 2005
11 Francesco Zorzi, dal
contributo del 23.01.2006 sul forum sismico della
Regione Emilia Romagna
12 Paolo Rugarli, dal
contributo “Gattopardismi” del 15.01.2006 sul forum
sismico della Regione Emilia Romagna
13 Eladio Dieste CEDA
Montevideo n. 34 febbraio 1973 |