La misurazione è un processo fondamentale nell'ingegneria per quantificare grandezze fisiche e verificare modelli teorici. Non si limita all'ottenimento di un singolo valore numerico, ma richiede la definizione rigorosa di un modello concettuale e la quantificazione dell'incertezza associata. La qualità di una misura è correlata al suo grado di incertezza. ### Il modello del misurando La **misurazione** è un processo che nasce a livello concettuale per poi concretizzarsi operativamente. Il processo di misurazione si configura attraverso i seguenti step: 1. Identificazione del **misurando** 2. Elaborazione di un **modello del misurando** descritto con parametri 3. **Processo di misura** con l'impiego di strumenti 4. **Risultato:** misura di un parametro Prima di effettuare una misura, è quindi indispensabile elaborare un **modello** del fenomeno o dell'oggetto di studio, caratterizzandolo attraverso parametri specifici. La scelta di tale modello determina lo strumento da impiegare e la procedura operativa, la quale consiste nel quantificare uno dei parametri definiti. Senza un'adeguata schematizzazione, la misura di un parametro è impossibile. Ad esempio, per misurare un tavolo, occorre prima idealizzarlo geometricamente come un rettangolo, definendone i parametri "lunghezza" e "larghezza". Il modello adottato dipende dallo scopo dell'indagine: non esistono modelli universalmente validi, ma solo modelli più o meno efficaci (per precisione o concisione) nel rappresentare la realtà di interesse. Un modello opera per astrazione, trascurando gli aspetti irrilevanti per ridurre la complessità del sistema reale, ne segue che ogni modello ha un dominio di validità limitato. La norma UNI 4546 definisce formalmente il modello come: > *Insieme organico di relazioni tra valori di parametri, descrivente le interazioni e/o l'evoluzione di sistemi.* ### Misura e incertezza Storicamente, la misura era concepita come il rapporto tra una grandezza e la sua unità di misura (approccio euclideo). Successivamente, per includere grandezze intensive (es. temperatura), si è passati a definire la misura come un qualsiasi metodo sperimentale atto ad associare un valore numerico a una grandezza. Il problema operativo fondamentale è che la ripetizione di un processo di misura non restituisce mai lo stesso risultato esatto, ma una dispersione di valori. Questo accade perché: 1. Il modello del misurando è un'astrazione imperfetta. 2. Il processo di misura è intrinsecamente affetto da disturbi non completamente controllabili. Per decenni si è utilizzato il concetto di **errore**, definito come la differenza tra il valore misurato e il "valore vero". Tuttavia, poiché il valore vero è inconoscibile (richiederebbe un modello perfetto e un processo ideale), l'errore stesso non è operativamente determinabile. ==Per superare questa impasse epistemologica e pratica, l'ISO (nel 1993) ha introdotto e standardizzato il concetto di [[Tolleranza e incertezza|incertezza]].== L'incertezza quantifica il dubbio sulla validità del risultato e rappresenta la dispersione dei valori ragionevolmente attribuibili al misurando. Conoscere l'incertezza è cruciale per l'impiego ingegneristico del dato: un'incertezza eccessiva rende la misura inutilizzabile per prendere decisioni tecniche. ### Definizione normativa di misura Recependo le direttive ISO, la norma UNI 4546 definisce la **misura** come: > *Informazione costituita da: un numero, un'incertezza, un'unità di misura assegnati a rappresentare un parametro in un determinato stato del sistema.* La misura non è più un singolo scalare, ma un **intervallo di valori** probabili. ![[Pasted image 20260417173404.png]] *Figura 1: La misura è un intervallo di valori.* La precedente definizione è integrata dalle seguenti: - **Stato del sistema**: insieme dei valori assunti contemporaneamente dai parametri del modello. - **Unità di misura**: termine di riferimento convenzionale per il confronto. - **Incertezza intrinseca**: limite inferiore ineliminabile dell'incertezza, derivante dalla definizione stessa del parametro. - **Parametro**: grandezza fisica (scalare, vettoriale, tensoriale) quantificabile, necessaria per descrivere il sistema. #### Compatibilità tra misure Poiché la misura è un intervallo, il concetto matematico di uguaglianza viene sostituito da quello di **compatibilità**. ==Due o più misure dello stesso parametro nello stesso stato sono *mutuamente compatibili* se le rispettive fasce di incertezza hanno almeno un elemento (un valore) in comune. == A differenza dell'uguaglianza, la compatibilità **non gode della proprietà transitiva**. ![[Pasted image 20260504105522.png]] *Figura 4: Il concetto di compatibilità. Le misure 1-3 e 2-3 sono compatibili; 1 e 3 non lo sono.* Infine, le misure si distinguono in **dirette** (ottenute dalla lettura di un singolo strumento) e **indirette** (calcolate analiticamente a partire da più misure dirette, es. il calcolo del volume moltiplicando i tre lati misurati). #### Applicazioni delle misure In ambito ingegneristico, le misurazioni sono condotte generalmente per: - Comprendere la fisica di fenomeni parzialmente noti. - **Controllare processi** (sistemi in retroazione/feedback). - **Collaudare e verificare** macchine, strutture e impianti. - Compiere studi di ingegneria sperimentale per qualificare, ottimizzare o migliorare le prestazioni di macchine, strutture e impianti - Eseguire la **taratura della strumentazione** attraverso il confronto con campioni noti ### Esempi ed esercizi Immagina di dover misurare la "temperatura di una stanza" 1. **Il Modello:** Prima di usare il termometro, devi decidere *cosa* stai misurando. La temperatura vicino al termosifone? Quella vicino alla finestra? L'aria al centro della stanza? Questa scelta è il tuo *modello del misurando*. Se non lo definisci, la misura non ha senso. 2. **L'Incertezza intrinseca:** Anche se avessi un termometro perfetto, l'aria si muove e la temperatura fluttua. C'è un'incertezza di base che non puoi eliminare. 3. **Il Risultato:** Quando leggi il termometro, non dirai "Ci sono esattamente $20^\circ Cquot;, ma dirai "Ci sono $20^\circ C$, ma potrei sbagliarmi di mezzo grado in più o in meno". Quel "mezzo grado" è l'incertezza. La misura completa è l'informazione unita: $T = 20.0 \pm 0.5^\circ C$. ##### Domande di teoria - [ ] Perché il concetto di "errore" è stato progressivamente sostituito da quello di "incertezza" nella metrologia moderna? - [ ] Spiega perché la compatibilità tra misure non gode della proprietà transitiva, aiutandoti con un esempio grafico o numerico. - [ ] Qual è la differenza tra accuratezza e ripetibilità di uno strumento di misura? - [ ] In che modo l'inserzione di uno strumento di misura può alterare il misurando stesso (effetto di carico)? Fai un esempio pratico in ambito meccanico o termico. ##### Esercizi - [ ] **Esercizio 1 | Compatibilità:** Siano date tre misurazioni della lunghezza di un albero motore: $L_1 = 150.2 \pm 0.3 \text{ mm}$, $L_2 = 150.6 \pm 0.2 \text{ mm}$, $L_3 = 150.4 \pm 0.3 \text{ mm}$. Verifica analiticamente quali coppie di misure risultano mutuamente compatibili. - [ ] **Esercizio 2 | Misure indirette:** Un cilindro ha un raggio misurato $r = 10.0 \pm 0.1 \text{ cm}$ e un'altezza $h = 50.0 \pm 0.2 \text{ cm}$. Calcola il volume nominale. ### Collegamenti --- > [!info]- Risorse > ![[!Misure meccaniche e termiche#Risorse#Bibliografia]] > ![[!Misure meccaniche e termiche#Risorse#Approfondimenti]] --- > [!danger] Info > ![[!Misure meccaniche e termiche#Collegamenti]]