Precisione della misurazione: cosa devi sapere
CasaCasa > Blog > Precisione della misurazione: cosa devi sapere

Precisione della misurazione: cosa devi sapere

Jun 10, 2023

È una vecchia sfida: sei un produttore il cui cliente ha bisogno che tu gli garantisca che la parte che hai incaricato di realizzare per loro sarà mantenuta entro tolleranze specificate. Quindi, qual è il metodo migliore per assicurarsi che la parte rientri nelle specifiche? La domanda non è solo come misurare la parte (un tastatore CMM o uno scanner laser?) ma anche come valutare la qualità della misurazione. Per trovare il modo più accurato per misurare la tua parte, devi comprendere l'incertezza inerente a ciascun sistema di misurazione.

Fortunatamente, esistono organizzazioni nazionali e internazionali che sviluppano standard per aiutare a codificare i livelli di incertezza delle misurazioni. L'American Society of Mechanical Engineers (ASME), New York, e l'Organizzazione internazionale per la standardizzazione (ISO), Ginevra, Svizzera, ad esempio, offrono standard per comunicare i livelli di precisione per vari metodi metrologici. Sono una risorsa importante ma, come vedremo, da soli non possono dirti quale sia il metodo migliore per un compito particolare.

Allora, cosa deve fare un produttore?

Se sei un principiante, assicurati innanzitutto di comprendere alcuni termini di base. Ad esempio, Tim Cucchi, product manager, Precision Hand Tools presso LS Starrett Co., Athol, Mass., ha avvertito di non confondere l'accuratezza con la risoluzione.

“Nella strumentazione industriale, la precisione è la tolleranza di misura dello strumento. Definisce i limiti degli errori commessi quando lo strumento viene utilizzato in condizioni operative normali. La risoluzione è semplicemente la precisione con cui lo strumento di misura è impostato per leggere, sia in decimi, centinaia, migliaia o altro."

La distinzione conta. Ti fideresti del metro di un negozio di ferramenta per misurare e tagliare un palo di recinzione, ma non per controllare un componente aerospaziale o medico di precisione, e questo è vero anche se il metro avesse segni di hash a 1 µm di distanza l'uno dall'altro. La sua risoluzione non rifletterebbe realmente la sua precisione.

La tolleranza di stampa si riferisce alla quantità di deviazione dimensionale consentita su una parte come definito dai progetti o dalle specifiche del cliente. Cucchi ha sottolineato che le tolleranze di stampa non riguardano il metodo metrologico utilizzato per soddisfarle, ma solo i requisiti della parte. Spetta al produttore trovare un metodo affidabile per verificare l'accuratezza della parte.

"I professionisti della misurazione sono consapevoli che c'è sempre un errore nella misurazione", ha osservato Gene Hancz, specialista di prodotto CMM, Mitutoyo America Corp., Aurora, Illinois. "È quindi fondamentale definire cosa significa qualità di misurazione 'sufficientemente buona'."

È una definizione che gli ingegneri hanno articolato in modi diversi nel corso del tempo, ha detto Hancz. La domanda è stata: quale livello di precisione è necessario affinché la misurazione sia attendibile?

"Nel 1950 fu pubblicato uno standard militare statunitense, MIL-STD-120 Gage Inspection, che stabiliva che quando le parti venivano misurate, le tolleranze di precisione delle apparecchiature di misurazione non dovevano superare il 10% delle tolleranze delle parti da controllare." Ha detto Hancz. Quindi, se la tolleranza di stampa di una parte è, ad esempio, di un centimetro, allora il sistema di misurazione deve essere accurato fino a un decimo di quella, o un millimetro. "Questa regola è spesso chiamata regola 10:1, o regola Gagemaker", ha aggiunto.

Quindi, come è possibile garantire che il sistema utilizzato per misurare quella parte sia accurato fino a un decimo della tolleranza di stampa necessaria, in questo caso 1 mm? Secondo lo stesso standard, lo si calibra fino a 0,2 mm ancora più fini: MIL-STD-120 affermava che la precisione degli standard di misurazione utilizzati per calibrare l'apparecchiatura di misurazione stessa non dovrebbe superare il 20% delle tolleranze dell'apparecchiatura di misurazione utilizzata. calibrato, o 5:1, secondo Hancz.

"Entrambe queste regole si sono trasformate nel corso degli anni in quello che viene spesso chiamato TAR, o rapporto di accuratezza del test, e i requisiti passati di 10:1 o 5:1 sono ora generalmente indicati come requisito 4:1, o il 25% del tolleranza.

"La valutazione dell'incertezza di misura ha fatto irruzione nella pratica di calibrazione commerciale alla fine degli anni '90", ha continuato Hancz. "Man mano che sempre più laboratori di taratura hanno iniziato a calcolare e documentare l'incertezza, sia negli ambiti di accreditamento che nei certificati di taratura, la pratica di utilizzare i calcoli TAR ha cominciato a essere sostituita con il rapporto di incertezza del test, TUR."