Vergleich zweier Messmethoden
Verfasst: Sa 27. Aug 2016, 12:36
Hallo da draußen!
Sitze hier vor einem (vermutlich relativ einfachen) Problem und bekomme den Knoten aus meinem Kopf nicht raus:
Ich habe zwei Messreihen an den exakt gleichen Objekten (N=25) gemacht (Längenmessung). Für die erste Messreihe habe ich die (planen) Objekte eingescannt und via Software vermessen. Diese Messung ist sehr genau; ich kann also davon ausgehen, dass diese Messung "sehr richtig" ist.
In einem zweiten Schritt habe ich die Messungen nochmals mittels eines Lineals durchgeführt (sehr exaktes Lineal mit einer Genauigkeit von +- 0.05 mm).
Jetzt würde ich natürlich gerne wissen, wie hoch die Abweichung zwischen den "echten" gescannten Werten is, und der von Hand abgemessenen.
(Hintergrund: von Hand Messen geht viel viel schneller und bei vielen Hundert Objekten ist Scannen nicht möglich)
Ich bin mir ziemlich sicher, dass sich schon mal jemand Gedanken darüber gemacht hat, und es etablierte Methoden gibt... aber nach zwei Tagen Googeln komme ich einfach nicht weiter.
Frage 1: kennt jemand so eine Methode und kann mir einen Namen dazu geben?
Frage 2: Ich war auch nicht ganz untätig und hab mir selber was überlegt.Ist die folgende Idee anwendbar, oder gibt es da größere Probleme:
Scan = Ermittelte Abmessung aus Scan
Hand = Messung mit dem Lineal
Schritt 1: Differenzen der zusammenhängenden Messwerte bilden: (Hand1-Scan1)
Schritt 2: Mittelwert aus allen Paaren bilden: ((Hand1-Scan1)+(Hand2-Scan2)...(Hand25-Scan25))/25
Schritt 3: Standardabweichung, damit später die Abweichung berichtet werden kann " z.B. Die Ergebnisse der Hand Methode weicht xx +- xx mm von den gescannten Ergebnissen ab"
Vielen Dank für Eure Ideen!!
Sitze hier vor einem (vermutlich relativ einfachen) Problem und bekomme den Knoten aus meinem Kopf nicht raus:
Ich habe zwei Messreihen an den exakt gleichen Objekten (N=25) gemacht (Längenmessung). Für die erste Messreihe habe ich die (planen) Objekte eingescannt und via Software vermessen. Diese Messung ist sehr genau; ich kann also davon ausgehen, dass diese Messung "sehr richtig" ist.
In einem zweiten Schritt habe ich die Messungen nochmals mittels eines Lineals durchgeführt (sehr exaktes Lineal mit einer Genauigkeit von +- 0.05 mm).
Jetzt würde ich natürlich gerne wissen, wie hoch die Abweichung zwischen den "echten" gescannten Werten is, und der von Hand abgemessenen.
(Hintergrund: von Hand Messen geht viel viel schneller und bei vielen Hundert Objekten ist Scannen nicht möglich)
Ich bin mir ziemlich sicher, dass sich schon mal jemand Gedanken darüber gemacht hat, und es etablierte Methoden gibt... aber nach zwei Tagen Googeln komme ich einfach nicht weiter.
Frage 1: kennt jemand so eine Methode und kann mir einen Namen dazu geben?
Frage 2: Ich war auch nicht ganz untätig und hab mir selber was überlegt.Ist die folgende Idee anwendbar, oder gibt es da größere Probleme:
Scan = Ermittelte Abmessung aus Scan
Hand = Messung mit dem Lineal
Schritt 1: Differenzen der zusammenhängenden Messwerte bilden: (Hand1-Scan1)
Schritt 2: Mittelwert aus allen Paaren bilden: ((Hand1-Scan1)+(Hand2-Scan2)...(Hand25-Scan25))/25
Schritt 3: Standardabweichung, damit später die Abweichung berichtet werden kann " z.B. Die Ergebnisse der Hand Methode weicht xx +- xx mm von den gescannten Ergebnissen ab"
Vielen Dank für Eure Ideen!!