사용자 도구

사이트 도구


우연오차

차이

문서의 선택한 두 판 사이의 차이를 보여줍니다.

차이 보기로 링크

양쪽 이전 판이전 판
다음 판
이전 판
우연오차 [2026/04/15 15:10] – 우연오차 sync flyingtext우연오차 [2026/04/15 15:19] (현재) – 우연오차 sync flyingtext
줄 130: 줄 130:
 === 오차 곡선의 대칭성 === === 오차 곡선의 대칭성 ===
  
-양의 오차와 음의 오차가 발생할 확률이 동하다는 통계적 성질을 설명한다.+[[우연오차]](Random error)는 개별 측정에서는 무작위적이고 예측 불가능한 상을 보이지만, 대량의 관측 데이터를 집합적으로 분석할 때 매우 정연한 통계적 규칙성을 나타낸다. 이러한 규칙성의 핵심은 바로 오차 분포의 대칭성(Symmetry)이다. 오차 곡선의 대칭성이란 동일한 조건에서 반복 측정을 수행할 때, 참값(True value)을 기준으로 양(+)의 방향으로 발생하는 오차와 음(-)의 방향으로 발생하는 오차가 나타날 확률이 서로 동일하다는 성질을 의미한다. 이는 [[통계학]]적 관점에서 우연오차가 특정한 방향으로 편향되지 않았음을 보장하는 근거가 된다. 
 + 
 +역사적으로 이러한 대칭성의 개념은 [[카를 프리드리히 가우스]](Carl Friedrich Gauss)에 의해 정립된 [[오차 법칙]](Law of error)의 근간이 되었다. 가우스는 측정 오차를 수학적으로 모델링하면서 몇 가지 근본적인 가정을 제시하였는데, 그중 하나가 “크기가 같고 부호가 반대인 오차는 발생할 확률이 같다”는 원리이다. 이를 확률론적으로 표현하면, 오차 $\epsilon$에 대한 [[확률밀도함수]](Probability Density Function, PDF)를 $f(\epsilon)$이라 할 때, 다음과 같은 대칭 관계가 성립한다. 
 + 
 +$$ f(\epsilon) = f(-\epsilon) $$ 
 + 
 +이 식은 오차의 분포 곡선이 오차의 기댓값인 영($0$)을 중심으로 좌우가 거울을 보듯 완벽하게 대칭을 이룸을 시사한다. 이러한 수학적 대칭성은 [[가우스 분포]](Gaussian distribution)의 지수 함수 형태인 $ (-) $에서 명확히 드러난다. 변수인 오차 $\epsilon$이 제곱의 형태로 포함되어 있기 때문에, $\epsilon$의 부호가 바뀌더라도 확률 밀도의 값은 변하지 않는 것이다. 
 + 
 +오차 곡선의 대칭성은 물리적 측정 결과의 처리 과정에서 결정적인 함의를 갖는다. 만약 오차 분포가 대칭적이라면, 무한히 많은 횟수의 반복 측정을 수행하여 얻은 오차들의 합은 통계적으로 영에 수렴하게 된다. 이는 [[산술 평균]](Arithmetic mean)이 측정 대상의 가장 신뢰할 수 있는 추정치인 최확치(Most probable value)가 되는 논리적 토대를 제공한다. 국제 계측 표준인 [[측정 불확실성 표현 지침]](Guide to the Expression of Uncertainty in Measurement, GUM)에서도 측정 데이터의 불확실성을 평가할 때, 특별한 반증이 없는 한 우연오차가 가우스 분포를 따른다고 가정하는 것은 이러한 대칭적 특성이 물리적 세계의 무작위 변을 가장 잘 반영기 때문이((ISO/IEC Guide 98-3:2008, Uncertainty of measurement — Part 3: Guide to the expression of uncertainty in measurement (GUM:1995), https://www.iso.org/standard/50462.html 
 +)). 
 + 
 +만약 실제 측정 데이터에서 얻은 오차 분포가 현저한 비대칭성(Asymmetry)을 보인다면,는 해당 측정 시스템에 우연오차 이외의 요인이 개입했음을 암시한다. 특정 방향으로 오차가 치우치는 현상은 대개 보정되지 않은 [[계오차]](Systematic error)의 존재나 측정 기기의 비선형적 특성, 혹은 관찰자의 주관적 편견 등에서 기인한다. 따라서 오차 곡선의 대칭성을 검토하는 것은 측정의 [[정밀도]](Precision)를 확인하는 단를 넘어, 측정 시스템 전체의 [[정확도]](Accuracy)와 신뢰성을 검증하는 중요한 수단이 된다. 결론으로 대칭은 우연오차를 정의하는 본적 속성이자, 통계적 추론을 가능케 하는 수학적 전제 조건이라 할 수 있다.
  
 === 평균값으로의 수렴 === === 평균값으로의 수렴 ===
  
-오차의 기댓값이 이 됨에 따라 측정 횟수가 늘어록 참값에 근접하는 리를 다룬다.+우연오차의 가장 중요한 통계적 특성은 무작위성(randomness)에 기인하여 그 [[기댓값]](expected value)이 0이 된다는 점이다. 이는 동일한 조건에서 무한히 많은 횟수의 측정을 수행할 때, 양의 방향으로 발생하는 오차와 음의 방향으로 발생하는 오차가 서로 상쇄을 의미한다. 이러한 성질은 [[산술 평균]](arithmetic mean)을 통해 [[참값]](true value)을 추정할 수 있는 수학적 근거를 제공한다. 개별 측정서 발생하는 우연오차는 통제 불가능한 변수들의 복합적인 작용으로 인해 매번 다른 값을 갖지만, 이들의 집합적 거동은 [[확률론]]적 규칙성을 르기 때문이다. 
 + 
 +개별 측정치 $x_i$를 참값 $\mu$와 우연오차 $\epsilon_i$의 합으로 정의할 때, 즉 $x_i = \mu + \epsilon_i$라 할 때, $n$번의 반복 측정에 대한 [[표본 평균]]인 산술 평균 $\bar{x}$는 다음과 같이 표현된다. 
 + 
 +$$ \bar{x} = \frac{1}{n} \sum_{i=1}^{n} x_i = \frac{1}{n} \sum_{i=1}^{n} (\mu + \epsilon_i) = \mu + \frac{1}{n} \sum_{i=1}^{n} \epsilon_i $$ 
 + 
 +여기서 우연오차 $\epsilon_i$가 서로 독립적이고 동일한 [[확률 분포]]를 따른다고 가정하면([[독립 항등 분포]], independent and identically distributed), [[대수의 법칙]](law of large numbers)에 의해 측정 횟수 $n$이 증함에 따라 오차의 평균인 $\frac{1}{n} \sum \epsilon_i$는 확률적으로 0에 수렴하게 된다. 결과적으로 표본 평균 $\bar{x}$는 측정 횟수가 무한해짐에 따라 참값 $\mu$에 점근적으로 수렴하게 된다. 이는 통계적 추정 이론에서 산술 평균이 참값에 대한 [[불편 추정량]](unbiased estimator)임을 시사한다. 
 + 
 +이 과정에서 주목할 점은 수렴의 속도와 그에 따른 정밀도의 향상이다. [[중심 극한 정리]](central limit theorem)에 따르면, 우연오차의 [[분산]](variance)을 $\sigma^2$이라 할 때, 표본 평균의 분산은 $\text{Var}(\bar{x}) = \frac{\sigma^2}{n}$이 된다. 따라서 표본 평균의 [[표준 편차]]이자 측정의 불확실성을 나타내는 [[표준 오차]](standard error)는 다음과 같이 산출된다. 
 + 
 +$$ \sigma_{\bar{x}} = \frac{\sigma}{\sqrt{n}} $$ 
 + 
 +위 식은 측정 횟수 $n$을 4배 릴 때 오차의 범위가 절반으로 줄든다는 것을 의미하며, 반복 측정이 [[정밀도]](precision)를 향상시키는 결정적인 기제임을 학적으로 입증한다. 즉, 개별 측정의 우연오차를 완전히 제거할 수는 없으나, 충분한 반복 측정을 통해 그 평균값이 참값에 도달하는 신뢰도를 임의의 수준까지 높일 수 있다. 
 + 
 +현대 [[계측학]]의 지침서인 [[측정 불확실성 표현 지침]](Guide to the Expression of Uncertainty in Measurement, GUM)에서는 이러한 통계적 처리를 ’A형 불확실성 평가’로 분류한.((JCGM 100:2008, Evaluation of measurement data — Guide to the expression of uncertainty in measurement, https://www.bipm.org/en/publications/guides/gum.html 
 +)) 비록 현실적인 제약으로 인해 무한한 횟수의 측정을 수행할 수는 없으나, 충분히 큰 $n$에 대하여 산술 평균은 참값에 대한 [[최상 추정치]](Best estimate)로서의 자격을 갖는다. 이는 우연오차가 편향되지 않은 성질을 지니고 있기에 가능한 결과이며, 만약 [[계통오차]]가 존재한다면 평균값은 참값이 아닌 편향된 값으로 수렴하게 되어 측정의 [[정확도]](Accuracy)를 담보할 수 없게 된다. 따라서 평균값으로의 수렴 원리는 우연오차를 제어하고 측정 결과의 신뢰성을 확보하는 공학적 및 과학적 방법론의 근간을 이룬다.
  
 ==== 중심 극한 정리의 적용 ==== ==== 중심 극한 정리의 적용 ====
줄 212: 줄 238:
 ==== 오차의 누적과 상쇄 효과 ==== ==== 오차의 누적과 상쇄 효과 ====
  
-여러 단계의 측정 과정에서 우연오차가 서로 상쇄되나 전파는 수학적 과정을 다룬다.+하나의 물리량을 측정하기 위해 여러 단계의 측 을 거치거나, 서로 다른 측정값들을 조합하여 최종 결를 도출하는 [[간접 측]](indirect measurement) 방식에서는 개별 단계에서 발생한 [[우연오차]](random error)가 최종 결과에 복합적으로 반영된다. 이때 우연오차는 [[계통오차]]와 달리 양(+)과 음(-)의 방향으로 무작위하게 발생하므로, 다수의 측정치가 결합되는 과정에서 오차의 일부가 서로 상쇄(cancellation)는 통계적 특성을 보인다. 이러한 현상을 수학적으로 기술하는 핵심 원리가 [[오차 전파]](propagation of error)의 법칙이다. 
 + 
 +최종 측정 결과 $ Y $가 독립적인 여러 측정값 $ X_1, X_2, , X_n $의 함수 $ Y = f(X_1, X_2, , X_n) $으로 정의될 때, 각 변수의 미세한 우연오차 $ X_i $가 $ Y $에 미치는 영향은 [[테일러 급수]](Taylor series) 전개를 통해 분석할 수 있다. 오차가 충분히 작다고 가정하면, $ Y $의 편차는 다음과 같이 각 변수에 대한 [[편미분]](partial derivative) 계수를 가중치로 하는 선형 결합으로 근사된다. 
 + 
 +$$ \Delta Y \approx \sum_{i=1}^{n} \frac{\partial f}{\partial X_i} \Delta X_i $$ 
 + 
 +위 식에서 개별 우연오차 $ X_i $는 무작위 변수이므로, 단순히 그 절대값을 합산하는 것은 오차의 크기를 과다하게 추정하는 결과를 낳는다. 각 오차 성분이 서로 독립적이라면, 통계적으로 양의 오차와 음의 오차가 결합하여 전체 변동성을 완화하는 상쇄 효과가 발생한다. 이를 정량화하기 위해 각 변수의 [[분산]](variance)을 이용하면, 최종 결과의 분산 $ _Y^2 $은 각 성분 분산의 가중 제곱합으로 타나며 이를 [[가우스 오차 전파 법칙]](Gauss’s law of error propagation)이라 한다. ((JCGM, “Evaluation of measurement data — Guide to the expression of uncertainty in measurement (GUM 1995 with minor corrections)”, https://www.bipm.org/documents/20126/2071204/JCGM_100_2008_E.pdf 
 +)) 
 + 
 +$$ \sigma_Y^2 = \sum_{i=1}^{n} \left( \frac{\partial f}{\partial X_i} \right)^2 \sigma_{X_i}^2 $$ 
 + 
 +이 식은 우연오차가 누적될 때 선형적인 합($ |X_i| $)이 아니라 제곱합의 제곱근(Root Sum Square, RSS) 형태로 증가함을 보여준다. 예를 들어 동일한 정밀도를 가진 $ n $개의 측정값을 단순히 더할 경우, 전체 오차의 표준 편차는 개별 오차의 $ n $배가 아니라 $  $배에 비례하여 증가한다. 결과적으로 측정 단계가 늘어남에 따라 절대적인 오차의 총량은 커지지만, 전체 값에서 오차가 차지하는 상대적인 비율은 상쇄 효과로 인해 점차 감소하게 된다. 
 + 
 +만약 측정 변들 사이에 상관관계가 존재한다면 상쇄 효과는 제한될 수 있다. 두 변수 사이의 의존성을 나타내는 [[공분산]](covariance) 또는 [[상관계수]](correlation coefficient)가 양의 값을 가질 경우, 한 변수의 오차가 커질 때 다른 변수의 오차도 같은 방향으로 커지는 경향을 보이므로 오차의 누적 폭이 독립적일 때보다 커진다. 반대로 음의 상관관계를 가진다면 상쇄 효과는 더욱 극대화된다. 따라서 현대 [[계측]]에서는 복합인 측정 시스템의 정밀도를 확보하기 위해 각 측정 인자 간의 독립성을 유지하거나, 상관관계를 정밀하게 분석하여 [[측정 불확실성]](measurement uncertainty)을 산출하는 과정을 필수적으로 수행한다. ((JCGM, “Evaluation of measurement data — Guide to the expression of uncertainty in measurement (GUM 1995 with minor corrections)”, https://www.bipm.org/documents/20126/2071204/JCGM_100_2008_E.pdf 
 +))
  
 ===== 오차의 처리 및 최소화 방법론 ===== ===== 오차의 처리 및 최소화 방법론 =====
줄 245: 줄 285:
 ==== 최소제곱법의 원리와 응용 ==== ==== 최소제곱법의 원리와 응용 ====
  
-오차의 제곱합을 최소화하여 가장 타당한 물리량을 하는 학적 최적화 기법을 다다.+[[최소제곱법]](Least Squares Method)은 측정값에 포함된 [[우연오차]]를 수학적으로 처리하여 미지수의 최적값을 결정하는 가장 대표적인 최적화 기법이다. 이 방법은 1805년 [[아드리앵마리 르장드르]](Adrien-Marie Legendre)에 의해 처음 발표되었으며, 이후 [[카를 프리드리히 가우스]](Carl Friedrich Gauss)가 이를 통계학적으로 정립하고 [[천체 역학]]에 성공적으로 적용하면서 현대 [[계측학]]과 데이터 분석의 핵심 도구로 자리 잡았다. 최소제곱법의 기본 아이디어는 관측값과 이론적 모형 사이의 차이인 [[잔차]](Residual)의 제곱합을 최소화함으로써, 우연오차의 영향을 가장 효과적으로 억제한 추정치를 도출는 데 있다. 
 + 
 +수학적 정형화를 위해 특정한 물리량 $\beta$를 결정하기 위한 $n$번의 독립적인 측정이 수행되었다고 가정한다. 이때 $i$번째 측정값 $y_i$와 모형 함수 $f(x_i, \beta)$ 사이의 차이를 잔차 $r_i$로 정의하며, 이는 다음과 같이 표현된다. 
 + 
 +$ r_i = y_i - f(x_i, ) $ 
 + 
 +기서 $x_i$는 독립 변수를 의미한다. 우연오차는 양과 음의 방향성을 모두 가질 수 있으므로, 단순히 잔차의 합을 구하면 오차끼리 상쇄되어 전체적인 오차의 크기를 정확히 반영하지 못한다. 따라서 각 잔차를 제곱하여 합산한 [[목적 함수]](Objective function) $S$를 설정한다. 
 + 
 +$ S = %%//%%{i=1}^{n} r_i^2 = %%//%%{i=1}^{n} (y_i - f(x_i, ))^2 $ 
 + 
 +최소제곱법의 원리는 이 제곱합 $S$가 최소가 되는 파라미터 $\beta$를 찾는 것이다. 함수 $S$가 최소가 되기 위해서는 $\beta$에 대한 [[편미분]] 값이 0이 되어야 한다는 필요조건을 만족해야 한다. 
 + 
 +$  = -2 _{i=1}^{n} (y_i - f(x_i, ))  = 0 $ 
 + 
 +이 과정을 통해 유도된 방정식을 [[정규 방정식]](Normal equations)이라 하며, 이를 풀이함으로써 우연오차가 포함된 데이터로부터 가장 타당한 물리량을 산출할 수 있다. 특히 모형이 선형인 경우, 규 방정식은 선형 연립방정식의 형태를 띠어 행렬 대를 통해 유일한 해를 직접 구할 수 있다. 
 + 
 +소제곱법이 통계으로 정당성을 얻는 배경에는 [[가우스 분포]]와의 밀접한 연관성이 존재한다. 가우스는 우연오차가 평균이 0인 정규 분포를 따른다고 가정할 때, 최소제곱법으로 얻은 추정치가 [[최대 가능도 추정]](Maximum Likelihood Estimation, MLE)과 일치함을 증명하였다. 즉, 우연오차가 정규 분포를 따르는 환경에서 최소제곱법은 관측된 데이터가 나타날 확률을 최대하는 가장 합리적인 해를 제공한다. 또한, [[가우스-마르코프 정리]](Gauss-Markov theorem)에 따르면 선형 모형에서 오차의 대값이 0이고 서로 독립이며 일정한 분산을 가질 때, 최소제곱 추정량은 모든 선형 불편 추정량 중에서 분산이 가장 작은 [[최적 선형 불편 추정량]](Best Linear Unbiased Estimator, BLUE)이 된다. 
 + 
 +이러한 원리는 단순한 평균값 계산을 넘어 [[선형 회귀]](Linear regression) 분석, 위성 항법 시스템의 위치 결정, 물리 상수 측정 등 광범위한 공학 및 과학 분야에 응용된다. 특히 다수의 관측 방정식이 존재하는 과결정 시스템(Overdetermined system)에서 최소제곱법은 개별 측정의 불확실성을 통계적으로 융합하여 전체 시스템의 신뢰도를 높이는 결정적인 역할을 수행한. 현대에 이르러서는 오차의 성격에 따라 가중치를 부여하는 가중 최소제곱법(Weighted Least Squares)이나 비선형 문제를 해결하기 위한 [[가우스-뉴턴 방법]](Gauss-Newton method) 등으로 확장되어 사용되고 있다.
  
 ==== 데이터 필터링과 이상치 제거 ==== ==== 데이터 필터링과 이상치 제거 ====
  
-우연오차의 범위를 벗어나는 정상적 데이터를 식하고 처리하는 기준을 제시한다.+측정 과정에서 [[우연오차]]는 통계적 규칙성을 가지고 분포하지만, 때로는 전체 데이터의 경향성에서 현저하게 벗어난 관측값이 발생하기도 한다. 이러한 데이터를 [[이상치]](Outlier)라고 하며, 이는 단순한 우연오차의 극단적인 발현일 수도 있으나 실험 장치의 일시적 오작동, 관찰자의 실수, 혹은 예기치 못한 외부 간섭 등 계통적 요인에 의해 발생했을 가능성이 크다. 이상치는 [[산술 평균]]과 [[표준 편차]]에 심각한 왜곡을 초래하여 측정의 [[신뢰성]]을 저하시키므로, 이를 식별하고 적절히 처리하는 데이터 필터링 과정은 우연오차 분석의 필수적인 단계이다. 
 + 
 +이상치를 식별하는 가장 기본적인 통계적 근거는 [[가우스 분포]]의 확률 밀도에 기반한다. 정규 분포를 따르는 데이터 집합에서 측정값이 평균으로부터 표준 편차($\sigma$)의 3배 이상 떨어진 구간에 존재할 확률은 약 0.27%에 불과하다. 따라서 이를 기준으로 삼는 [[3시그마 규칙]](3-sigma rule) 또는 파우타 기법(PauTa Criterion)은 관측값이 우연오차의 범위를 벗어났는지를 판단하는 고전적인 척도로 활용된다. 그러나 샘플의 크기가 작은 경우, 단순히 표준 편차만을 기준으로 삼는 것은 통계적 유의성이 부족할 수 있다. 
 + 
 +보다 엄밀한 학술적 기준으로는 [[그럽스 검]](Grubbs’ Test)이나 [[쇼브네 기준]](Chauvenet’s Criterion)이 주로 사용된다. 그럽스 검정은 단일 이치를 검출하는 데 특화된 방법으로, 측정값과 평균의 차이를 표준 편차로 나눈 검정 통계량 $G$를 산출하여 이를 임계값과 비교한다. 쇼브네 기준은 특정 측정값이 나타날 확률에 데이터의 총 개수($n$)를 곱한 값이 0.5보다 작을 때 해당 데이터를 폐기하는 방이다. 이러한 통계적 검정은 주관적인 판단을 배제하고 객관적인 수치에 근거하여 데이터의 유효성을 검증하는 도구가 된다. 
 + 
 +데이터 필터링은 단순히 이상치를 제거하는 것에 그치지 않고, 신호에 포함된 고주파 성분의 우연오차를 억제하는 과정도 포함한다. [[이동 평균]](Moving Average) 필터는 연속적인 측정 데이터에서 일정 구간의 평균을 산출하여 데이터의 흐름을 매끄럽게 만드는데, 이는 무작위적으로 변동하는 우연오차를 상쇄시키는 효과를 가진다. 또한 [[칼만 필터]](Kalman Filter)와 같은 재귀적 필터는 측정 시스템의 동역학적 모델과 오차의 통계적 특성을 결합하여 실시간으로 최적의 추정치를 계산함으로써, 우연오차가 포함된 원시 데이터로부터 유의미한 정보를 추출하는 데 기여한다. 
 + 
 +다만 이상치 제거와 필터링 과정에서는 데이터의 임의적 조작을 방지하기 위한 엄격한 윤리적, 과학적 기준이 준수되어야 한다. 통계적 기준을 충족하더라도 물리적으로 설명 불가능한 데이터 폐기는 지양해야 하며, 이상치가 단순한 오차가 아니라 새로운 물리적 현상의 전조일 가능성도 배할 수 없기 때문이다. 따라서 이상치로 판명된 데이터는 별도로 기록하여 그 발생 원인을 분석하는 것이 바람직하며, 필터링 기법의 선택 역시 측정 대상의 물리적 특성과 우연오차의 분포 형태를 충분히 고려하여 결정되어야 한다.((ISO 16269-4:2010, Statistical interpretation of data — Part 4: Detection and treatment of outliers, https://www.iso.org/standard/43592.html 
 +))
  
 === 유의성 검정과 신뢰 구간 === === 유의성 검정과 신뢰 구간 ===
  
-측정 결과가 통계적으로 의미한 범위 내에 있는지 판하는 검정 방법을 소한다.+측정 과정에서 발생하는 [[우연오차]](Random error)는 개별 측정값의 불확실성을 유발하므로, 단일한 측정 결과만으로는 대상의 참값에 대한 완전한 결론을 내릴 수 없다. 따라서 수집된 데이터가 통계적으로 어떠한 의미를 갖는지, 그리고 특정 가설이 우연에 의한 변동 범위 내에 있는지를 기 위한 [[통계적 추론]](Statistical inference) 절차가 필수적으로 요구된다. 이러한 추론의 핵심 도구는 [[신뢰 구간]](Confidence interval)의 설정과 [[유의성 검정]](Significance testing)이다. 이 과정은 우연오차의 분포 특성을 수학적으로 모형화하여 측정 결과의 객관적 신뢰성을 정량화하는 작업을 포함한다. 
 + 
 +신뢰 구간은 표본으로부터 얻은 통계량을 바탕으로 [[모수]](Parameter)가 존재할 것으로 기대되는 범위를 설정하는 방법이다. 우연오차가 [[정규 분포]](Normal distribution)를 따른다고 가정할 때, 표본 평균 $\bar{x}$를 중심으로 하는 신뢰 구간은 다음과 같이 정의된다. 측정의 [[표준 편차]](Standard deviation)를 $\sigma$, 표본의 크기를 $n$이라 할 때, 신뢰 수준(Confidence level) $1-\alpha$에 대한 신뢰 구간은 아래의 수식으로 표현된다. 
 + 
 +$$ \bar{x} - z_{\alpha/2} \frac{\sigma}{\sqrt{n}} \leq \mu \leq \bar{x} + z_{\alpha/2} \frac{\sigma}{\sqrt{n}} $$ 
 + 
 +여기서 $z_{\alpha/2}$는 표준 정규 분포에서 상위 $\alpha/2$에 해당하는 임계값이며, $\frac{\sigma}{\sqrt{n}}$은 [[표준 오차]](Standard error)를 의미한다. 신뢰 구간의 폭은 우연오차의 크기와 표본 수에 의해 결정된다. 우연오차가 작수록, 혹은 반복 측정 횟수인 $n$이 커질수록 구간의 폭은 좁아지며, 이는 참값에 대한 추정의 [[정밀도]](Precision)가 향상됨을 시사한다. 계측학적 관점에서 이는 [[확장 불확실성]](Expanded uncertainty)을 산출하는 논리적 근거가 된다((Joint Committee for Guides in Metrology (JCGM), Evaluation of measurement data — Guide to the expression of uncertainty in measurement (GUM), https://www.bipm.org/documents/20126/2071273/JCGM_100_2008_E.pdf 
 +)). 
 + 
 +유의성 검정은 관측된 데이터의 차이나 효과가 단순한 우연오차에 의한 것인지, 아니면 통계적으로 유의미한 원인에 의한 것인지를 판단하는 의사결정 체계이다. 검정의 출발점은 비교하고자 하는 대상 사이에 차이가 없다는 [[귀무가설]](Null hypothesis, $H_0$)을 설정하는 것이다. 분석자는 귀무가설이 참이라는 전제하에 현재의 관측 결과 혹은 그보다 극단적인 결과가 나타날 확률인 [[p-값]](p-value)을 계산한다. 만약 이 확률이 미리 정해진 [[유의 수준]](Significance level, $\alpha$)보다 작다면, 해당 결과는 우연오차의 범위를 벗어난 것으로 간주하여 귀무가설을 기각하고 [[대립가설]](Alternative hypothesis, $H_1$)을 채택한다. 
 + 
 +우연오차의 통계적 처리에 있어 [[제1종 오류]](Type I error)와 [[제2종 오류]](Type II error)의 관리는 매우 중요하다. 제1종 오류는 실제로는 우연오차에 의한 변동임에도 불구하고 이를 유의미한 차이로 오판하여 귀무가설을 기각하는 경우를 말한다. 반대로 제2종 오류는 실제 유의미한 차이가 존재함에도 우연오차의 영향에 묻혀 이를 발견하지 못하는 경우를 의미한다. 유의성 검정의 [[검정력]](Statistical power)은 이러한 우연오차의 음 속에서 실제 신호를 식별해내는 능력을 나타내며, 이는 표본 크기의 설계와 직접적으로 연관된다. 
 + 
 +결론적으로 유의성 검정과 신뢰 구간은 우연오차라는 불확실성 속에서 과학적 사실을 도출하기 위한 논리적 여과 장치 역할을 한다. 측정 데이터가 신뢰 구간 내에 머물거나 유의 수준을 통과하지 못한다는 것은 해당 변동이 우연오차의 확률적 허용 범위 내에 있음을 의미한다. 반면 통계적 유의성이 확보된다는 것은 우연오차만으로는 설명하기 어려운 체계적인 변화나 효과가 존재함을 입증하는 근거가 된다. 이러한 통계적 방법론을 통해 연구자는 주관적 판단을 배제하고 객관적인 [[측정 불확실성]] 체계 내에서 데이터를 해석할 수 있게 된((Joint Committee for Guides in Metrology (JCGM), Evaluation of measurement data — Guide to the expression of uncertainty in measurement (GUM), https://www.bipm.org/documents/20126/2071273/JCGM_100_2008_E.pdf 
 +)).
  
우연오차.1776233447.txt.gz · 마지막으로 수정됨: 저자 flyingtext