meta data for this page
문서의 이전 판입니다!
이원배치법 (모수모형) (반복없음)
데이터 구조
자료의 구조
인자 B | 인자 A | 합계 | 평균 | |||
---|---|---|---|---|---|---|
A1 | A2 | ⋯ | Al | |||
B1 | y11 | y21 | ⋯ | yl1 | T.1 | ¯y.1 |
B2 | y12 | y22 | ⋯ | yl2 | T.2 | ¯y.2 |
⋮ | ⋮ | ⋮ | ⋮ | ⋮ | ⋮ | |
Bm | y1m | y2m | ⋯ | ylm | T.m | ¯y.m |
합계 | T1. | T2. | ⋯ | Tl. | T | |
평균 | ¯y1. | ¯y2. | ⋯ | ¯yl. | ¯¯y |
Ti.=m∑j=1yij | ¯yi.=Ti.m |
T.j=l∑i=1yij | ¯y.j=T.jl |
T=l∑i=1m∑j=1yij | ¯¯y=Tlm=TN |
N=lm | CT=T2lm=T2N |
제곱합
개개의 데이터 yij와 총 평균 ¯¯y의 차이는 다음과 같이 세 부분으로 나뉘어진다.
(yij−¯¯y)=(¯yi.−¯¯y)+(¯y.j−¯¯y)+(yij−¯yi.−¯y.j+¯¯y)
양변을 제곱한 후에 모든 i와 j에 대하여 합하면 아래의 등식을 얻을 수 있다.
l∑i=1m∑j=1(yij−¯¯y)2=l∑i=1m∑j=1(¯yi.−¯¯y)2+l∑i=1m∑j=1(¯y.j−¯¯y)2+l∑i=1m∑j=1(yij−¯yi.−¯y.j+¯¯y)2
위 식에서 왼쪽 항은 총변동 ST이고, 오른쪽 항은 차례대로 A의 변동, B의 변동, 오차변동인 SA, SB, SE가 된다.
\begin{displaymath}\begin{split} S_{T} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (y_{ij}- \overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l} \sum_{j=1}^{m} y_{ij}^{ \ 2} - CT \end{split}\end{displaymath} \begin{displaymath}\begin{split} S_{A} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (\overline{y}_{i.}- \overline{\overline{y}})^{2} \\ &= \sum_{i=1}^{l} \frac{T_{i.}^{ \ 2}}{m} - CT \end{split}\end{displaymath} \begin{displaymath}\begin{split} S_{B} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (\overline{y}_{.j}- \overline{\overline{y}})^{2} \\ &= \sum_{j=1}^{m} \frac{T_{.j}^{ \ 2}}{l} - CT \end{split}\end{displaymath} \begin{displaymath}\begin{split} S_{E} &= \sum_{i=1}^{l} \sum_{j=1}^{m} (y_{ij} - \overline{y}_{i.} - \overline{y}_{.j} + \overline{\overline{y}})^{2} \\ &= S_{T} - S_{A} - S_{B} \end{split}\end{displaymath} ===== 자유도 ===== νA=l−1 νB=m−1 νE=(l−1)(m−1) νT=lm−1=N−1 ===== 평균제곱 ===== VA=SAνA VB=SBνB VE=SEνE ===== 평균제곱의 기대값 ===== E(VA)=σ 2E+m σ 2A E(VB)=σ 2E+l σ 2B E(VE)=σ 2E ===== 분산분석표 ===== ^ [[요인]] ^ [[제곱합]]\\ SS ^ [[자유도]]\\ DF ^ [[평균제곱]]\\ MS ^ E(MS) ^ F0 ^ [[기각치]] ^ [[순변동]]\\ S´ ^ [[기여율]]\\ \rho |
A | S_{_{A}} | \nu_{_{A}} = l - 1 | V_{_{A}} = S_{_{A}} / \nu_{_{A}} | \sigma_{_{E}}^{ \ 2} + m \ \sigma_{_{A}}^{ \ 2} | V_{_{A}}/V_{_{E}} | F_{1-\alpha}(\nu_{_{A}} \ , \ \nu_{_{E}}) | S_{_{A}}\acute{} = S_{_{A}} - \nu_{_{A}} \ V_{_{E}} | S_{_{A}}\acute{} / S_{_{T}} |
B | S_{_{B}} | \nu_{_{B}} = m - 1 | V_{_{B}} = S_{_{B}} / \nu_{_{B}} | \sigma_{_{E}}^{ \ 2} + l \ \sigma_{_{B}}^{ \ 2} | V_{_{B}}/V_{_{E}} | F_{1-\alpha}(\nu_{_{B}} \ , \ \nu_{_{E}}) | S_{_{B}}\acute{} = S_{_{B}} - \nu_{_{B}} \ V_{_{E}} | S_{_{B}}\acute{} / S_{_{T}} |
E | S_{_{E}} | \nu_{_{E}} = (l - 1)(m - 1) | V_{_{E}} = S_{_{E}} / \nu_{_{E}} | \sigma_{_{E}}^{ \ 2} | S_{_{E}}\acute{} = S_{_{T}} - S_{_{A}}\acute{} - S_{_{B}}\acute{} | S_{_{E}}\acute{} / S_{_{T}} | ||
T | S_{_{T}} | \nu_{_{T}} = lm - 1 | S_{_{T}} | 1 |
분산분석
F_{0}=\frac{V_{_{A}}}{V_{_{E}}}
기각역 : F_{0} > F_{a-\alpha}(\nu_{_{A}},\nu_{_{E}})
F_{0}=\frac{V_{_{B}}}{V_{_{E}}}
기각역 : F_{0} > F_{a-\alpha}(\nu_{_{B}},\nu_{_{E}})
각 수준의 모평균의 추정
\hat{\mu}(A_{i})=\widehat{\mu + a_{i}} = \overline{y}_{i.}
i 수준에서의 모평균 \mu(A_{i})의 100(1-\alpha) \% 신뢰구간은 아래와 같다.
\hat{\mu}(A_{i})= \left( \overline{y}_{i.} - t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{V_{E}}{m}} \ , \ \overline{y}_{i.} + t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{V_{E}}{m}} \right)
\hat{\mu}(B_{j})=\widehat{\mu + b_{j}} = \overline{y}_{.j}
j 수준에서의 모평균 \mu(B_{j})의 100(1-\alpha) \% 신뢰구간은 아래와 같다.
\hat{\mu}(B_{j})= \left( \overline{y}_{.j} - t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{V_{E}}{l}} \ , \ \overline{y}_{.j} + t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{V_{E}}{l}} \right)
A 인자의 i 수준과 B 인자의 j 수준에서의 모평균 \mu(A_{i}B_{j})의 점추정값
\hat{\mu}(A_{i}B_{j})=\widehat{\mu+a_{i}+b_{j}}=\overline{y}_{i.} + \overline{y}_{.j} - \overline{\overline{y}}
A 인자의 i 수준과 B 인자의 j 수준에서의 모평균 \mu(A_{i}B_{j})의 100(1-\alpha) \% 신뢰구간은 아래와 같다.
\hat{\mu}(A_{i}B_{j})= \left( (\overline{y}_{i.} + \overline{y}_{.j} - \overline{\overline{y}}) - t_{\alpha/2}(\nu_{E})\sqrt{\frac{V_{E}}{n_{e}}} \ , \ (\overline{y}_{i.} + \overline{y}_{.j} - \overline{\overline{y}}) + t_{\alpha/2}(\nu_{E})\sqrt{\frac{V_{E}}{n_{e}}} \right)
단, n_{e}는 유효반복수이고 n_{e} = \frac{lm}{l+m-1}이다.
각 수준의 모평균차의 추정
i 수준과 j 수준의 모평균차 \mu(A_{i})-\mu(A_{j})의 점추정값
\widehat{\mu(A_{i})-\mu(A_{j})} = \overline{y}_{i.} - \overline{y}_{j.}
i 수준과 j 수준의 모평균차 \mu(A_{i})-\mu(A_{j})의 100(1-\alpha) \% 신뢰구간은 아래와 같다.
\widehat{\mu(A_{i})-\mu(A_{j})}= \left( (\overline{y}_{i.} - \overline{y}_{j.}) - t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{2V_{E}}{m}} \ , \ (\overline{y}_{i.} - \overline{y}_{j.}) + t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{2V_{E}}{m}} \right)
i 수준과 j 수준의 모평균차 \mu(B_{i})-\mu(B_{j})의 점추정값
\widehat{\mu(B_{i})-\mu(B_{j})} = \overline{y}_{.i} - \overline{y}_{.j}
i 수준과 j 수준의 모평균차 \mu(B_{i})-\mu(B_{j})의 100(1-\alpha) \% 신뢰구간은 아래와 같다.
\widehat{\mu(B_{i})-\mu(B_{j})}= \left( (\overline{y}_{.i} - \overline{y}_{.j}) - t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{2V_{E}}{l}} \ , \ (\overline{y}_{.i} - \overline{y}_{.j}) + t_{\alpha/2}(\nu_{_{E}}) \sqrt{\frac{2V_{E}}{l}} \right)