Bài giảng lý thuyết xác Suất thống kê - Lý thuyết Xác suất | Đại học Sư Phạm Hà Nội
Bài giảng lý thuyết xác Suất thống kê - Lý thuyết Xác suất | Đại học Sư Phạm Hà Nội giúp sinh viên tham khảo, ôn luyện và phục vụ nhu cầu học tập của mình cụ thể là có định hướng, ôn tập, nắm vững kiến thức môn học và làm bài tốt trong những bài kiểm tra, bài tiểu luận, bài tập kết thúc học phần, từ đó học tập tốt và có kết quả cao cũng như có thể vận dụng tốt những kiến thức mình đã học vào thực
Môn: Lý thuyết xác suất (MATH 233)
Trường: Đại học Sư Phạm Hà Nội
Thông tin:
Tác giả:
Preview text:
BÀI GIẢNG LÝ THUYẾT THỐNG KÊ Ngô Hoàng Long
Khoa Toán tin - Trường đại học Sư phạm Hà Nội Email: ngolong@hnue.edu.vn Mục lục
1 Một số phân phối thường dùng trong thống kê 3
1.1 Phân phối chuẩn nhiều chiều . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Phân phối Gamma, khi bình phương, student and F . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2.1
Phân phối Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2.2
Phân phối khi bình phương . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2.3
Phân phối Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.4 Phân phối F . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Phân phối của trung bình và phương sai mẫu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2 Ước lượng tham số 8 2.1
Mẫu và đặc trưng mẫu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Biểu diễn dữ liệu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.1 Stem-and-leaf diagrams . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.2 Frequency distribution and histogram . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.2.3
Box plots . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.2.4
Probability plots . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.3
Ước lượng điểm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.3.1
Thống kê . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.3.2
Các ước lượng điểm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.3.3
Khoảng tin cậy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4 Phương pháp tìm ước lượng . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.4.1
Ước lượng hợp lý cực đại . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4.2 Phương pháp moment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5 Chặn dưới cho phương sai . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 3 Kiểm định giả thiết 24 3.1
Giới thiệu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.2 Phương pháp tìm kiểm định . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 3.2.1
Kiểm định tỉ số hợp lý . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3 Phương pháp tiêu chuẩn đánh giá
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 3.3.1
Tiêu chuẩn mạnh nhất . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3.2 Tiêu chuẩn mạnh đều nhất . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3.3 Tỉ số hợp lý đơn điệu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4 Một số bài toán kiểm định thường gặp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
3.4.1 Kiểm định giả thiết cho giá trị trung bình của phân phối chuẩn với phương sai σ2 đa biết . 31
3.4.2 Kiểm định giả thiết cho giá trị trung bình của phân phối chuẩn với phương sai σ2 chưa biết 34
3.4.3 Kiểm định giả thiết cho phương sai của một phân phối chuẩn . . . . . . . . . . . . . . . . . . 35 1 MỤC LỤC 2
3.4.4 Kiểm định giả thiết cho tỉ lệ quần thể . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.5 Một số bài toán kiểm định giả thiết cho hai mẫu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.5.1 Kiểm định cho hiệu giá trị trung bình của hai phân phối chuẩn với phương sai đã biết . . . 38
3.5.2 Kiểm định cho hiệu giá trị trung bình của hai phân phối chuẩn với phương sai chưa biết . . 39
3.5.3 Tiêu chuẩn kiểm định t-test theo cặp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.5.4 Kiểm định cho phương sai của hai quần thể có phân phối chuẩn . . . . . . . . . . . . . . . . . 41
3.5.5 Kiểm định giả thiết cho hai tỉ lệ quần thể . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.6 Kiểm định khi bình phương
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.6.1
Tiêu chuẩn phù hợp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.6.2 Kiểm định sự độc lập . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.6.3 Kiểm định tính thuần nhất
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4 Hồi quy 50
4.1 Hồi quy tuyến tính đơn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.1.1 Mô hình hồi quy tuyến tính đơn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.1.2 Khoảng tin cậy cho σ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.1.3 Khoảng tin cậy cho β1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.1.4 Khoảng tin cậy cho β0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 4.1.5
Khoảng dự báo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 Chương 1
Một số phân phối thường dùng trong thống kê
1.1 Phân phối chuẩn nhiều chiều
Định nghĩa 1.1.1. Một biến ngẫu nhiên X = (X1, ... , Xn) nhận giá trị trong Rn là Gauss (hoặc chuẩn nhiều chiều) n
nếu mọi tổ hợp tuyến tính a X
j X j hoặc là một hằng số hoặc là một biến ngẫu nhiên có phân phối chuẩn (1 j=1 chiều).
Hàm đặc trưng là một công cụ hữu ích để nghiên cứu các biến ngẫu nhiên Gauss.
Định lý 1.1.2. X là một biến ngẫu nhiên Gauss nhận giá trị trong Rd khi và chỉ khi hàm đặc trưng của nó có dạng ³ 1 ´ ϕX(u) = exp i〈u,µ〉 − 〈u,Qu〉 , 2
trong đó µ ∈ Rn và Q là một ma trận n × n nửa xác định không âm đối xứng. Khi đó, Q là ma trận covarian của X
và µ là kì vọng của X, nghĩa là
µj = E[X j], Qk,j = cov(Xk, X j), với mọi j và k.
Ví dụ 1.1.3. Cho X1,. .. , Xn là các biến ngẫu nhiên độc lập nhận giá trị trong R có phân phối N(µj,σ2j), khi đó
X = (X1,..., Xn) là Gauss. Hơn nữa, với bất kì ma trận hằng số A ∈ Rm×n thì Y = Q X ∗ là một biến ngẫu nhiên Gauss m chiều.
Mệnh đề 1.1.4. Cho X là một biến ngẫu nhiên Gauss nhận giá trị trong Rn. Khi đó, các biến ngẫu nhiên X j độc
lập khi và chỉ khi ma trận covarian Q của X là ma trận đường chéo.
Mệnh đề 1.1.5. Cho X là một biến ngẫu nhiên Gauss nhận giá trị trong Rn. X có một mật độ trên Rn khi và chỉ khi
ma trận covarian Q không suy biến (nghĩa là, detQ 6= 0), và hàm mật độ xác suất của X được cho bởi 1 fX(x) =
e− 12 〈x−µ,Q−1(x−µ)〉. p 2πn/2 det Q 3
CHƯƠNG 1. MỘT SỐ PHÂN PHỐI THƯỜNG DÙNG TRONG THỐNG KÊ 4
1.2 Phân phối Gamma, khi bình phương, student and F 1.2.1 Phân phối Gamma
Định nghĩa 1.2.1. Một biến ngẫu nhiên X được gọi là có phân phối Gamma G(α,λ) nếu hàm mật độ xác suất của
nó được xác định bởi xα−1e−x/λ f I X (x) = Γ(α)λα {x>0}, +∞
trong đó, Γ(α) = Z xα−1e−xdx được gọi là hàm số Gamma. 0
Chú ý rằng G(1,λ) = Exp(λ).
Mệnh đề 1.2.2. Nếu X có phân phối G(α,λ) thì E[X ] = αλ, D X = αλ2.
Hơn nữa, hàm đặc trưng của X được xác định bởi Z ∞ eitx xα−1e−x/λ ³ 1 ´α ϕ 0 X (t) = dx = . Γ(α)λα 1 − iλt 2.2 alpha =7/8, lambda = 1 2 alpha = 1,lambda = 1 alpha = 2, lambda = 1 1.8 alpha = 3, lambda = 1 1.6 1.4 1.2 1 0.8 0.6 0.4 0.2 0 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Hình 1.1: Mật độ của phân phối Gamma
Hệ quả 1.2.3. Cho (Xi)1≤i≤n là dãy các biến ngẫu nhiên độc lập. Giả sử với mỗi i, Xi có phân phối G(αi,λ). Khi đó,
S = X1 + ·· · + Xn có phân phối G(α1 + ·· · + αi,λ).
1.2.2 Phân phối khi bình phương
Định nghĩa 1.2.4. Cho (Zi)1≤i≤n là một dãy các biến ngẫu nhiên độc lập cùng phân phối chuẩn tắc. Khi đó, phân phối của V = Z2
phân phối khi bình phương với bậc tự do n χ2 1 + . . . + Z2 n được gọi là và được kí hiệu là n. Chú ý: vì n Z2 1
có phân phối G ,2) nên χ2 ,2). Hơn nữa, i ( 2 n có phân phối G( 2 E[χ2n] = n, Dχ2 n = 2n.
Một hệ quả cần chú ý từ định nghĩa của phân phối khi bình phương là nếu hai biến ngẫu nhiên U và V độc
lập với U ∼ χ2n và V ∼ χ2m thì U +V ∼ χ2m+n.
CHƯƠNG 1. MỘT SỐ PHÂN PHỐI THƯỜNG DÙNG TRONG THỐNG KÊ 5 0.9 n = 1 n = 2 0.8 n = 4 n = 6 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 5.5 6 6.5 7 7.5 8 8.5 9 9.5 10
Hình 1.2: Mật độ của phân phối χ2 1.2.3 Phân phối Student Định nghĩa 1.2.5. Nếu Z
Z và U là hai biến ngẫu nhiên độc lập với Z ∼ N(0; 1) và U ∼ χ2 n thì phân phối của pU/n
được gọi là phân phối Student với bậc tự do n.
Phân phối Student còn được gọi là phân phối t.
Mệnh đề 1.2.6. Hàm mật độ xác suất của phân phối Student với bậc tự do n là ³ ´ f n+1 ³ n(t) = Γ ´ 2 t2 −(n+1)/2 p ³ ´ 1 + . nπΓ n n 2 Ngoài ra, 1 fn(t) n→∞ −→ p e−t2/2. 2π 0.4 n = 1 n = 2 0.35 n = 8 normal 0.3 0.25 0.2 0.15 0.1 0.05 0 −6 −5 −4 −3 −2 −1 0 1 2 3 4 5 6
Hình 1.3: Mật độ của phân phối Student
CHƯƠNG 1. MỘT SỐ PHÂN PHỐI THƯỜNG DÙNG TRONG THỐNG KÊ 6 1.2.4 Phân phối F
Định nghĩa 1.2.7. Cho U và V là hai biến ngẫu nhiên độc lập có cùng phân phối khi bình phương với bậc tự do
lần lượt là m và n. Khi đó, phân phối của biến ngẫu nhiên U/m W = V/n
được gọi là phân phối F với bậc tự do m và n và được kí hiệu là Fm,n.
Hàm mật độ xác suất của W là ³ ´ f (x) = Γ m+n ³ ´ ³ ´ 2 m m/2 m −(m+n)/2 ³ ´ ³ ´ xm/2−1 1 + x , x ≥ 0. Γ m Γ n n n 2 2 0.8 n = 4, m = 4 n = 10, m = 4 0.7 n = 10, m = 10 n=4, m= 10 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 5.5 6
Hình 1.4: Mật độ của phân phối F
1.3 Phân phối của trung bình và phương sai mẫu
Cho (Xn) là dãy các biến ngẫu nhiên độc lập có cùng phân phối chuẩn N(µ,σ2), và đặt 1 n 1 n−1 X n = X (X n X i, s2n = X i − X n)2 i=1 n − 1 i=1
Mệnh đề 1.3.1. Biến ngẫu nhiên X n và vectơ của các biến ngẫu nhiên (X1 − X n, X2 − X n,..., Xn − X n) độc lập với nhau. Chứng minh. Ta có: n n sX a n + X ti(X i − X n) = X i X i i=1 i=1 s trong đó ai = + (t n i − t). Chú ý rằng: n n s2 n X ai = s and X a2i = + X (ti − t)2. i=1 i=1 n i=1
CHƯƠNG 1. MỘT SỐ PHÂN PHỐI THƯỜNG DÙNG TRONG THỐNG KÊ 7
Do đó, hàm đặc trưng của vectơ ngẫu nhiên (X n, X1 − X n, X2 − X n,..., Xn − X n) là n n = E[exp(isX a2 n + i X t j(X j − X n)] = Y ³ σ2 2 ´ j=1 j=1 exp iµa j − j n ³ σ2 ´ ³ σ22 X ´ = exp iµs − s2 exp − i=1 (t . 2n i − t)2
Khi s = 0, ta thấy số hạng đầu là hàm đặc trưng của X n còn số hạng thứ hai là (X1 − X n, X2 − X n,. .., Xn − X n). Do
đó, ta có điều phải chứng minh.
Hệ quả 1.3.2. X n và s2n độc lập với nhau.
Định lý 1.3.3. Phân phối của (n − 1)s2 n/σ2 là phân phối khi bình phương với bậc tự do n−1.
Chứng minh. Đầu tiên, ta chú ý rằng 1 n n W := (X ³ σ2 X i − µ)2 = X X ´ n. i − µ 2 i=1 ∼ χ2 i=1 σ và 1 n 1 n (X ³ ´ σ2 X i − µ)2 = σ2 X X − µ 2 i=1 i=1 (X i − X n)2 + p =: U + V . σ/ n
Vì U và V độc lập nên ϕW(t) = ϕU(t)ϕV (t). Mặt khác, W và V có cùng phân phối khi bình phương, do đó ϕ ϕ W (t) (1 − i2t)−n/2 U (t) = = = (1 − i2t)−(n−1)/2. ϕV (t) (1 − i2t)−1/2
Như vậy, U có phân phối khi bình phương với bậc tự do n − 1. Hệ quả 1.3.4. X n − µ p ∼ t s n−1. n/ n Chương 2 Ước lượng tham số
2.1 Mẫu và đặc trưng mẫu
Định nghĩa 2.1.1. Một dãy các biến ngẫu nhiên X1,..., Xn được gọi là một mẫu ngẫu nhiên quan sát từ một biến ngẫu nhiên X nếu
• (Xi)1≤i≤n độc lập;
• Xi có cùng phân phối với X với mọi i = 1,..., n. Ta gọi n là cỡ mẫu.
Ví dụ 2.1.2. Một hộp chứa m quả bóng được đánh số từ 1 đến m. Chọn ngẫu nhiên một quả bóng từ hộp và ghi
lại con số trên quả bóng. Gọi X là con số ghi lại được. Khi đó, phân phối xác suất của X là 1 P[X = k] = , với x = 1,..., m. m
Trong trường hợp m chưa biết, để thu được thông tin về m ta lấy một mẫu gồm n quả bóng và kí hiệu là X =
(X1,..., Xn) trong đó Xi là số ghi trên quả bóng thứ i.
Mẫu có thể được lấy bằng nhiều cách khác nhau.
1. Mẫu ngẫu nhiên có hoàn lại: Ta chọn ngẫu nhiên 1 quả bóng, ghi lại con số và đặt quả bóng trở lại hộp.
Sau đó, tất cả quả bóng được trộn lại và ta chọn quả bóng tiếp theo. Khi đó, ta có thể thấy rằng X1, .. ., Xn là
các biến ngẫu nhiên độc lập từng đôi và mỗi biến ngẫu nhiên có cùng phân phối với X. Do đó, (X1,..., Xn) là một mẫu ngẫu nhiên.
2. Mẫu ngẫu nhiên không hoàn lại: chọn ngẫu nhiên n quả bóng. Sau mỗi quả bóng được chọn, ta không đưa
nó trở lại hộp. Khi đó, X1,..., Xn không độc lập, nhưng mỗi biến ngẫu nhiên Xi đều có cùng phân phối với X .
Nếu m đủ lớn so với n thì hai phương pháp lấy mẫu trên thực tế là như nhau.
Định nghĩa 2.1.3. Hàm phân phối thực nghiệm được xác định bởi 1 n Fn(x) = n X I{Xii=1
Dễ dàng kiểm tra hàm phân phối thực nghiệm có các tính chất sau:
1. Fn(x) là hàm không giảm đối với biến x; 8
CHƯƠNG 2. ƯỚC LƯỢNG THAM SỐ 9
2. Fn(x) liên tục trái và có giới hạn phải tại mọi điểm; 3. lim F Fn(x) = 1. n(x) = 0, lim x→+∞ x→−∞ 4. F c c n(x) h. .
−→ F(x) với mỗi x ∈ R. Thật vậy, áp dụng luật số lớn cho dãy biến ngẫu nhiên độc lập cùng phân phối I{Xi1 n F h.c.c. n(x) = I n X {Xii=1
Định nghĩa 2.1.4. Cho (X1, .. ., Xn) là một mẫu ngẫu nhiên. 1. Kì vọng mẫu X X 1 + . . . + X n . n = n 2. Phương sai quần thể 1 n S2n(X) = (X n X i − X n)2, i=1 và phương sai mẫu 1 n s2n(X) = X (Xi − X n)2. n − 1 i=1 3. Moment mẫu cấp k 1 n mk = X k n X i , i=1
và moment mẫu cấp k quy tâm 1 n vk = (X n X i − X n)k. i=1
4. Covariance of mẫu hai chiều (X1,Y1),.. ., (Xn,Yn) 1 P (Xi − X n)(Yi − Y n) r = ni=1 . n Sn(X)Sn(Y )
5. Mode mẫu là giá trị của mẫu xuất hiện nhiều nhất.
6. Trung vị mẫu là một độ đo xu hướng trung tâm mà chia dữ liệu thành hai phần bằng nhau, một nửa dưới
trung vị và một nửa trên trung vị. Nếu số quan sát là chẵn, trung vị nằm giữa hai giá trị trung tâm. Nếu số
quan sát là lẻ, trung vị là giá trị trung tâm.
7. Khi một tập hợp dữ liệu có sắp thứ tự được chia làm bốn phần bằng nhau thì các điểm chia được gọi là
điểm tứ phân vị. Điểm đầu tiên hay điểm tứ phân vị thấp, q1, là một giá trị mà có xấp xỉ 25% số quan sát
nhỏ hơn nó và xấp xỉ 75% số quan sát lớn hơn nó. Điểm tứ phân vị thứ hai, q2, có xấp xỉ 50% số quan sát
nhỏ hơn nó. Điểm tứ phân vị thứ hai chính là trung vị. Điểm thứ ba hay điểm tứ phân vị cao, q3, có xấp xỉ
75% số quan sát nhỏ hơn nó.
8. Khoảng tứ phân vị được xác định bởi IQR = q3 − q1. IQR cũng được sử dụng như là một độ đo cho sự biến đổi. 2.2 Biểu diễn dữ liệu
Well-constructed data display is essential to good statistical thinking, because it helps us exploring important
features of the data and providing insight about the type of model that should be used in solving the problem.
In this section we will briefly introduce some methods to display data.
CHƯƠNG 2. ƯỚC LƯỢNG THAM SỐ 10 2.2.1 Stem-and-leaf diagrams
A stem-and-leaf diagram is a good way to obtain an informative visual display of a data set x1, x2,. .., xn, where
each number xi consists of at least two digits. To construct a stem-and-leaf diagram, use the following steps.
1. Divide each number xi into two parts: a stem, consisting of one or more of the leading digits and a leaf,
consisting of the remaining digit.
2. List the stem values in a vertical column.
3. Record the leaf for each observation beside its stem.
4. Write the units for stems and leaves on the display.
It is usually best to choose between 5 and 20 stems.
Ví dụ 2.2.1. Trọng lượng của 80 sinh viên được cho bởi bảng sau: 59.0 59.5 52.7 47.9 55.7 48.3 52.1 53.1 55.2 45.3 46.5 54.8 48.4 53.1 56.9 47.4 50.2 52.1 49.6 46.4 52.9 41.1 51.0 50.0 56.8 45.9 59.5 52.8 46.7 55.7 48.6 51.6 53.2 54.1 45.8 50.4 54.1 52.0 56.2 62.7 62.0 46.8 54.6 54.7 50.2 45.9 49.1 42.6 49.8 52.1 56.5 53.5 46.5 51.9 46.5 53.5 45.5 50.2 55.1 49.6 47.6 44.8 55.0 56.2 49.4 57.0 52.4 48.4 55.0 47.1 52.4 56.8 53.2 50.5 56.6 49.5 53.1 51.2 55.5 53.7
Xây dựng biểu đồ thân-lá cho trọng lượng của 80 sinh viên như sau: Thân Lá Tần số 41 1 1 42 6 1 44 8 1 45 3 5 8 9 9 5 46 4 5 5 5 7 8 6 47 1 4 6 9 4 48 3 4 4 6 4 49 1 4 5 6 6 8 6 50 0 2 2 2 4 5 6 51 0 2 6 9 4 52 0 1 1 1 4 4 7 8 9 9 53 1 1 1 2 2 5 5 7 8 54 1 1 6 7 8 5 55 0 0 1 2 5 7 7 7 56 2 2 5 6 8 8 9 7 57 1 1 59 0 5 5 3 62 0 7 2
2.2.2 Frequency distribution and histogram
A frequency distribution is a more compact summary of data than a stem-and-leaf diagram. To construct
a frequency distribution, we must divide the range of the data into intervals, which are usually called class in-
tervals, cells, or bins. If possible, the bins should be of equal width in order to enhance the visual information
CHƯƠNG 2. ƯỚC LƯỢNG THAM SỐ 11
in the frequency distribution. Some judgment must be used in selecting the number of bins so that a reason-
able display can be developed. The number of bins depends on the number of observations and the amount of
scatter or dispersion in the data. A frequency distribution that uses either too few or too many bins will not be
informative. We usually find that between 5 and 20 bins is satisfactory in most cases and that the number of bins
should increase with n. Choosing the number of bins approximately equal to the square root of the number of
observations often works well in practice.
The histogram is a visual display of the frequency distribution. The stages for constructing a histogram follow.
1. Label the bin (class interval) boundaries on a horizontal scale.
2. Mark and label the vertical scale with the frequencies or the relative frequencies.
3. Above each bin, draw a rectangle where height is equal to the frequency (or relative frequency) correspond- ing to that bin.
Ví dụ 2.2.2. Histogram of the students’ weight given in Example 2.2.1. Histogram of weight 15 10 o. of student N 5 0 40 45 50 55 60 weight 2.2.3 Box plots
The box plot is a graphical display that simultaneously describes several important features of a data set,
such as center, spread, departure from symmetry, and identification of unusual observations or outliers.
A box plot displays the three quartiles, the minimum, and the maximum of the data on a rectangular box, aligned
either horizontally or vertically. The box encloses the interquartile range with the left (or lower) edge at the first
quartile, q1, and the right (or upper) edge at the third quartile, q3. A line is drawn through the box at the second
quartile (which is the 50th percentile or the median). A line, or whisker, extends from each end of the box. The
lower whisker is a line from the first quartile to the smallest data point within 1.5 interquartile ranges from the
first quartile. The upper whisker is a line from the third quartile to the largest data point within 1.5 interquartile
ranges from the third quartile. Data farther from the box than the whiskers are plotted as individual points. A
point beyond a whisker, but less than 3 interquartile ranges from the box edge, is called an outlier. A point more
than 3 interquartile ranges from the box edge is called an extreme outlier.
Ví dụ 2.2.3. Consider the sample in Example 2.2.1. The quantiles of the sample are q1 = 48.40, q2 = 52.10, q3 =
54.85. Bellow is the box plot of the students’ weight.
CHƯƠNG 2. ƯỚC LƯỢNG THAM SỐ 12 60 55 50 45
Ví dụ 2.2.4. Construct a box plot of the following data. 158.7 167.6 164.0 153.1 179.3 153.0 170.6 152.4 161.5 146.7 147.2 158.2 157.7 161.8 168.4 151.2 158.7 161.0 147.9 155.5
The quantiles of this sample are q1 = 152.85, q2 = 158.45, q3 = 162.35 180 170 160 150 2.2.4 Probability plots
How do we know if a particular probability distribution is a reasonable model for data? Some of the visual
displays we have used earlier, such as the histogram, can provide insight about the form of the underlying distri-
bution. However, histograms are usually not really reliable indicators of the distribution form unless the sample
size is very large. Probability plotting is a graphical method for determining whether sample data conform to a
hypothesized distribution based on a subjective visual examination of the data. The general procedure is very
simple and can be performed quickly. It is also more reliable than the histogram for small to moderate size sam- ples.
To construct a probability plot, the observations in the sample are first ranked from smallest to largest. That
is, the sample x1, x2,..., xn is arranged as x(1) ≤ x(2) < . .. ≤ x(n). The ordered observations x(j) are then plotted
against their observed cumulative frequency ( j − 0.5)/n. If the hypothesized distribution adequately describes
the data, the plotted points will fall approximately along a straight line which is approximately between the 25th
CHƯƠNG 2. ƯỚC LƯỢNG THAM SỐ 13
and 75th percentile points; if the plotted points deviate significantly from a straight line, the hypothesized model
is not appropriate. Usually, the determination of whether or not the data plot as a straight line is subjective.
In particular, a normal probability plot can be constructed by plotting the standardized normal scores zj = ³ j −0.5 ´ Φ−1 against x n ( j).
Ví dụ 2.2.5. Consider the following sample:
2.86,3.33,3.43,3.77,4.16,3.52,3.56,3.63,2.43,2.78.
We construct a normal probability plot for this sample as follows. ³ j −0.5 ´ j x(j) ( j − 0.5)/10 Φ−1 1 2.43 0.05 -1.6 n4 2 2.78 0.15 -1.04 3 2.86 0.25 -0.67 4 3.33 0.35 -0.39 5 3.43 0.45 -0.13 6 3.52 0.55 0.13 7 3.56 0.65 0.39 8 3.63 0.75 0.67 9 3.77 0.85 1.04 10 4.16 0.95 1.64
Since all the points are very close to the straight line, one may conclude that a normal distribution adequately describes the data.
Nhận xét 1. This is very surjective method. Please use it at your own risk! Later we will introduce the Shapiro
and Wilcoxon tests for the normal distribution hypothesis. 2.3 Ước lượng điểm 2.3.1 Thống kê
Ví dụ 2.3.1. Ở ví dụ 2.1.2, nhắc lại rằng ta chưa biết số lượng quả bóng m và phải sử dụng mẫu ngẫu nhiên
(X1,..., Xn) để thu được thông tin về m. m + 1 Bởi vì
nên áp dụng luật số lớn, ta có E(X ) = 2 X1 + . .. + Xn h.c.c. m + 1 . n −→ 2
Do đó, ta có thể ước lượng m bởi ˆ X c c. m 1 + . . . + X n − 1 h. . n := 2 n −→ m.
CHƯƠNG 2. ƯỚC LƯỢNG THAM SỐ 14
Một ước lượng khác cho m là ˜ mn := max{X1,. .. , Xn}. Vì n P[ ˜m ´
n 6= m] = P[X1 < m, . . . , X n < m] = Y ³ m−1 n i=1 P[X i < m] = → 0 m
khi n → ∞ nên ta có ˜m h.c.c. −→ m. n
Như vậy, ta thấy rằng hai ước lượng ˆ mn và ˜
mn chỉ phụ thuộc vào các quan sát X1,..., Xn chứ không phụ thuộc vào m.
Định nghĩa 2.3.2. Cho X = (X1,. .. , Xn) là một mẫu ngẫu nhiên quan sát được từ biến ngẫu nhiên X và (T,BT) là
một không gian đo được. Khi đó, hàm ϕ(X) = ϕ(X1, .. ., Xn) của mẫu ngẫu nhiên, trong đó ϕ : (Rn,B(Rn)) → (T,BT)
là một hàm đo được, được gọi là một thống kê.
Trong phạm vi của giáo trình này, ta chỉ xét trường hợp không gian đo (T,BT) là tập con của không gian
(Rd,B(Rd)). Các số đặc trưng mẫu ở Định nghĩa 2.1.4 chính là các thống kê. Do mỗi thống kê là một hàm của mẫu
nên nó cũng là một biến ngẫu nhiên.
Mỗi thống kê mang một thông tin nào đó về phân phối của X. Trong thực tế người ta luôn muốn tìm cách
thu gọn tập dữ liệu càng nhỏ càng tốt trong khi vẫn giữ nguyên được các thông tin quan trọng về phân phối.
Định nghĩa 2.3.3. Cho X = (X1, ... , Xn) là một mẫu ngẫu nhiên quan sát được từ một phân phối có hàm mật độ
f (x;θ), θ ∈ Θ. Cho Y = ϕ(X) là một thống kê với hàm mật độ fY (y;θ). Khi đó, Y được gọi là một thống kê đủ cho θ nếu f (x;θ) = H(x), fY (ϕ(x);θ)
trong đó x = (x1,. .., xn), f (x;θ) là hàm mật độ của X tại x, và H(x) không phụ thuộc vào θ ∈ Θ.
Ví dụ 2.3.4. Cho (X1, .. ., Xn) là một mẫu quan sát từ một phân phối Poisson với tham số λ > 0. Khi đó, Yn = ϕ(X) =
X1 + . .. + Xn có phân phối Poisson với tham số nλ. Do đó, f (X;θ) f (X Xi Q i=1 i; θ) P i=1 Yn! Yn! n n e−nλλ = . X e−nλ(nλ)Y = = X Qi=1 i! Q i=1 i! f f (Y n n Y (ϕ(X); θ) Yn n; nθ) nYn
Như vậy, Yn là một thống kê đủ cho λ.
Để kiểm tra trực tiếp tính đủ của thống kê ϕ(X), ta cần biết hàm mật độ của ϕ(X). Tuy nhiên, điều này trong
thực tế thường khó làm được. Do đó, tiêu chuẩn của Neyman sau đây sẽ giúp ta khắc phục được khó khăn này.
Định lý 2.3.5. Cho X = (X1,. .. , Xn) là một mẫu ngẫu nhiên quan sát từ một phân phối mà có hàm mật
độ là f (x;θ), θ ∈ Θ. Thống kê Y1 = ϕ(X) là một thống kê đủ cho θ khi và chỉ khi ta có thể tìm hai hàm số không âm k1 và k2 sao cho f (x;θ) = k1(ϕ(x);θ)k2(x) (2.1)
trong đó k2 không phụ thuộc vào θ. 1 n Ví dụ 2.3.6. Cho (X x
1, . . . , X n) là một mẫu lấy từ phân phối chuẩn N(θ, 1) với θ ∈ Θ = R. Kí hiệu x = i. Hàm n X i=1
mật độ đồng thời của X1,..., Xn tại (x1,..., xn) được xác định bởi (xi−x)2 1 n (x h P i h i − θ)2 ¸ n i=1 X i · . n(x − θ)2 exp − (2π)n/2 2 exp − i=1 = exp − (2π)n/2 2 2
CHƯƠNG 2. ƯỚC LƯỢNG THAM SỐ 15
Ta thấy rằng nhân tử đầu tiên ở vế phải phụ thuộc vào x1,..., xn chỉ thông qua x và nhân tử thứ hai không phụ
thuộc vào θ. Nhu vậy, định lý trên chỉ ra rằng kì vọng x của mẫu là một thống kê đủ cho θ, kì vọng của phân phối chuẩn.
2.3.2 Các ước lượng điểm
Cho X = (X1,. .. , Xn) là một mẫu từ phân phối F(x;θ) mà phụ thuộc vào một tham số chưa biết θ ∈ Θ. Mặc dù
hàm ϕ không phụ thuộc vào tham số θ chưa biết nhưng thống kê ϕ(X) có thể chứa thông tin về θ. Trong những
trường hợp như vậy, ta có thể gọi thống kê này là một ước lượng điểm của θ.
Định nghĩa 2.3.7. Một thống kê ϕ(X1,. .., Xn) được gọi là
1. một ước lượng không chệch của θ nếu Eθ[ϕ(X1,..., Xn)] = θ;
2. một ước lượng không chệch tiệm cận của θ nếu lim Eθ[ϕ(X1,..., Xn)] = θ; n→∞
3. một ước lượng không chệch tốt nhất of θ if (a) Eθ[ϕ(X1,..., Xn)] = θ;
(b) Dθϕ(X1,. .. , Xn) ≤ Dθϕ(X1,..., Xn) với ϕ(X1,. .., Xn) là một ước lượng không chệch bất kì của θ.
4. một ước lượng vững của θ nếu P ϕ(X θ 1, . . . , X n) −→ θ khi n → ∞.
Ở đây ta kí hiệu Eθ,Dθ,Pθ là kì vọng, phương sai, xác suất dưới điều kiện phân phối của Xi là F(x;θ).
Ví dụ 2.3.8. Cho (X1,..., Xn) là một mẫu từ phân phối chuẩn N(a,σ2). Sử dụng tính tuyến tính của kì vọng và luật số lớn, ta có
• X n là một ước lượng không chệch của a;
• s2n(X) là một ước lượng không chệch và vững của σ2.
• S2n(X) is an asymptotic unbiased and consistent estimator of σ2.
Ví dụ 2.3.9. Ở ví dụ 2.3.1, cảm ˆn và ˜mn đều là ước lượng vững của m. Hơn nữa, ˆmn là ước lượng không chệch và ˜
mn là ước lượng không chệch tiệm cận. 2.3.3 Khoảng tin cậy
Cho X là một biến ngẫu nhiên với hàm mật độ là f (x,θ), θ ∈ Θ, trong đó θ chưa biết. Ở bài trước, ta đã nghiên
cứu ước lượng θ bằng một thống kê ϕ(X1,. .. , Xn) trong đó X1, .. ., Xn là một mẫu từ phân phối của X. Khi mẫu
được lấy ra, ta không chắc chắn giá trị của ϕ là giá trị đúng của tham số. Thực tế, nếu ϕ có một phân phối liên
tục thì Pθ[ϕ = θ] = 0. Như vậy, làm thế nào để đánh giá sai số của ước lượng?
Ví dụ 2.3.10. Cho (X1,..., Xn) là một mẫu từ phân phối chuẩn N(a;σ2) trong đó σ2 đã biết. Ta biết rằng xn là một p
ước lượng vững, không chệch của a. Nhưng xn xấp xỉ a bao nhiêu? Bởi vì xn ∼ N(a;σ2/n), ta có (xn − a)/(σ/ n) có
phân phối chuẩn tắc N(0;1). Do đó, σ h x i h p < a < x σ n + 2 i 0.954 = P − 2 < n − a n p < 2 = P xn − 2 p . (2.2) σ/ n n σ ³ p < a < x σ n +2 ´
Biểu thức (2.2) chỉ ra rằng trước khi lấy mẫu, xác suất để n
a thuộcσ vào khoảng ngẫu nhiên xn−2 p p < a < x n ³ σ n + 2 ´ là n
0.954. Sau khi lấy mẫu, khoảng thu được xn −2 p
hoặc chứa a hoặc không. Nhưng vì xác suất n
CHƯƠNG 2. ƯỚC LƯỢNG THAM SỐ 16 σ ³ p < a < x σ n + 2 ´
thành công trước khi lấy mẫu rấtcao nên ta có thể gọi khoảng n xn − 2 σ p là một khoảng tin cậy
95.4% cho a. Ta có thể nói, với sự tin cậy nhất định, x cách a một khoảng 2p . Hằng n
số 0.954 = 95.4% được gọi n
là hệ số tin cậy. Thay vì sử dụng 2, ta có thể dùng 1.645, 1.96 hoặc 2.576 để thu được các khoảng tin cậy 90%,95%
hoặc 99% cho a. Chú ý rằng độ dài các khoảng tin cậy tăng khi độ tin cậy tăng; nghĩa là, việc tăng độ tin cậy kéo
theo việc giảm độ chính xác. Mặt khác, với hệ số tin cậy bất kì, việc tăng cỡ mẫu sẽ làm thu hẹp khoảng tin cậy.
Tiếp theo, nhờ định lý giới hạn trung tâm, ta sẽ đưa ra một phương pháp tổng quát để tìm khoảng tin cậy cho
các tham số của một lớp phân phối lớn. Để tránh nhầm lẫn, ta đặt θ0 là giá trị đúng chưa biết của tham số θ. Giả
sử ϕ là một ước lượng của θ0 sao cho pn(ϕ−θ0) w →N(0,σ2ϕ). (2.3) Tham số σ2 p
ϕ là phương sai tiệm cận của
nϕ và trong thực tế thường không biết. Tuy nhiên, ở đây ta giả sử rằng σ2ϕ đã biết. p
Đặt Z = n(ϕ−θ0)/σϕ là biến ngẫu nhiên chuẩn tắc hóa. Khi đó Z tiệm cận N(0,1). Do đó, P[−1.96 < Z < 1.96] = 0.95. Điều này suy ra σϕ h < θ0 < ϕ + 1.96 σp i ϕn 0.95 = P ϕ − 1.96 p (2.4) σϕ n ³ p < θ σn 0 < ϕ + 1.96 ´ Bởi vì khoảng ϕ ϕ − 1.96 p
là một hàm của biến ngẫu nhiên ϕ nên ta sẽ gọi nó là một khoảng
ngẫu nhiên. Xác suất để khoảng ngẫu nhiê n
n này chứa θ xấp xỉ 0.95.
Vì trong thực tế ta thường chưa biết σϕ nên ta giả sử tồn tại một ước lượng vững của σϕ, kí hiệu là Sϕ. Theo định lý Slutsky ta có pn(ϕ−θ0) w S → N(0,1). ϕ ³ p p ´ Do đó, khoảng ϕ − 1.96S
Tổng quát, ta có địn ϕ/ n,ϕ − 1.96S
h nghĩa sau. ϕ/ n là một khoảng ngẫu nhiên với xác suất xấp xỉ 95% chứa θ0.
Định nghĩa 2.3.11. Cho (X1,..., Xn) là một mẫu từ một phân phối F(x,θ), θ ∈ Θ. Một khoảng ngẫu nhiên (ϕ1,ϕ2),
trong đó ϕ1 và ϕ2 là hai ước lượng của θ, được gọi là một khoảng tin cậy (1 − α) cho θ nếu
P(ϕ1 < θ < ϕ2) = 1 − α, với α ∈ [0,1].
Khoảng tin cậy cho giá trị trung bình a
Cho X1,..., Xn là một mẫu ngẫu nhiên từ phân phối của biến ngẫu nhiên X mà chưa biết kì vọng a và phương sai σ2. Đặt x và s2 p
là kì vọng và phương sai mẫu. Theo định lý giới hạn trung tâm, phân phối của n(x − a)/s xấp
xỉ N(0;1). Do đó, một khoảng tin cậy xấp xỉ (1 − α) cho a là s s ³ p , x + z ´ α/2 x − z n α/2 p , (2.5) n
trong đó zα/2 = Φ−1(1 − α/2).
1. Bởi vì α < α0 suy ra zα/2 > zα0/2 nên việc chọn hệ số tin cậy cao sẽ dẫn đến sai số lớn và do đó, khoảng tin cậy
lớn hơn, giả sử các điều kiện khác như nhau.
2. Việc chọn cỡ mẫu lớn sẽ làm giảm sai số và do đó, sẽ làm khoảng tin cậy bé lại, giả sử các điều kiện khác giữ nguyên.
3. Tham số σ luôn luôn là loại tham số tỉ lệ của phân phối cơ sở. Trong trường hợp này, giả sử các điều kiện
khác như nhau, việc tăng tỉ lệ (mức độ nhiễu), nói chung sẽ gây ra sai số lớn và do đó làm khoảng tin cậy lớn hơn.
CHƯƠNG 2. ƯỚC LƯỢNG THAM SỐ 17 Khoảng tin cậy cho p
Cho X1,..., Xn là một mẫu từ phân phối Bernoulli với xác suất thành công là p. Cho ˆp = x là tỉ lệ thành công
của mẫu. Theo định lý giới hạn trung tâm , ˆ p(1 − p) ). Vì ˆ
p có phân phối xấp xỉ chuẩn N(p; p và ˆ n p(1 − ˆ p) là các ước
lượng vững cho p và p(1 − p) nên một khoảng tin cậy (1 − α) cho p được xác định bởi s p(1 − ˆp s p(1 − ˆp ³ , ˆ ˆ n ˆ ´ ˆp − zα/2 p + zα/2 . n
Khoảng tin cậy cho kì vọng của phân phối chuẩn
Nói chung, khoảng tin cậy trong bài này được xây dựng đều là xấp xỉ. Chúng dựa trên định lý giới hạn trung
tâm và do đó thường yêu cầu một ước lượng vững cho phương sai. Ở phần tiếp theo, ta sẽ xây dựng một khoảng
tin cậy chính xác cho kì vọng khi mẫu được lấy từ một phân phối chuẩn.
Định lý 2.3.12. Cho X1, ... , Xn là một mẫu từ một phân phối chuẩn N(a,σ2). Nhắc lại rằng x and s2 là p
kì vọng và phương sai mẫu. Biến ngẫu nhiên T = (x − a)/(s/ n) có phân phối t với bậc tự do n − 1. a
aIn statistics, the t-distribution was first derived as a posterior distribution in 1876 by Helmert and L¨ uroth. The t-distribution
also appeared in a more general form as Pearson Type IV distribution in Karl Pearson’s 1895 paper.
In the English-language literature the distribution takes its name from William Sealy Gosset’s 1908 paper in Biometrika under the pseudonym “Student”.
Với mỗi α ∈ (0,1), kí hiệu tα/2,n−1 thỏa mãn α ³ ´ = P T > t . 2 α/2,n−1
Vì tính đối xứng của phân phối t, ta có ³ ´ ³ x − a ´
1 − α = P − tα/2,n−1 < T < tα/2,n−1 = P − tα/2,n−1 < p < t s s S/ n α/2,n−1 ³ p < a < x + tα/2,n−1 ´ = P x − t n α/2,n−1 p . n
Do đó, một khoảng tin cậy (1 − α) cho a được xác định bởi S S ³ p , x + t ´ α/2,n−1 x − t n α/2,n−1 p . (2.6) n
Chú ý rằng khoảng tin cậy này và khoảng tin cậy với mẫu lớn (2.5) chỉ khác nhau bởi tα/2,n−1 và zα/2. Khoảng tin
cậy này là chính xác trong khi khoảng tin cậy (2.5) chỉ xấp xỉ. Tất nhiên, ta phải giả sử ta đang lấy mẫu từ quần thể
có phân phối chuẩn để thu được tính chính xác. Thực tế, ta thường không biết liệu quần thể có phân phối chuẩn
hay không. Khi đó ta sẽ sử dụng khoảng tin cậy nào? Tổng quát, với cùng α, khoảng tin cậy dựa trên tα/2,n−1 lớn
hơn khoảng tin cậy dựa trên zα/2. Do đó, khoảng tin cậy (2.6) nói chung tốt hơn khoảng tin cậy (2.5). Thực tế, các
nhà thống kê thường thích khoảng tin cậy (2.6) hơn.
Khoảng tin cậy cho phương sai và độ lệch tiêu chuẩn của một quần thể chuẩn
Thỉnh thoảng ta cần ước lượng cho phương sai và độ lệch tiêu chuẩn của quần thể. Khi quần thể được mô
hình bởi một phân phối chuẩn, các khoảng tin cậy và test thống kê trong bài này có thể áp dụng được. Kết quả
sau cung cấp cơ sở để xây dựng các khoảng tin cậy này.
CHƯƠNG 2. ƯỚC LƯỢNG THAM SỐ 18
Định lý 2.3.13. Cho (X1, X2,. .., Xn) là một mẫu ngẫu nhiên từ một phân phối chuẩn với kì vọng µ và
phương sai σ2, và đặt s2 là phương sai mẫu, nghĩa là, 1 n s2 = X (Xi − xi)2. n − 1 i=1 Khi đó biến ngẫu nhiên χ2 (n − 1)s2 n−1 = σ2
có phân phối khi bình phương với bậc tự do n − 1.
Nhắc lại rằng hàm mật độ xác suất của một biến ngẫu nhiên có phân phối khi bình phương với bậc tự do k là 1 k f (x) = x −1 2 e− x 2k/2Γ(k/2) 2 , x > 0.
Định lý 2.3.13 dẫn đến cách xây dựng khoảng tin cậy cho σ2 như sau.
Định lý 2.3.14. Nếu s2 là phương sai mẫu từ một mẫu ngẫu nhiên gồm n quan sát từ một phân phối chuẩn với
phương sai σ2 chưa biết thì một khoảng tin cậy 100(1 − α)% cho σ2 là (n − 1)s2 (n − 1)s2 ≤ σ2 ≤ , c2 c2 α/2,n−1 1−α/2,n−1
trong đó c2a,n−1 thỏa mãn P(χ2 n−1 > c2a,n−1) = a và biến ngẫu nhiên χ2 n−1 có phân phối khi bình phương với bậc tự do n − 1.
Khoảng tin cậy cho hiệu hai giá trị trung bình
Một bài toán thực tế thường được quan tâm là so sánh hai phân phối; nghĩa là, so sánh phân phối của hai
biến ngẫu nhiên X và Y . Trong phần này, ta sẽ so sánh giá trị trung bình của X và Y . Kí hiệu giá trị trung bình
của X và Y là aX và aY . Cụ thể, ta sẽ tìm được khoảng tin cậy cho hiệu ∆ = aX −aY . Giả sử rằng phương sai của X
và Y là hữu hạn và kí hiệu σ2
X = V ar(X ) và σ2Y = V ar(Y ). Cho X1...., X n là một mẫu ngẫu nhiên từ phân phối của
X và Y1,...,Ym là một mẫu ngẫu nhiên từ phân phối của Y . Giả sử các mẫu được lấy độc lập với nhau. Đặt X và
Y lần lượt là kì vọng mẫu của X và Y . Đặt ˆ
∆ = X −Y . Tiếp theo, ta một khoảng tin cậy với mẫu lớn cho ∆ dựa trên
phân phối tiệm cận của ˆ∆.
Mệnh đề 2.3.15. Kí hiệu N = n + m là tổng cỡ mẫu. Ta giả sử rằng n m → λ → λ N X , and N Y trong đó λX + λY = 1.
Khi đó, một khoảng tin cậy (1 − α) cho ∆ là 1. (nếu σ2 và đã biết) X σ2Y s X σ2Y s X σ2 Y ³ σ2 + + n σ2 n ´ (X − Y ) − zα/2 ,(X − Y ) + z ; (2.7) m α/2 m
CHƯƠNG 2. ƯỚC LƯỢNG THAM SỐ 19 2. (nếu σ2 và chưa biết) X σ2Y s s2(Y ) s s2(Y ) ³ + + s2(X )n s2(X )n ´ (X − Y ) − zα/2 ,(X − Y ) + z , (2.8) m α/2 m
trong đó s2(X) và s2(Y ) lần lượt là phương sai mẫu của (Xn) và (Ym). p
Chứng minh. Từ định lý giới hạn trung tâm ta suy ra n(X − aX ) w−→ N(0; σ2X ). Do đó, p σ2X N(X − a ). X ) w−→ N(0; λX Tương tự, p σ2Y N(Y − a ). Y ) w−→ N(0; λY
Vì các mẫu độc lập với nhau nên ta có σ2 σ2 X Y p ³ ´ −→ N(0; + ). λ λ N (X − Y ) − (a w X Y X − aY )
Điều này dẫn đến kết quả (2.7). Vì S∗2(X) và S∗2(Y ) là các ước lượng vững của σ2 và nên áp dụng định lý X σ2Y
Slutsky Slutsky, ta thu được (2.8).
Khoảng tin cậy cho hiệu hai tỉ lệ
Cho X và Y là hai biến ngẫu nhiên độc lập lần lượt có phân phối Bernoulli B(1, p1) và B(1, p2). Cho X1,..., Xn
là một mẫu ngẫu nhiên từ phân phối của X và cho Y1,.. ., Ym là một mẫu ngẫu nhiên từ phân phối của Y .
Mệnh đề 2.3.16. Một khoảng tin cậy (1 − α) cho p1 − p2 là s p ˆp s p ˆp ³ p 1(1 − ˆ p1) + 2(1 − ˆp2), ˆ 1(1 − ˆ p1) + 2(1 − ˆp2) 1 − ˆ ˆ n m p1 − ˆ ˆ n ´ ˆ p2 − zα/2 p2 + zα/2 , m
trong đó ˆp1 = X và ˆp2 = Y .
2.4 Phương pháp tìm ước lượng
2.4.1 Ước lượng hợp lý cực đại
Phương pháp ước lượng hợp lý cực đại là một trong những kĩ thuật phổ biến nhất cho việc tìm ước lượng.
Cho X = (X1,..., Xn) là một mẫu ngẫu nhiên từ phân phối với hàm mật độ f (x;θ). Hàm hợp lý xác định bởi n L(x;θ) = Y f (xi;θ). i=1
Định nghĩa 2.4.1. Với mỗi điểm mẫu x, đặt ˆθ(x) là một giá trị tham số mà tại đó L(x;θ) đạt cực đại như là một
hàm số của θ, với x cố định. Một ước lượng hợp lý cực đại của tham số θ dựa trên một mẫu X là ˆ θ(X).
Ví dụ 2.4.2. Cho (X1,..., Xn) là một mẫu ngẫu nhiên từ phân phối N(θ,1), trong đó θ chưa biết. Ta có n 1 (x θ)2/2 L(x;θ) = Y p e− i− , i=1 2π n
Suy ra ước lượng hợp lý cực đại của 1 θ là ˆ θ =
xi. Dễ thấy ˆθ là một ước lượng vững, không chệch của θ. n X i=1
CHƯƠNG 2. ƯỚC LƯỢNG THAM SỐ 20
Ví dụ 2.4.3. Cho (X1, ... , Xn) là một mẫu ngẫu nhiên từ phân phối Bernoulli với tham số p chưa biết. Hàm hợp lý là n
L(x; p) = Y pxi (1 − p)1−xi . i=1 n
Suy ra ước lượng hợp lý cực đại cho 1 p là ˆ θ =
xi. Dễ thấy ˆθ là một ước lượng vững, không chệch của θ. n X i=1
Kí hiệu X1,..., Xn là một mẫu ngẫu nhiên từ phân phối với hàm mật độ f (x;θ), θ ∈ Θ. Kí hiệu θ0 là giá trị đúng
của θ. Định lý sau đưa ra giải thích vì sao phải cực đại hàm hợp lý.
Định lý 2.4.4. Giả sử rằng
(R0) f (.;θ) 6= f (.;θ0) với mọi θ 6= θ0;
(R1) mọi hàm f (.;θ),θ ∈ Θ đều có giá chung với mọi θ. Khi đó lim Pθ [L(X;θ 0 0) > L(X; θ)] = 1, với mọi θ 6= θ0. n→∞
Chứng minh. Lấy loga hai vế, ta có n h 1n X ³ f (X ´ i P i; θ)
θ [L(X; θ0) > L(X; θ)] = P i=1 ln < 0 . 0 f (Xi;θ0)
Vì φ(x) = −ln x là hàm lồi ngặt nên từ Luật số lớn và bất đẳng thức Jensen ta suy ra được 1 n n X ³ f (X ´ h i h i i; θ) P f (X1;θ) f (X1;θ) i=1 ln → E ln < lnE = 0. f (X θ0 θ0 i; θ0) f (X1;θ0) f (X1;θ0)
Chú ý rằng điều kiện f (.;θ) 6= f (.;θ0) với mọi θ 6= θ0 dùng để chứng minh bất đẳng thức chặt cuối trong khi điều
kiện giá chung dùng để thu được đẳng thức cuối cùng.
Định lý 2.4.4 nói rằng hàm hợp lý đạt cực đại tiệm cận tại giá trị đúng θ0. Do đó, khi xem xét các ước lượng cho
θ0, việc xét giá trị của θ mà làm cực đại hàm hợp lý là hết sức tự nhiên.
Cuối cùng, ta sẽ chứng minh ước lượng hợp lý cực đại là ước lượng vững dưới các điều kiện chính quy.
Định lý 2.4.5. Giả sử hàm mật độ xác suất f (x,θ) thỏa mãn (R0), (R1) và
(R2) θ0 là một điểm trong thuộc Θ.
(R3) f (x;θ) khả vi đối với θ thuộc Θ.
Khi đó phương trình hợp lý, ∂ ∂ L(θ) = 0 ⇔ ∂θ ln L(θ) = 0, ∂θ có một nghiệm ˆ P θn sao cho ˆθn → θ0. 2.4.2 Phương pháp moment
Cho (X1,. .. , Xn) là một mẫu ngẫu nhiên từ một phân phối với hàm mật độ f (x;θ) trong đó θ = (θ1,...,θk) ∈ Θ ⊂
Rk. Các ước lượng bằng phương pháp moment được tìm ra bằng cách lập k phương trình của k moment mẫu
CHƯƠNG 2. ƯỚC LƯỢNG THAM SỐ 21
đầu tiên với k moment quần thể tương ứng, và giải hệ phuơng trình. Cụ thể hơn, ta định nghĩa
µj = E[X j] = g j(θ1,...,θk), j = 1,..., k. và 1 n m j = X j. n X i i=1
Ước lượng moment ( ˆθ1,..., ˆθk) thu được bằng cách giải hệ phương trình
m j = g j(θ1,. .. ,θk), j = 1,. .. , k.
Ví dụ 2.4.6 (Phân phối nhị thức). Cho (X1, .. ., Xn) là một mẫu ngẫu nhiên thu được từ phân phối nhị thức B(k, p), nghĩa là, Pk,p[Xi = x] = Cx , ,. .., k. k px(1 − p)k−x, x = 0 1
Ở đây ta giả sử rằng p và k là các tham số chưa biết. Lập hệ phương trình hai moment mẫu đầu tiên với hai moment quần thể x2n x k = ˆk = n = k p 1 n xn − 1 (Xi − xn)2 X 2 P x n i=1 n n X . n i=1 2 ⇔ p = ˆp = ˆ i = k p(1 − p) + k2 p k
2.5 Chặn dưới cho phương sai
Trong bài này ta thiết lập một bất đẳng thức đáng chú ý được gọi là chặn dưới Rao-Cramer mà đưa ra một
chặn dưới cho phương sai của ước lượng không chệch bất kì. Sau đó ta sẽ chỉ ra rằng, dưới các điều kiện chính
quy, phương sai của ước lượng hợp lý cực đại đạt chặn dưới này một cách tiệm cận.
Định lý 2.5.1 (Chặn dưới Rao-Cramer). Cho X1,..., Xn độc lập cùng phân phối với hàm mật độ chung
f (x;θ) cho θ ∈ Θ. Giả sử rằng các điều kiện chính quy (R0)-(R2) thỏa mãn. Hơn nữa, giả sử rằng
(R4) Hàm mật độ f (x;θ) khả vi cấp hai đối với biến θ. Z (R5) Tích phân
f (x;θ)dx có thể khả vi cấp hai dưới dấu tích phân đối với biến θ.
Cho Y = u(X1,..., Xn) là một thống kê với E[Y ] = E[u(X1, ... , Xn)] = k(θ). Khi đó [k0(θ)]2 DY ≥ , nI(θ)
trong đó I(θ) được gọi là thông tin Fisher và được xác định bởi ∂2 ln f (x;θ) Z ∞ h ∂ln f (X;θ) i I(θ) = − −∞ f (x;θ)dx = D . ∂θ2 ∂θ Chứng minh. Vì Z k(θ) =
u(x1,. .., xn)f (x1;θ). .. f (xn;θ)dx1 .. . dxn, nên ta có Rn ∂ln f (x Z i; θ) ³ nX ´ k0(θ) = u(x1,. .., xn) i=1
f (x1;θ).. . f (xn;θ)dx1 .. . dxn. Rn ∂θ
CHƯƠNG 2. ƯỚC LƯỢNG THAM SỐ 22 n Kí hiệu ∂ln f (x Z = i; θ) X
. Dễ dàng ta thấy E[Z] = 0 and DZ = nI(θ). Hơn nữa, k0(θ) = E[Y Z]. Do đó, ta có ∂θ i=1 p
k0(θ) = E[Y Z] = E[Y ]E[Z] + ρ nI(θ)DY ,
trong đó ρ là hệ số tương quan giữa Y và Z. Bởi vì E[Z] = 0 và ρ2 ≤ 1, ta thu được |k0(θ)|2 ≤1, nI(θ)DY
suy ra điều phải chứng minh.
Định nghĩa 2.5.2. Cho Y là một ước lượng không chệch của một tham số θ trong trường hợp ước lượng điểm.
Thống kê Y được gọi là một ước lượng hiệu quả của θ khi và chỉ khi phương sai của Y đạt chặn dưới Rao-Cramer.
Ví dụ 2.5.3. Cho X1, X2,..., Xn là một mẫu ngẫu nhiên từ một phân phối mũ có kì vọng λ > 0. Chứng minh rằng
X là một ước lượng hiệu quả của λ.
Ví dụ 2.5.4. Cho X1, X2,..., Xn là một mẫu ngẫu nhiên từ một phân phối Poisson có kì vọng θ > 0. Chứng minh
rằng X là một ước lượng hiệu quả của θ.
Trong các ví dụ trên, ta có thể thu được các ước lượng hợp lý cực đại theo dạng gần với phân phối của chúng
và do đó, ước lượng moment cũng vậy. Điều này thường không phải như vậy. Tuy nhiên, ước lượng hợp lý cực
đại có một phân phối chuẩn tiệm cận. Thực tế là, ước lượng hợp lý cực đại là ước lượng hiệu quả tiệm cận.
Định lý 2.5.5. Giả sử X1,..., Xn độc lập cùng phân phối với hàm mật độ f (x;θ0) cho θ0 ∈ Θ sao cho các điều kiện
chính quy (R0)-(R5) thỏa mãn. Giả sử rằng 0 < I(θ0) < ∞, và
(R6) Hàm mật độ f (x;θ) khả vi cấp ba đối với biến θ. Hơn nữa, với mọi θ ∈ Θ, tồn tại một hằng số c và một hàm M(x) sao cho ¯¯ ∂2ln f (x;θ) ¯ ¯¯¯≤M(x), ∂θ3
với Eθ [M(X)] < ∞, với mọi θ0 − c < θ < θ0 + c và với mọi x thuộc giá của X. 0
Khi đó dãy các nghiệm bất kì của phương trình ước lượng hợp lý cực đại đều thỏa mãn
pn(ˆθn −θ0) w→ N(0,I(θ −1 0) ).
Chứng minh. Mở rộng hàm l0(θ) thành một chuỗi Taylor đến cấp hai đối với θ ˆθ 0 và đánh giá nó tại n, ta thu được 1 l0( ˆθ ( ˆ
n) = l0(θ0) + ( ˆθn − θ0)l00(θ0) + 2 θn − θ0)2l000(θ∗n),
trong đó θ∗n nằm giữa θ0 và ˆθn. Nhưng l0( ˆθn) = 0. HDo đó, p n−1/2l0(θ0) n( ˆθ . n − θ0) = −n−1l00(θ −1 0) − (2n) ( ˆ θn − θ0)l000(θ∗n)
Theo định lý giới hạn trung tâm, 1 1 n ∂ln f (X w p l0(θ i; θ0) n 0) = p X → N(0, I(θ0)). n ∂θ i=1
Mặt khác, theo luật số lớn, 1 1 n ∂2 ln f (X − P l00(θ i; θ0) n 0) = − n X ∂θ2 → I(θ0). i=1
CHƯƠNG 2. ƯỚC LƯỢNG THAM SỐ 23 Chú ý rằng | ˆ
θn − θ0| < c0 suy ra |θ∗n − θ0| < c0, kết hợp điều kiện (R6), ta có n n ¯ ¯ M(X ¯ 1l000(θ∗ ¯ 1 n X ¯ ∂2 ln f (X ¯ 1 n X i). ¯ −n ¯ i; θ)¯ n) ¯ ≤ ¯ ¯ ≤ i=1 i=1 ∂θ3 1 n Bởi vì P
Eθ |M(X)| < ∞ nên áp dụng luật số lớn, ta có M(X
[M(X )]. Hơn nữa, vì ˆθ → θ 0 0, với ² > 0 bất kì, n X i) P → Eθ0 n i=1 ²
nên tồn tại N > 0 sao cho P[| ˆθn −θ0| < c0] ≥ 1− và 2 n h¯ ¯ , ¯n1X ¯ i ² 2
P ¯ i=1 M(Xi) − Eµ [M(X)] ¯ < 1 ≥ 1 − 0 với mọi n ≥ N. Do đó, h¯ ¯ , ¯ 1l000(θ∗ i ² 2 P ¯ ¯ − n
n) ¯ ≤ 1 + Eθ [M(X )] ≥ 1 − 0
do đó n−1l000(θ∗n) bị chặn theo xác suất. Ta có điều phải chứng minh. Chương 3 Kiểm định giả thiết 3.1 Giới thiệu
Ước lượng điểm và khoảng tin cậy là các quá trình đưa ra các kết luận thống kê. Một loại khác thường được
sử dụng có liên quan đến các kiểm định giả thiết. Giống ở bài trước, giả sử mối quan tâm của chúng ta tập trung
ở một biến ngẫu nhiên X mà có hàm mật độ f (x;θ) trong đó θ ∈ Θ. Giả sử ta nghi ngờ, dựa trên lý thuyết hoặc
một thí nghiệm ban đầu, rằng θ ∈ Θ0 hoặc θ ∈ Θ1 trong đó Θ0 và Θ1 là các tập con của Θ và Θ0 ∪ Θ1 = Θ. Ta đặt giả thiết như sau H0 : θ ∈ Θ0 đối lập với H1 : θ ∈ Θ1. (3.1)
Ta gọi H0 là giả thiết không và H1 là đối thiết. Một giả thiết có dạng θ = θ0 được gọi là một giả thiết đơn trong khi
một giả thiết có dạng θ > θ0 hoặc θ < θ0 được gọi là một giả thiết hợp. Một kiểm định có dạng
H0 : θ = θ0 đối lập với H1 : θ 6= θ0
được gọi là một kiểm định hai phía. Một kiểm định có dạng
H0 : θ ≤ θ0 đối lập với H1 : θ > θ0, hoặc
H0 : θ ≥ θ0 đối lập với H1 : θ < θ0
được gọi là một kiểm định một phía.
Thông thường giả thiết không biểu diễn sự không thay đổi hoặc sự không phân biệt từ quá khứ trong khi đối
thiết biểu diễn sự thay đổi hoặc sự phân biệt. Đối thiết thường là giả thiết của những nhà nghiên cứu. Quy tắc
quyết định lấy H0 hay H1 dựa trên một mẫu X1,. .. , Xn từ phân phối của X và do đó, quyết định đấy có thể đúng
hoặc sai. Có hai loại sai lầm ta thường gặp phải: bác bỏ H0 khi H0 đúng (được gọi là sai lầm loại 1) và chấp nhận
H0 khi H0 sai (được gọi là sai lầm loại 2).
Bảng 3.1: Bảng quyết định cho một kiểm định giả thiết Quyết định H0 đúng H1 đúng Bác bỏ H0 Sai lầm loại 1 Quyết định đúng Chấp nhận H0 Quyết định đúng Sai lầm loại 2
Kí hiệu D là không gian mẫu. Một kiểm định của H0 đối lập với H1 dựa trên một tập con C của D. Tập C được
gọi là miền tới hạn và nguyên tắc quyết định tương ứng của nó là: 24
CHƯƠNG 3. KIỂM ĐỊNH GIẢ THIẾT 25
• Bác bỏ H0 (Chấp nhận H1) nếu (X1,..., Xn) ∈ C;
• Giữ lại H0 (Bác bỏ H1) nếu (X1, ... , Xn) 6∈ C.
Mục tiêu của chúng ta là cần chọn một miền tới hạn mà làm cực tiểu xác suất mắc sai lầm. Nói chung, ta không
thể làm giảm xác suất mắc sai lầm loại 1 và 2 cùng lúc được bởi vì: nếu lấy C = ; thì H0 không bao giờ bị bác bỏ
do đó xác suất mắc sai lầm loại 1 bằng 0, nhưng sai lầm loại 2 xảy ra với xác suất bằng 1. Sai lầm loại 1 luôn xấu
hơn sai lầm loại 2. Do đó, ta sẽ chọn một miền tới hạn sao cho, một mặt, giữ xác suất sai lầm loại 1 tại một mức
nào đó, mặt khác cực tiểu xác suất xảy ra sai lầm loại 2.
Định nghĩa 3.1.1. Một miền tới hạn C được gọi là có mức α nếu α = max P θ θ[(X1, . . . , X n) ∈ C]. ∈Θ0
α được gọi là mức ý nghĩa của kiểm định liên kết với miền tới hạn C.
Trong tất cả các miền tới hạn có mức α, ta sẽ tìm miền có xác suất mắc sai lầm loại 2 thấp nhất. Nghĩa là, với
θ ∈ Θ1, ta sẽ tìm cực đại của
1 − Pθ[Sai lầm loại 2] = Pθ[(X1,..., Xn) ∈ C].
Ta gọi xác suất ở vế phải là lực lượng của kiểm định tại θ. Do đó, nhiệm vụ của chúng ta là phải tìm trong số tất
cả các miền tới hạn có mức α miền nào có lực lượng cao nhất.
Ta định nghĩa hàm lực lượng của một miền tới hạn bởi
γC(θ) = Pθ[(X1,..., Xn) ∈ C], θ ∈ Θ1.
Ví dụ 3.1.2. Giả sử X1, ... , Xn là một mẫu ngẫu nhiên từ một phân phối N(µ,1). Xét giả thiết
H0 : µ = µ0 đối lập với H1 : µ = µ1 1
trong đó µ0 < µ1 đã được xác định. Xét một miền tới hạn C có dạng C = {X n > k}. Bởi vì X n có phân phối N(µ, ) n
nên mức ý nghĩa của miền tới hạn là p α = Pµ [X n(k − µ 0 n > k] = 1 − Φ( 0)).
Hàm lực lượng của miền tới hạn C là p
γC(µ1) = Pµ [X n > k] = 1 − Φ( n(k − µ 1 1)).
Cụ thể, nếu ta có µ0 = 0,µ1 = 1, n = 100 thì tại mức ý nghĩa 5%, ta sẽ bác bỏ H0 ủng hộ H1 nếu X n > 0.1965 và lực
lượng của kiểm định là 1 − Φ(−8.135) = 0.9999.
Ví dụ 3.1.3 (Kiểm định mẫu lớn cho giá trị trung bình). Cho X1,..., Xn là một mẫu ngẫu nhiên từ phân phối của
X với kì vọng µ và phương sai σ2 hữu hạn. Ta muốn kiểm định giả thiết
H0 : µ = µ0 đối lập với H1 : µ > µ0
trong đó µ0 xác định. Để minh họa, ta giả sử µ0 là điểm trung bình của những sinh viên được dạy theo phương
pháp truyền thống. Giả sử ta hi vọng rằng một phương pháp mới có kết hợp máy tính sẽ giúp sinh viên có điểm
trung bình cao hơn µ > µ0, trong đó µ = E[X] và X là điểm của sinh viên được dạy theo phương pháp mới. Phỏng
đoán này sẽ được kiểm định bằng cách chọn ngẫu nhiên n sinh viên được dạy theo phương pháp mới.
Bởi vì X n → µ theo xác suất nên một nguyên tắc quyết định được xác định bởi
Bác bỏ H0 chấp nhận H1 nếu X n đủ lớn so với µ0.
CHƯƠNG 3. KIỂM ĐỊNH GIẢ THIẾT 26
Nói chung, phân phối của trung bình mẫu không có dạng như vậy. Do đó, ta sẽ sử dụng định lý giới hạn trung
tâm để tìm miền tới hạn. Thật vậy, vì X n − µ w p → N(0,1), S/ n
nên ta thu được một kiểm định với mức ý nghĩa xấp xỉ α: X Bác bỏ H n − µ0 0 chấp nhận H1 nếu p ≥ x S/ n α.
Lực lượng của kiểm định cũng được xấp xỉ bằng định lý giới hạn trung tâm p p ³ n(µ ´ γ(µ) = P[X 0 − µ)
n ≥ µ0 + xασ/ n] ≈ Φ − xα − . σ
Do đó nếu ta có thông tin nào đó chấp nhận được về giá trị của σ, ta có thể tính được hàm lực lượng xấp xỉ. X
Cuối cùng, chú ý rằng nếu X có phân phối chuẩn thì n − µ p
có phân phối t với bậc tự do n − 1. Do đó, ta có S/ n
thể thiết lập một quy tắc bác bỏ có mức ý nghĩa đúng bằng α: X Bác bỏ H n − µ 0 chấp nhận H1 nếu T = p ≥ t S/ n α,n−1,
trong đó tα,n−1 là điểm tới hạn α trên của một phân phối t với bậc tự do n − 1.
Một cách để trình bày các kết quả của một kiểm định giả thiết là phải phát biểu giả thiết không bị bác bỏ hay
không bị bác bỏ tại một giá trị α hoặc tại mức ý nghĩa đã xác định. Ví dụ, ta có thể nói rằng H0: µ = 0 bị bác bỏ bới
mức ý nghĩa 0.05. Phát biểu của kết luận này thường không đầy đủ vì nó không đưa cho người ra quyết định một
ý tưởng gì về việc liệu giá trị tính toán được của kiểm định thống kê thuộc gần miền tới hạn hay là ở rất xa. Hơn
nữa, việc phát biểu kết quả theo cách này sẽ áp đặt mức ý nghĩa đã được xác định trước lên người sử dụng thông
tin khác. Phương pháp này có thể không làm hài lòng bởi vì những người ra quyết định có thể không thoải mái
với những mạo hiểm khi dùng α = 0.05.
Để tránh những khó khăn đấy, phương pháp P-value đã được thực hiện rộng rãi trong thực tế. P-value là xác
suất để thống kê kiểm định sẽ nhận một giá trị ít nhất bằng giá trị quan sát được của thống kê khi giả thiết không
H0 đúng. Do đó, một P-value truyền đạt nhiều thông tin về bằng chứng chống lại H0, và do đó một người ra
quyết định có thể tạo ra một kết luận tại bất kì mức ý nghĩa xác định nào. Bây giờ ta đưa ra một định nghĩa cho P-value.
Định nghĩa 3.1.4. P-value là mức ý nghĩa nhỏ nhất làm bác bỏ giả thiết không H0 với dữ liệu cho trước.
Điều này có nghĩa là nếu α > P-value, ta sẽ bác bỏ H0 trong khi nếu α < P-value, ta sẽ không bác bỏ H0.
3.2 Phương pháp tìm kiểm định
3.2.1 Kiểm định tỉ số hợp lý
Cho L(x;θ) là hàm hợp lý của mẫu (X1,. .. , Xn) từ một phân phối có hàm mật độ p(x;θ).
Định nghĩa 3.2.1. Thống kê kiểm định hợp lý cho bài toán kiểm định giả thiết H0 : θ ∈ Θ0 đối lập với H1 : θ ∈ Θ1 là supθ L(x;θ) λ(x) = ∈Θ0 . sup ( θ∈Θ L x; θ)
Một kiểm định tỉ số hợp lý là một kiểm định mà có một miền bác bỏ có dạng C = {x : λ(x) ≤ c} với c ∈ [0,1] .
CHƯƠNG 3. KIỂM ĐỊNH GIẢ THIẾT 27
Ý tưởng của kiểm định tỉ số hợp lý từ thực tế là nếu θ0 là giá trị đúng của θ thì L(θ0) xấp xỉ giá trị cực đại của
L(θ). Do đó, nếu H0 đúng thì λ sẽ gần bằng 1; trong khi nếu H1 đúng thì λ sẽ nhỏ hơn.
Ví dụ 3.2.2 (Kiểm định tỉ số hợp lý cho phân phối mũ). Giả sử X1,..., Xn độc lập cùng phân phối với hàm mật độ
f (x;θ) = θ−1e−x/θI{x>0} và θ > 0. Xét bài toán kiểm định giả thiết
H0 : θ = θ0 đối lập với H1 : θ 6= θ0,
trong đó θ0 > 0 là một giá trị xác định. Thông kê kiểm định tỉ số hợp lý là ³ X ´n λ(X) = en n e−nX n/θ0. θ0
Quy tắc quyết định là bác bỏT H0 nếu λ ≤ c. Dễ dàng chứng minh được rằng λ ≤ c khi và chỉ khi X ≤ c1θ0 hoặc 2 n
X ≥ c2θ0 với các hằng số dương c1, c2 nào đó. Chú ý rằng dưới giả thiết không, H0, thống kê Xi có phân phối θ X 0 i=1
khi bình phương χ2 với bậc tự do 2n. Do đó, quy tắc quyết định sau là kết quả trong một kiểm định mức α: 2 n 2 n Bác bỏ H n , 0 nếu X (2n) hoặc X θ X i ≤ χ21−α/2 X i ≥ χ2α/2(2 ) 0 θ i=1 0 i=1
trong đó χ21− (2n) là phân vị α/2
α/2 dưới của phân phối χ2 với bậc tự do 2n và χ2α/2(2n) là phân vị α/2 trên của phân
phối χ2 với bậc tự do 2n.
Nếu ϕ(X) là một thống kê đủ cho θ với hàm mật độ g(t;θ) thì ta có thể xem xét việc xây dựng một kiểm định tỉ
số hợp lý dựa trên ϕ và hàm hợp lý của nó L∗(t;θ) = g(t;θ) hơn là dựa trên mẫu X và hàm hợp lý của nó L(x;θ).
Định lý 3.2.3. Nếu ϕ(X) là một thống kê đủ cho θ và λ∗(t) và λ(x) lần lượt là các thống kê tỉ số hợp lý dựa trên ϕ và
X thì λ∗(ϕ(x)) = λ(x) với mọi x thuộc không gian mẫu.
Chứng minh. Từ định lý nhân tử hóa, hàm mật độ của X có thể được biểu diễn thành f (x;θ) = g(T(x); θ)h(x),
trong đó g(t;θ) là hàm mật độ của T và h(x) không phụ thuộc vào θ. Do đó, supΘ L(x;θ) sup f (x;θ) sup g(T(x);θ)h(x) λ(x) = 0 Θ Θ = 0 = 0 sup ( Θ L x; θ) sup ( Θ f x; θ) sup ( ); ( ) Θ g(T x θ)h x sup L∗(T(x);θ) = Θ0 = λ∗(T(x)). supΘ L∗(x;θ)
3.3 Phương pháp tiêu chuẩn đánh giá
3.3.1 Tiêu chuẩn mạnh nhất
Bây giờ ta xét một kiểm định giả thiết đơn H0 đối lập với một đối thiết đơn H1. Kí hiệu f (x;θ) là hàm mật độ
của một biến ngẫu nhiên X trong đó θ ∈ Θ = {θ0,θ1}. Cho X = (X1,..., Xn) là một mẫu ngẫu nhiên từ phân phối của X .
Định nghĩa 3.3.1. Một tập con C của không gian mẫu được gọi là một miền bác bỏ tốt nhất với mức ý nghĩa α
cho kiểm định giả thiết đơn
H0 : θ = θ0 đối lập với H1 : θ = θ1,
nếu Pθ [X ∈ C] = α và với mọi tập con A của không gian mẫu 0
Pθ [X ∈ A] = α implies Pθ [X ∈ C] ≥ P [X ∈ A]. 0 1 θ1
ĐỊnh lý sau của Neyman và Pearson đưa ra một phương pháp có hệ thống để xác định miền bác bỏ tốt nhất.
CHƯƠNG 3. KIỂM ĐỊNH GIẢ THIẾT 28
Định lý 3.3.2. Cho (X1,..., Xn) là một mẫu từ một phân phối có hàm mật độ f (x;θ). Khi đó, hàm hợp lý của X1, X2,..., Xn là n L(x;θ) = Y f (xi;θ), for x = (x1,..., xn). i=1
Cho θ0 và θ1 là các giá trị cố định phân biệt của θ để Θ = {θ0,θ1}, và cho k là một số dương. Đặt C là một
tập con của không gian mẫu sao cho L(x;θ (a) 0) ≤ k với mỗi x ∈ C; L(x;θ1) L(x;θ (b) 0)≥ k với mỗi x ∈ D\C; L(x;θ1) (c) α = Pθ [X ∈ C]. 0
Khi đó C là miền bác bỏ tốt nhất với mức ý nghĩa α cho kiểm định giả thiết đơn
H0 : θ = θ0 đối lập với H1 : θ = θ1.
Chứng minh. Ta chứng minh định lý khi các biến ngẫu nhiên có cùng loại liên tục. Nếu A là một miền tiêu chuẩn
với mức ý nghĩa α khác, ta sẽ chỉ ra rằng Z Z L(x;θ1)dx. L(x;θ1)dx ≥ C A
Ta viết C là hợp của C ∩ A và C ∩ Ac và A là hợp của A ∩ C và A ∩ Cc, ta có Z Z Z Z L(x;θ1)dx − L(x;θ1)dx = L(x;θ1)dx − L(x;θ1)dx C A C∩ 1 Ac A∩Cc ≥ Z Z 1 L(x;θ L(x;θ k 0)dx − 0)dx, C∩Ac k A∩Cc
trong đó bất đẳng thức cuối được suy ra từ hai điều kiện (a) và (b). Hơn nữa, ta có Z Z Z Z L(x;θ0)dx = α − α = 0. L(x;θ0)dx − L(x;θ0)dx = L(x;θ0)dx − C∩Ac A∩Cc C A
Ta có điều phải chứng minh.
Ví dụ 3.3.3. Cho X = (X1,..., Xn) là một mẫu ngẫu nhiên từ phân phối N(θ,1). Xét bài toán kiểm định giả thiết đơn
H0 : θ = 0 đối lập với H1 : θ = 1. Ta có 1 L(0;x) ³ x2 P i=1 ´ n n = exp − 1 n ³ X xi + ´ L(1;x) 1(2π)n/2 2 i ³ P ´ = exp − i=1 . exp − 1 n (x 2 (2π)n/2 2 i=1 i − 1)2
Nếu k > 0, tập tất cả các điểm (x1,. .., xn) thỏa mãn n n n 1 ln k ³ X xi + ´ x − 1n X i ≥ 2 = c exp − i=1 ≤ k ⇔ i=1 n 2
là một miền tiêu chuẩn tốt nhất, trong đó c là một hằng số được xác định để mức ý nghĩa của miền tiêu chuẩn là
α. Bởi vì X n ∼ N(0,1/n), Pθ (X α ⇔ c Φ−1(1 − α), 0 n ≥ c) = =
CHƯƠNG 3. KIỂM ĐỊNH GIẢ THIẾT 29 1
trong đó Φ−1 là hàm ngược của Φ(x) = Z x e−t2/2dt.. p −∞
Nếu X n ≥ c, giả thiết đơn H0 : θ = 0 sẽ 2bπị bác bỏ với mức ý nghĩa α; nếu Xn < c, giả thiết H0 sẽ được chấp nhận.
Xác suất bác bỏ H0 khi H0 đúng là α; xác suất bác bỏ H0, khi H0 sai, là giá trị lực lượng của kiểm định khi θ = 1. Nghĩa là 1 Z ∞ ³ (x−1)2 ´ P c θ [X p exp − dx. 1 n ≥ c] = 2π/n 2/n
Ví dụ, nếu n = 25, α = 0.05 thì c = 0.329. Do đó, lực lượng của kiểm định tốt nhất của H0 đối lập với H1 với mức ý nghĩa 0.05 tại θ = 1 là Z ∞ 1 ³ ´ 0.329 (x − 1)2 p exp −
dx = 1 − Φ(−3.355) = 0.999. 2π/25 2/25
3.3.2 Tiêu chuẩn mạnh đều nhất
Bây giờ ta định nghĩa một miền tiêu chuẩn khi nó tồn tại, mà là miền tiêu chuẩn tốt nhất cho kiểm định một
giả thiết đơn H0 đối lập với một đối thiết hợp H1.
Định nghĩa 3.3.4. Miền tiêu chuẩn C là một miền tiêu chuẩn mạnh đều nhất (UMP) cỡ α cho kiểm định giả
thiết đơn H0 đối lập với đối thiết hợp H1 nếu tập C là một miền tiêu chuẩn tốt nhất cỡ α cho kiểm định H0 đối
lập với mỗi đối thiết đơn trong H1. Một kiểm định được định nghĩa bởi miền tiêu chuẩn C được gọi là một kiểm
định mạnh đều nhất, với mức ý nghĩa α, cho kiểm định giả thiết đơn H0 đối lập với đối thiết H1.
Ta đều biết rằng các tiêu chuẩn mạnh đều nhất thường không tồn tại. Tuy nhiên, khi chúng tồn tại, định lý
Neyman-Pearson đưa ra một kĩ thuật để tìm chúng.
Ví dụ 3.3.5. Cho (X1, X2,..., Xn) là một mẫu ngẫu nhiên từ phân phối N(0,θ), trong đó phương sai θ là một số
dương chưa biết. Ta sẽ chỉ ra rằng tồn tại một tiêu chuẩn mạnh đều nhất với mức ý nghĩa α cho kiểm định
H0 : θ = θ0 đối lập với H1 : θ > θ0.
Hàm mật độ đồng thời của X1, ... , Xn là 1 n L(θ; x1,..., xn) = ³ x2 12 ´ θ X exp − i=1 . (2nθ)n/2 i
Cho θ0 là một số lớn hơn θ0 và k là một số dương. Đặt C là tập các điểm trong đó L(θ n 0; x) 2θ0θ0 θ0 ≤ k x2 ⇔ X ³ ln ´ L(θ0;x) i ≥ n i=1 2 − ln k = c. θ0 − θ0 θ0 n n X x2 o Tập C = (x1, ... , xn) :i=1
khi đó là một miền tiêu chuẩn tốt nhất cho bài toán kiểm định của chúng ta. Ta i ≥ c
cần xác định c để miền tiêu chuẩn này có cỡ α, nghĩa là, h nX X2 i α = Pθ i=1 . 0 i ≥ c 1 n
Điều này có thể làm được bằng cách sử dụng kết quả
X 2 có phân phối khi bình phương với bậc tự do n. θ X i 0 i=1
Chú ý rằng với mỗi số θ0 > θ0, lập luận trên đều đúng. Như vậy, C là một miền tiêu chuẩn mạnh đều nhất cỡ α. n
Kết luận, nếu X X2i ≥ c thì H0 bị bác bỏ với mức ý nghĩa α và H1 được chấp nhận; ngược lại thì H0 được chấp i=1 nhận.
CHƯƠNG 3. KIỂM ĐỊNH GIẢ THIẾT 30
Ví dụ 3.3.6. Cho (X1,. .. , Xn) là một mẫu ngẫu nhiên từ phân phối chuẩn N(a,1), trong đó a chưa biết. Ta sẽ chỉ
ra rằng không tồn tại tiêu chuẩn mạnh đều nhất của giả thiết đơn H0 : a = a0 đối lập với H1 : a 6= a0.
Cho a1 là một số khác a0. Cho k là một số dương và xét 1 ³ P ´ n n exp − 1 n (x xi ≥ (a2 (2π)n/2 1 2 i=1 i − a0)2 X 2 1 − a2 ³ 0) − ln k. P ´ ≤ k ⇔ (a1 − a0) i=1 exp − 1 n (x (2π)n/2 2 i=1 i − a1)2
Bất đẳng thức cuối tương đương n n ln k X xi ≥ (a , 2 1 − a0) − i=1 a1 − a0
với điều kiện a1 > a0 hoặc tương đương n n ln k X xi ≤ (a , 2 1 − a0) − i=1 a1 − a0
nếu a1 < a0. Biểu thức thứ nhất xác định một miền tiêu chuẩn tốt nhất cho kiểm định H0 : a = a0 đối lập với giả
thiết a = a1 với điều kiện a1 > a0, trong khi đó biểu thức thứ hai xác định một miền tiêu chuẩn tốt nhất cho kiểm
định H0 : a = a0 đối lập với giả thiết a = a1 với điều kiện a1 < a0. Nghĩa là, một miền tiêu chuẩn tốt nhất cho kiểm
định giả thiết đơn đối lập với đối thiết đơn, ví dụ lấy a = a0+1, sẽ không thỏa mãn là một miền tiêu chuẩn tốt nhất
cho kiểm định H0 : a = a0 đối lập với đối thiết đơn a = a0 − 1. Do đó, theo định nghĩa, không tồn tại tiêu chuẩn
mạnh đều nhất trong trường hợp đang xét. Tuy nhiên, nếu đối thiết hợp hoặc là H1 : a > a0 hoặc là H1 : a < a0 thì
một tiêu chuẩn mạnh đều nhất sẽ tồn tại trong mỗi trường hợp.
Nhận xét 2. Tính đủ rất quan trọng trong việc tìm một kiểm định. Thật vậy, cho X1,..., Xn là một mẫu ngẫu
nhiên từ một phân phối có hàm mật độ f (x,θ), θ ∈ Θ. Giả sử rằng Y = u(X1, ... , Xn) là một thống kê đủ cho θ. Theo
tiêu chuẩn của Neyman, hàm mật độ đồng thời của X1,..., Xn có thể biểu diễn thành
L(x1,..., xn;θ) = k1(u(x1,..., xn);θ)k2(x1,..., xn),
trong đó k2(x1,. .., xn) không phụ thuộc vào θ. Từ đó suy ra tỉ số L(x1,..., xn;θ0) k θ0 = 1(u(x1,..., xn); ) L(x1,..., xn;θ00) k1(u(x1,..., xn),θ00)
phụ thuộc vào x1,..., xn chỉ thông qua u(x1,..., xn). Hệ quả, nếu có một thống kê đủ Y = u(X1,..., Xn) cho θ và nếu
ta cần xác định một tiêu chuẩn tốt nhất hoặc một tiêu chuẩn mạnh đều nhất thì ta không cần xét các tiêu chuẩn
dựa trên bất kỳ thống kê nào khác ngoài thống kê đủ.
3.3.3 Tỉ số hợp lý đơn điệu
Xét giả thiết một phía có dạng
H0 : θ ≤ θ0 đối lập với H1 : θ > θ0. (3.2)
Trong phần này ta giới thiệu các dạng tổng quát của tiêu chuẩn mạnh đều nhất cho giả thiết này khi mẫu có một
tỉ số hợp lý đơn điệu.
Định nghĩa 3.3.7. Cho X0 = (X1,..., Xn) là một mẫu ngẫu nhiên có hàm mật độ f (x;θ),θ ∈ Θ. Ta nói rằng hàm hợp n lý L(x;θ) = f (x Y
i; θ) có tỉ số hợp lý đơn điệu theo thống kê y = u(x) nếu với θ1 < θ2, tỉ số i=1 L(x;θ1) L(x;θ2)
là một hàm đơn điệu của y = u(x).
CHƯƠNG 3. KIỂM ĐỊNH GIẢ THIẾT 31
Định lý 3.3.8. Giả sử rằng L(x;θ) có một tỉ số hợp lý đơn điệu giảm theo thống kê y = u(x). Tiêu chuẩn sau là tiêu
chuẩn mạnh đều nhất mức α cho giả thiết (3.2): Bác bỏ H0 nếu u(X) ≥ c, (3.3)
trong đó c được xác định bởi α = Pθ [u(X) ≥ c]. 0
Trong trường hợp L(x;θ) có một tỉ số hợp lý đơn điệu tăng theo thống kê y = u(x), ta có thể xây dựng một tiêu
chuẩn mạnh đều nhất một cách tương tự.
Chứng minh. Đầu tiên, ta xét giả thiết đơn H0 0 : θ = θ0. Cho θ1 > θ0 tùy ý nhưng cố định. Kí hiệu C là miền tiêu
chuẩn mạnh nhất cho θ0 đối lập với θ1. Theo định lý Neyman-Pearson, C xác định bởi,
L(X;θ0) ≤ k, khi và chỉ khi X ∈ C, L(X;θ1)
trong đó k được xác định bởi α = Pθ [X ∈ C]. Tuy nhiên, vì θ1 > θ0 nên 0
L(X ;θ0) = g(u(X)) ≤ k ⇔ u(X)> g−1(k), L(X ;θ1) L(x;θ trong đó g(u(x)) =
0) . Do α = P [u(X) ≥ g−1(k) nên ta có c = g−1(k). Do đó, tiêu chuẩn Neyman-Pearson L(x;θ θ0 1)
tương đương với tiêu chuẩn xác định bởi (3.3). Hơn nữa, tiêu chuẩn này là tiêu chuẩn mạnh đều nhất cho θ0 đối
lập với θ1 > θ0 vì tiêu chuẩn này chỉ phụ thuộc vào θ1 > θ0 và g−1(k) xác định duy nhất dưới điều kiện θ0.
Kí hiệu γ(θ) là hàm lực lượng của tiêu chuẩn (3.3). Với θ0 < θ00 bất kì, tiêu chuẩn (3.3) là tiêu chuẩn mạnh đều
nhất cho kiểm định θ0 đối lập với θ00 với mức γ(θ0), ta có γ(θ00) > γ(θ0). Do đó, γ(θ) là một hàm không giảm. Điều này suy ra maxγ(θ) = α. θ<θ0
Ví dụ 3.3.9. Cho X1,..., Xn là một mẫu ngẫu nhiên từ một phân phối Bernoulli với tham số p = θ, trong đó
0 < θ < 1. Cho θ0 < θ1. Xét tỉ số hợp lý L(x1,. .., xn;θ0) ³ ´P ³ θ x ´ i 1 − θ0 n = 0(1 − θ1) . L(x1,. .., xn;θ1) θ1(1 − θ0) 1 − θ1 θ − θ Bởi vì 0(1 1) X
< 1 nên tỉ số trên là một hàm không giảm của y = xi. Do đó, ta có một tỉ số hợp lý đơn điệu θ1(1 − θ0) X theo t X h étốnggiả ktêhi Y ết = Xi.
H0 : θ < θ0 đối lập với H1 : θ > θ0.
Theo định lý 3.3.8, quy tắc quyết định mạnh đều nhất mức α được xác định bởi n
Bác bỏ H0 nếu Y = X Xi ≥ c, i=1
trong đó c là hằng số sao cho α = Pθ [Y ≥ c]. 0
3.4 Một số bài toán kiểm định thường gặp
3.4.1 Kiểm định giả thiết cho giá trị trung bình của phân phối chuẩn với phương sai σ2 đa biết
Trong phần này, ta sẽ giả sử rằng một mẫu ngẫu nhiên X1, X2,..., Xn được lấy từ một phân phối chuẩn
N(µ,σ2). Ta đã biết X là một ước lượng không chệch của µ.
CHƯƠNG 3. KIỂM ĐỊNH GIẢ THIẾT 32
Kiểm định giả thiết cho giá trị trung bình
Giả thiết không: H0 : µ = µ0 X − µ Thống kê kiểm định: Z 0 0 = p σ/ n Đối thiết Tiêu chuẩn bác bỏ P-value H1 : µ 6= µ0 |Z0| > zα/2 2[1 − Φ(|Z0|)] H1 : µ > µ0 Z0 > zα 1 − Φ(Z0) H1 : µ < µ0 Z0 < −zα Φ(Z0)
Ví dụ 3.4.1. Cho dữ liệu điểm kiểm tra của 10 sinh viên như sau: 75 64 75 65 72 80 71 68 78 62.
Giả sử điểm kiểm tra có phân phối chuẩn với kì vọng µ và phương sai σ2 = 36 đã biết, hãy kiểm định các giả thiết
sau với mức ý nghĩa 0.05 và tìm P-value cho mỗi bài toán.
a) H0 : µ = 70 và H1 : µ 6= 70.
b) H0 : µ = 68 và H1 : µ > 68.
c) H0 : µ = 75 và H1 : µ < 75.
Hướng dẫn giải: Ta sẽ giải mỗi bài toán theo quy trình gồm 6 bước như sau:
a) Bước 1. Xác định tham số cần xác định là µ.
Bước 2. Xây dựng bài toán kiểm định: H0 : µ = 70, và H1 : µ 6= 70.
Bước 3. Xác định cỡ mẫu n = 10 và kì vọng mẫu X = 71.
Bước 4. Mức ý nghĩa α = 0.05 suy ra zα/2 = 1.96.
Bước 5. Xác định thống kê kiểm định X − µ 71 − 70 Z 0 0 = p = p = 0.5270. σ/ n 6/ 10
Bước 6. Vì |Z0| < zα/2 nên ta không bác bỏ H0 : µ = 70 ủng hộ H1 : µ 6= 70 với mức ý nghĩa 0,05. Chính xác
hơn, ta kết luận điểm trung bình là 70 dựa trên mẫu gồm 10 điểm sinh viên.
Suy ra P-value của kiểm định là 2(1 − Φ(|Z0|)) = 2(1 − Φ(0.5270)) = 0.598.
b) Bước 1. Xác định tham số cần xác định là µ.
Bước 2. Xây dựng bài toán kiểm định: H0 : µ = 68, H1 : µ > 68.
Bước 3. Xác định cỡ mẫu n = 10 và kì vọng mẫu X = 71.
Bước 4. Mức ý nghĩa α = 0.05 suy ra zα = 1.645.
Bước 5. Xác định thống kê kiểm định X − µ 71 − 68 Z 0 0 = p = p = 1.581. σ/ n 6/ 10
Bước 6. Vì Z0 < zα nên ta không bác bỏ H0 : µ = 68 ủng hộ H1 : µ > 68 với mức ý nghĩa 0,05. Chính xác hơn,
ta kết luận điểm trung bình là 68 dựa trên mẫu gồm 10 điểm sinh viên.
Suy ra P-value của kiểm định là 1 − Φ(Z0) = 1 − Φ(1.581) = 0.057.
CHƯƠNG 3. KIỂM ĐỊNH GIẢ THIẾT 33
c) Bước 1. Xác định tham số cần xác định là µ.
Bước 2. Xây dựng bài toán kiểm định: H0 : µ = 75, H1 : µ < 75.
Bước 3. Xác định cỡ mẫu n = 10 và kì vọng mẫu X = 71.
Bước 4. Mức ý nghĩa α = 0.05 suy ra zα = 1.645.
Bước 5. Xác định thống kê kiểm định X − µ 71 − 75 Z 0 0 = p = p = −2.108. σ/ n 6/ 10
Bước 6. Vì Z0 < −zα nên ta không bác bỏ H0 : µ = 75 ủng hộ H1 : µ < 75 với mức ý nghĩa 0,05. Chính xác
hơn, ta kết luận điểm trung bình là 75 dựa trên mẫu gồm 10 điểm sinh viên.
Suy ra P-value của kiểm định là Φ(Z0) = Φ(−2.108) = 0.018.
Mối liên hệ giữa kiểm định giả thiết và ước lượng khoảng
Có một mối quan hệ mật thiết giữa kiểm định giả thiết cho tham số θ với ước lượng khoảng cho θ. Nếu [l, u]
là một khoảng ước lượng 100(1 − α)% cho tham số θ thì kiểm định mức α cho giả thiết
H0 : θ = θ0 và H1 : θ 6= θ0
sẽ suy ra việc bác bỏ H0 nếu và chỉ nếu θ0 không thuộc khoảng tin cậy [l, u].
Mặc dù kiểm định giả thiết và khoảng tin cậy là hai quá trình tương đương trong hoàn cảnh việc ra quyết
định hoặc kết luận về µ có liên quan đến nhau nhưng mỗi bài toán có sự khác nhau một chút. Ví dụ, khoảng tin
cậy đưa ra một miền giá trị xấp xỉ cho µ tại một độ tin cậy nào đó trong khi kiểm định giả thiết là một khung biểu
thị mức độ rủi ro ví dụ như P-value liên kết với một quyết định cụ thể.
Sai lầm loại 2 và sự lựa chọn cỡ mẫu
Trong giả thiết kiểm định, chúng ta lựa chọn trực tiếp xác suất mắc sai lầm loại 1. Tuy nhiên, xác suất mắc sai
lầm loại 2 β phụ thuộc vào việc chọn cỡ mẫu. Trong bài này, ta sẽ chỉ ra cách tính toán xác suất mắc sai lầm loại
2 β. Ta cũng sẽ chỉ ra cách chọn cỡ mẫu để thu được một giá trị của β đã được xác định.
Tiếp theo, ta sẽ xây dựng công thức tính β của kiểm định hai phía. Đối với bài toán kiểm định một phía ta có
thể làm một cách tương tự.
Cách tìm xác suất mắc sai lầm loại 2 β: Xét bài toán kiểm định giả thiết hai phía
H0 : µ = µ0, và H1 : µ 6= µ0.
Giả sử giả thiết không sai và giá trị đúng của kì vọng là µ = µ0 + δ với δ nào đó. Thống kê kiểm định Z0 là p X − µ X − (µ δ n p Z 0 0 + δ) ³ ,1). 0 = p = p δ n σ/ n σ/ n ∼ N σ σ
Do đó, xác suất mắc sai lầm loại 2 là β = Pµ |Z0| ≤ zα/2 , nghĩa là, 0+δ( ) ³ p p δ n ´ ³ δ n ´ β = Φ zα/2 − − Φ − z σ α/2 − . (3.4) σ
Công thức cỡ mẫu Từ phương trình (3.4) ta không tìm được công thức nào để xác định n. Tuy nhiên, ta có thể ước lượng n như sau. p δ n
Trường hợp 1: nếu δ > 0 thì Φ(−z ) ≈ 0 do đó α/2 − σ ³ p δ n ´ (z . β ≈ Φ z α/2 + zβ)2σ2 δ2 α/2 − ⇔ n ≈ σ
CHƯƠNG 3. KIỂM ĐỊNH GIẢ THIẾT 34 p δ n Trường hợp 2: nếu ) ≈ 1 do đó δ < 0 thì Φ(zα/2 − σ ³ p δ n ´ (z . β ≈ 1 − Φ − z α/2 + zβ)2σ2 δ2 α/2 − ⇔ n ≈ σ
Do đó, ta có công thức xác định cỡ mẫu sau (zα/2 + zβ)2σ2 n ≈ δ2 Kiểm định mẫu lớn
Ta đã xây dựng quy trình kiểm định cho giả thiết không H0 : µ = µ0 với giả sử rằng quần thể có phân phối
chuẩn và σ2 đã biết. Tuy nhiên trong nhiều hoàn cảnh thực tế σ2 sẽ chưa xác định. Hơn nữa, ta có thể không
chắc chắn rằng quần thể được mô hình bằng phân phối chuẩn. Trong những trường hợp như vậy nếu n đủ lớn
(n > 40) thì phương sai mẫu s2 có thể được thay thế cho σ2 trong quy trình kiểm định mà in the test procedures
với ảnh hưởng không đáng kể. Do đó, trong khi ta đang muốn đưa ra một kiểm định cho kì vọng của một phân
phối chuẩn với phương sai σ2 đã biết thì có thể dễ dàng biến đổi thành một quy trình kiểm định mẫu lớn cho
phương sai σ2 chưa biết tức là ta không cần quan tâm đến phân phối của quần thể. Kiểm định mẫu lớn này dựa
trên định lý giới hạn trung tâm giống như khoảng tin cậy mẫu lớn cho σ2 mà được trình bày ở chương trước.
Trong trường hợp quần thể có phân phối chuẩn, phương sai σ2 chưa biết, và n nhỏ, ta sẽ sử dụng phân phối t để kiểm định.
3.4.2 Kiểm định giả thiết cho giá trị trung bình của phân phối chuẩn với phương sai σ2 chưa biết
Kiểm định giả thiết cho giá trị trung bình
Ta giả sử lại rằng một mẫu ngẫu nhiên X1, X2,..., Xn đwuocj lấy từ một phân phối chuẩn N(µ,σ2). Kí hiệu X
và s(X)2 lần lượt là kì vọng và phương sai của mẫu ngẫu nhiên X1, X2,..., Xn. Như ta đã biết X − µ tn−1 = p s(X )/ n
có phân phối t với bậc tự do n − 1. Điều này suy ra tiêu chuẩn sau cho giá trị trung bình µ.
Giả thiết không: H0 : µ = µ0 ¯ Thống kê kiểm định: T X − µ 0 = 0 p s(X )/ n Đối thiết Tiêu chuẩn bác bỏ P-value H1 : µ 6= µ0 |T0| > tα/2,n−1 2P(tn−1 > |T0|) H1 : µ > µ0 T0 > tα,n−1 P(tn−1 > T0) H1 : µ < µ0 T0 < −tα,n−1 P(tn−1 < −T0)
trong đó ta,n−1 thỏa mãn P[tn−1 > ta,n−1] = a.
Bởi vì bảng t trong Bảng phụ lục chỉ có một vài giá trị cho mỗi phân phối t nên việc tính toán chính xác P-value
trực tiếp từ bảng thường không làm được. Tuy nhiên, ta có thể dễ dàng tìm được chặn trên và chặn dưới cho P-value từ bảng.