Cơng 2:
thuyết tng tin
thống
Phạm Thị Đan Ngọc
Khoa K Thut Đin T 2
1
Ni dung Chương 2
2.1 Thông tin, lượng thông tin, độ bất định xác suất
2.2 Entropy
2.3 Entropy điều kiện
2.4 Lượng tin tương hỗ
2.5 Các tham số của nguồn kênh rời rạc
2.6 Entropy của nguồn liên tục
2.7 Dung lượng của kênh truyền Gauss
2
2.1Thông tin, lượng tng tin, độ bất định c suất
Thông tin một hiện tượng vật lý thường tồn tại và được truyền đi dưới
một dạng vật chất nào đó để mang thông tin
Lượng thông tin của một tin tỷ lệ thuận với số khả năng của một tin và tỷ l
nghịch với xác suất xuất hiện của tin đó
Độ bất định
Xác suất
3
2.1Thông tin, lượng tng tin, độ bất định c suất
Lượng thông tin là "lượng đo thông tin của một tin được đo bằng logarit của
độ bất ngcủa tin hay nghịch đảo c suất xuất hiện của tin đó”
Lượng tin riêng được định nghĩa:
số b:
Nếu b = 10: đơn v tính Harley
Nếu b = 2: đơn v tính bit
Nếu b = e (2.718...): đơn vị nh nat
4
1 Harley = 3.322 bit
1 nat = 1,443 bit


2.1Thông tin, lượng tng tin, độ bất định c suất
Đặc tính của lượng tin riêng:
Lượng tin riêng tỷ lệ thuận với độ bất định
Lượng tin riêng tỷ lệ nghịch với xác suất xuất hiện tin tương ứng của
nguồn
Ví dụ: Cho nguồn A = {a
1
, a
2
} có xác suất xuất hiện lần lượt là:
a) p(a
1
) = p(a
2
) = 0.5
b) p(a
1
) = 0.96875 p(a
2
) = 0.03125
c) p(a
1
) = 1 p(a
2
) = 0
Tính I(a
1
) và I(a
2
) cho mi trường hợp?
5
2.1Thông tin, lượng tng tin, độ bất định c suất
Tính chất của lượng tin riêng:
Nếu
Nếu
Nếu a
i
và a
j
độc lập:
Lượng tin trung bình của mt nguồn tin A là lượng tin trung bình chứa trong một
ký hiệu bất kỳ của nguồn tin. Nó thường được ký hiệu là I(A) và được tính bởi
công thức sau:
6
󰇛
󰇜 󰇛
󰇜 󰇛
󰇜 󰇛
󰇛
󰇜 󰇛
󰇜
󰇛
󰇜 󰇛
󰇜󰇛



2.2 Entropy
2.2.1 Định nghĩa Entropy:
Cho x là mt biến ngẫu nhiên với không gian mẫu X = {x
1
, x
2
, ..., x
K
} và
độ đo xác suất p(x
k
) = p
k
, Entropy của x được định nghĩa là:
Entropy của nguồn rời rạc: là trung bình thống kê của lượng thông tin
riêng của các tin thuộc nguồn tin A nào đó.
7
1
.
K
kk
k
H x p x logp x

2.2 Entropy
Nếu nguồn A = {a
1
, a
2
, ..., a
K
}, thì entropy của nguồn A là:
8



2.2 Entropy
2.2.2 Tính chất của Entropy
Entropy đại lượng luôn luôn dương hoặc bằng không
,  khi và chỉ khi
(entropy đạt cực đại khi xác suất xuất hiện của c ký hiệu bằng nhau)
Cho biến ngẫu nhiên x có không gian mẫu X = {x
1
, x
2
, ..., x
K
} và biến ngẫu
nhiên y Y = {y
1
, y
2
, ..., y
L
} thì biến ngẫu nhiên nối z = {x,y} có không
gian mẫu Z = {(x
1
, y
1
); (x
1
, y
2
); ...; (x
1
, y
L
); (x
2
, y
1
); (x
2
, y
2
); ...; (x
2
, y
L
); ...;
(x
K
, y
1
); (x
K
, y
2
); ...; (x
K
, y
L
)} gồm K.L phần tử. Nếu x và y độc lập nhau,
thì:
9


2.2 Entropy
2.2.2 Tính chất của Entropy
Đối với nguồn rời rạc X = {0, 1}, nhị phân: p(0) = p p(1) = 1 p
H(X) đạt cực đại khi p = 1/2
10
2.2 Entropy
2.2.3 Entropy của sự kiện đồng thời
Hai sự kiện A ={ a
1
, a
2
, ..., a
N
} và B = { b
1
, b
2
, ..., b
M
}. Xét tích c
k
= a
n
.b
m
, lúc
này p(c
k
) = p(a
n
.b
m
). Xét trường C giao của AB, nếu C = A.B
Trường C được gi là trường sự kiện đồng thời của AB
Nếu A và B độc lập, thì: p(c
k
) = p(a
n
). p(b
m
).
Định :
Nếu A và B độc lập, thì:
Nếu nguồn A ={ a
1
, a
2
, ..., a
N
}, độc lập:
11

2.3 Entropy có điều kin
2.3.1 Định nghĩa
Lượng tin có điều kiện lượng tin A = a
n
khi đã xảy ra B = b
m
Entropy của tin A với điều kiện b
m
được xác định bằng k vọng của lượng tin
riêng có điều kiện vA khi biết b
m
:
12
a
n
b
m

a
n
b
m


2.3 Entropy có điều kin
2.3.1 Định nghĩa
Entropy của tin A với điều kiện được c định bằng kỳ vng của đại lượng
H(A/b
m
)
13



2.3 Entropy có điều kin
2.3.2 Tính chất của entropy có điều kiện
Nếu A và B là hai trường biến c bất k thì entropy của trường biến cố đồng
thời bằng:
Entropy có điều kiện nằm trong phạm vi:
Entropy của trường skiện đồng thời không lớn hơn tổng entropy của các
trường sự kiện cơ bản:
14

Bài tp ợng tin
Bài tập 1: Cho tập tin U = {u
i
}, với i  xác suất xuất hiện p{u
i
}
theo bảng sau:
a) Tính các lượng tin riêng của tập tin U.
b) Tính lượng tin riêng trung bình của tập tin U (bit).
15
2.4 ợng tin tương htrung nh
Lượng tin tương hỗ đo lượng thông tin thu được về một biến ngẫu nhiên
thông qua gtrị của mt biến ngẫu nhiên khác.
Lượng tin tương hỗ trung bình được định nga như sau:
Hay:
16


2.4 ợng tin tương htrung nh
Một số tính chất lượng tin tương hỗ:
vì
17


Bài tp ợng tin
Bài tập 2:
Cho kênh truyền nhị phân có nhiễu với nguồn tin X = {x
1
, x
2
} có xác suất
truyn tin lần lượt là p(x
1
) = 0.6 và p(x
2
) = 0.4. Bên cạnh đó, xác suất truyền
tin đúng p(y
1
/ x
1
) = p(y
2
/ x
2
) = 0.75 và xác suất truyn tin sai p(y
1
/ x
2
) =
p(y
2
/ x
1
) = 0.25. Biết rằng phía thu Y = {y
1
, y
2
} .
a) Tính lượng tin riêng trung bình H(Y)
b) Tính H(Y/X)
c) Tính H(X,Y)
18
2.5 Các tham s ca ngun và kênh rời rc
2.5.1 Tc độ truyền
2.5.2 Khả năng truyền của nguồn rời rạc
2.5.3 Độ thừa của nguồn rời rạc
2.5.4 Các đặc trưng của kênh truyn rời rạc
2.5.5 Lượng tin truyn qua kênh trong một đơn vị trời gian
2.5.6 Dung lượng của kênh rời rạc
19
2.5 Các tham s ca ngun và kênh rời rc
2.5.1 Tc độ truyền
Trong thông tin rời rạc, tín hiệu được phát đi bởi các xung. Nếu gọi T
n
là độ
rộng trung bình của mi xung thì tốc độ phát của nguồn tin rời rạc:
với [R
n
]: thứ nguyên, bit/s (xung/s)
2.5.2 Khả năng truyền của nguồn rời rạc
Định nghĩa:
Ví dụ: Máy điện báo có 3 bit với tốc độ phát là 75 thì khả năng tối đa của máy?
20

(bit/s)

Preview text:

Chương 2: Lý thuyết thông tin thống kê Phạm Thị Đan Ngọc
Khoa Kỹ Thuật Điện Tử 2
1 Nội dung Chương 2
2.1 Thông tin, lượng thông tin, độ bất định và xác suất 2.2 Entropy 2.3 Entropy có điều kiện 2.4 Lượng tin tương hỗ
2.5 Các tham số của nguồn và kênh rời rạc
2.6 Entropy của nguồn liên tục
2.7 Dung lượng của kênh truyền Gauss 2
2.1 Thông tin, lượng thông tin, độ bất định và xác suất
 Thông tin là một hiện tượng vật lý thường tồn tại và được truyền đi dưới
một dạng vật chất nào đó để mang thông tin
 Lượng thông tin của một tin tỷ lệ thuận với số khả năng của một tin và tỷ lệ
nghịch với xác suất xuất hiện của tin đó  Độ bất định  Xác suất 3
2.1 Thông tin, lượng thông tin, độ bất định và xác suất
 Lượng thông tin là "lượng đo thông tin của một tin được đo bằng logarit của
độ bất ngờ của tin hay nghịch đảo xác suất xuất hiện của tin đó” 1
Lượng tin riêng được định nghĩa: 𝐼 𝑎𝑖 ≜ 𝑙𝑜𝑔𝑏 = −𝑙𝑜𝑔 𝑝 𝑎 𝑏𝑝 𝑎𝑖 𝑖  Cơ số b:
 Nếu b = 10: đơn vị tính là Harley
 Nếu b = 2: đơn vị tính là bit 1 Harley = 3.322 bit
 Nếu b = e (2.718...): đơn vị tính là nat 1 nat = 1,443 bit 4
2.1 Thông tin, lượng thông tin, độ bất định và xác suất
 Đặc tính của lượng tin riêng:
 Lượng tin riêng tỷ lệ thuận với độ bất định
 Lượng tin riêng tỷ lệ nghịch với xác suất xuất hiện tin tương ứng của nguồn
Ví dụ: Cho nguồn A = {a , a } có xác suất xuất hiện lần lượt là: 1 2
a) p(a ) = p(a ) = 0.5 1 2
b) p(a ) = 0.96875 và p(a ) = 0.03125 1 2 c)
p(a ) = 1 và p(a ) = 0 1 2
Tính I(a ) và I(a ) cho mỗi trường hợp? 1 2 5
2.1 Thông tin, lượng thông tin, độ bất định và xác suất
 Tính chất của lượng tin riêng:  Nếu 𝑝(𝑎 𝑖) < 𝑝(𝑎𝑗):
𝐼(𝑎𝑖) > 𝐼(𝑎𝑗
 Nếu 𝑝(𝑎𝑖) = 1: 𝐼(𝑎𝑖) = 0
 Nếu a a độc lập: 𝐼(𝑎 i j
𝑖; 𝑎𝑗) = 𝐼(𝑎𝑗) + 𝐼(𝑎𝑗
 Lượng tin trung bình của một nguồn tin A là lượng tin trung bình chứa trong một
ký hiệu bất kỳ của nguồn tin. Nó thường được ký hiệu là I(A) và được tính bởi công thức sau:
𝐼 𝐴 = 𝑝 𝑎𝑖 . 𝐼 𝑎𝑖 = − 𝑝 𝑎𝑖 . log𝑏𝑝 𝑎𝑖 𝑎𝑖∈𝐴 𝑎𝑖∈𝐴 6 2.2 Entropy 2.2.1 Định nghĩa Entropy:
 Cho x là một biến ngẫu nhiên với không gian mẫu X = {x , x , ..., x } và 1 2 K
độ đo xác suất p(x ) = p , Entropy của x được định nghĩa là: k k H xK
  px logp x k  .  k k 1 
 Entropy của nguồn rời rạc: là trung bình thống kê của lượng thông tin
riêng của các tin thuộc nguồn tin A nào đó.
𝐻 𝐴 ≜ 𝑀 𝐼 𝑎𝑘 7 2.2 Entropy
 Nếu nguồn A = {a , a , ..., a }, thì entropy của nguồn A là: 1 2 K 𝐾
𝐻 𝐴 = 𝑝 𝑎𝑘 𝐼 𝑎𝑘 𝑘=1 𝐾
= − 𝑝 𝑎𝑘 log𝑝 𝑎𝑘 𝑘=1 8 2.2 Entropy
2.2.2 Tính chất của Entropy
 Entropy là đại lượng luôn luôn dương hoặc bằng không
 𝐻 𝑥 ≤ log 𝐾 , 𝐻 𝑥 = log 𝐾 khi và chỉ khi 𝑝1 = 𝑝2 =. . . = 𝑝𝐾 = 1 𝐾
(entropy đạt cực đại khi xác suất xuất hiện của các ký hiệu bằng nhau)
 Cho biến ngẫu nhiên x có không gian mẫu X = {x , x , ..., x } và biến ngẫu 1 2 K
nhiên y có Y = {y , y , ..., y } thì biến ngẫu nhiên nối z = {x,y} có không 1 2 L
gian mẫu Z = {(x , y ); (x , y ); ...; (x , y ); (x , y ); (x , y ); ...; (x , y ); ...; 1 1 1 2 1 L 2 1 2 2 2 L
(x , y ); (x , y ); ...; (x , y )} gồm K.L phần tử. Nếu x và y độc lập nhau, K 1 K 2 K L
thì: 𝐻 𝑧 = 𝐻 𝑥 + 𝐻 𝑦 9 2.2 Entropy
2.2.2 Tính chất của Entropy
 Đối với nguồn rời rạc X = {0, 1}, nhị phân: p(0) = p và p(1) = 1 – p
 H(X) đạt cực đại khi p = 1/2 10 2.2 Entropy
2.2.3 Entropy của sự kiện đồng thời
 Hai sự kiện A ={ a , a , ..., a } và B = { b , b , ..., b }. Xét tích c = a .b , lúc 1 2 N 1 2 M k n m
này p(c ) = p(a .b ). Xét trường C là giao của A và B, nếu C = A.B k n m
 Trường C được gọi là trường sự kiện đồng thời của A và B 
Nếu A và B độc lập, thì: p(c ) = p(a ). p(b ). k n m  Định lý:
 Nếu A và B độc lập, thì: 𝐻 𝐴. 𝐵 = 𝐻 𝐴 + 𝐻 𝐵 𝑁
 Nếu nguồn A ={ a , a , ..., a }, 𝑛 ∈
1, . . . , 𝑁 độc lập: 𝐻 𝑎 𝐻 𝑎 1 2 N 1. . . 𝑎𝑁 = 𝑛 𝑛=1 11 2.3 Entropy có điều kiện 2.3.1 Định nghĩa
Lượng tin có điều kiện là lượng tin A = a khi đã xảy ra B = b n m 𝐼 a n bm = −log𝑝 a n bm
Entropy của tin A với điều kiện bm được xác định bằng kỳ vọng của lượng tin
riêng có điều kiện về A khi biết bm : 𝑁
𝐻 𝐴 𝑏𝑚 ≜ − 𝑝 𝑎 𝑛 𝑏𝑚 log𝑝 𝑎 𝑛 𝑏𝑚 𝑛=1 12 2.3 Entropy có điều kiện 2.3.1 Định nghĩa
Entropy của tin A với điều kiện B được xác định bằng kỳ vọng của đại lượng H(A/b ) m 𝑁 𝑀 𝐻 𝐴 𝐵 = −
𝑝 𝑎𝑛. 𝑏𝑚 log𝑝 𝑎 𝑛 𝑏𝑚 𝑛=1 𝑚=1 13 2.3 Entropy có điều kiện
2.3.2 Tính chất của entropy có điều kiện
 Nếu A và B là hai trường biến cố bất kỳ thì entropy của trường biến cố đồng thời bằng:
𝐻 𝐴. 𝐵 = 𝐻 𝐴 + 𝐻 𝐵 𝐴 = 𝐻 𝐵 + 𝐻 𝐴 𝐵
 Entropy có điều kiện nằm trong phạm vi: 0 ≤ 𝐻 𝐴 𝐵 ≤ 𝐻 𝐴
 Entropy của trường sự kiện đồng thời không lớn hơn tổng entropy của các
trường sự kiện cơ bản:
𝐻 𝐴. 𝐵 ≤ 𝐻 𝐴 + 𝐻 𝐵 14 Bài tập lượng tin
Bài tập 1: Cho tập tin U = {u }, với i ∈ 1, . . . , 6 có xác suất xuất hiện p{u } i i theo bảng sau: a)
Tính các lượng tin riêng của tập tin U. b)
Tính lượng tin riêng trung bình của tập tin U (bit). 15
2.4 Lượng tin tương hỗ trung bình
 Lượng tin tương hỗ đo lượng thông tin thu được về một biến ngẫu nhiên
thông qua giá trị của một biến ngẫu nhiên khác. 𝑝 𝑎 𝐼 𝑎 𝑛 𝑏𝑚 𝑛, 𝑏𝑚 = log 𝑝 𝑎𝑛
 Lượng tin tương hỗ trung bình được định nghĩa như sau:
𝐼 𝐴, 𝐵 = 𝐻 𝐴 − 𝐻 𝐴 𝐵
 Hay: 𝐼 𝐴, 𝐵 = 𝐻 𝐵 − 𝐻 𝐵 𝐴
𝐼 𝐴, 𝐵 = 𝐻 𝐴 + 𝐻 𝐵 − 𝐻 𝐴. 𝐵 16
2.4 Lượng tin tương hỗ trung bình
 Một số tính chất lượng tin tương hỗ: 
𝐼 𝐴, 𝐵 ≥ 0 vì 𝐻 𝐴 𝐵 ≤ 𝐻 𝐴 → 𝐻 𝐴 − 𝐻 𝐴 𝐵 ≥ 0  𝐼 𝐴, 𝐵 ≤ 𝐻 𝐴  𝐼 𝐴, 𝐴 = 𝐻 𝐴 
𝐼 𝐴, 𝐵 = 𝐼 𝐵, 𝐴 17 Bài tập lượng tin Bài tập 2:
Cho kênh truyền nhị phân có nhiễu với nguồn tin X = {x , x } có xác suất 1 2
truyền tin lần lượt là p(x ) = 0.6 và p(x ) = 0.4. Bên cạnh đó, xác suất truyền 1 2
tin đúng là p(y / x ) = p(y / x ) = 0.75 và xác suất truyền tin sai là p(y / x ) = 1 1 2 2 1 2
p(y / x ) = 0.25. Biết rằng phía thu Y = {y , y } . 2 1 1 2 a)
Tính lượng tin riêng trung bình H(Y) b) Tính H(Y/X) c) Tính H(X,Y) 18
2.5 Các tham số của nguồn và kênh rời rạc 2.5.1 Tốc độ truyền
2.5.2 Khả năng truyền của nguồn rời rạc
2.5.3 Độ thừa của nguồn rời rạc
2.5.4 Các đặc trưng của kênh truyền rời rạc
2.5.5 Lượng tin truyền qua kênh trong một đơn vị trời gian
2.5.6 Dung lượng của kênh rời rạc 19
2.5 Các tham số của nguồn và kênh rời rạc 2.5.1 Tốc độ truyền
Trong thông tin rời rạc, tín hiệu được phát đi bởi các xung. Nếu gọi T là độ n
rộng trung bình của mỗi xung thì tốc độ phát của nguồn tin rời rạc: 1 𝑅𝑛 ≜ 𝑇𝑛
với [R ]: thứ nguyên, bit/s (xung/s) n
2.5.2 Khả năng truyền của nguồn rời rạc Định nghĩa: 𝐻 𝐴
𝐻′ 𝐴 ≜ 𝑅. 𝐻 𝐴 = (bit/s) 𝑇𝑛
Ví dụ: Máy điện báo có 3 bit với tốc độ phát là 75 thì khả năng tối đa của máy? 20