BT môn cơ sở truyền tin| Môn Lý thuyết thông tin| Trường Đại học Bách Khoa Hà Nội

 

1. Cho nguồn tin X có các lớp tin có xác suất xuất hiện như sau:

xkx1x2x3x4x5x6x7x8

p(xk)0.20.20.050.050.10.140.10.16

a. Hãy lập mã nguồn tối ưu nguồn tin trên theo phương pháp mã hóa Shannon – Fano.

b. Tính các hệ số tối ưu Kt  và Kn của bộ mã.

 

Bài tập môn sở truyền tin
lần 1 học kỳ 1/2014-2015
Họ tên:
số sinh viên:
1. Cho nguồn tin X các lớp tin xác suất xuất hiện như sau:
x
k
x
1
x
2
x
3
x
4
x
5
x
6
x
7
x
8
p(x
k
) 0.2 0.2 0.05 0.05 0.1 0.14 0.1 0.16
a. Hãy lập nguồn tối ưu nguồn tin trên theo phương pháp hóa Shannon
Fano.
b. Tính các hệ số tối ưu K
t
K
n
của bộ mã.
2. Cho nguồn tin X các lớp tin xác suất xuất hiện như sau:
x
k
x
1
x
2
x
3
x
4
x
5
x
6
x
7
x
8
p(x
k
) 0.2 0.15 0.05 0.05 0.1 0.19 0.1 0.16
a. Hãy lập nguồn tối ưu nguồn tin trên theo phương pháp hóa Shannon
Fano.
b. Tính các hệ số tối ưu K
t
K
n
của bộ mã.
3. Cho nguồn tin X các lớp tin xác suất xuất hiện như sau:
x
k
x
1
x
2
x
3
x
4
x
5
x
6
x
7
x
8
p(x
k
) 0.2 0.2 0.05 0.05 0.1 0.14 0.1 0.16
a. Hãy lập nguồn tối ưu nguồn tin trên theo phương pháp hóa Hufman
b. Tính các hệ số tối ưu K
t
K
n
của bộ mã.
4. Cho nguồn tin X các lớp tin xác suất xuất hiện như sau:
x
k
x
1
x
2
x
3
x
4
x
5
x
6
x
7
x
8
p(x
k
) 0.2 0.15 0.05 0.05 0.1 0.19 0.1 0.16
a. Hãy lập nguồn tối ưu nguồn tin trên theo phương pháp hóa Hufman
b. Tính các hệ số tối ưu K
t
K
n
của bộ mã.
5. Cho hình hệ thống thông tin nhị phân mối quan hệ giữa nguồn tin nơi phát nguồn tin nơi
nhận thông qua xác suất đồng thời như sau:
Hãy tính I(X); I(X,Y)
6. Cho hình hệ thống thông tin nhị phân mối quan hệ giữa nguồn tin nơi phát nguồn tin nơi
nhận thông qua xác suất điều kiện phân bố nguồn tin như sau:
Hãy tính I(X); I(X,Y)
| 1/2

Preview text:

Bài tập môn Cơ sở truyền tin lần 1 học kỳ 1/2014-2015 Họ và tên: Mã số sinh viên:
1. Cho nguồn tin X có các lớp tin có xác suất xuất hiện như sau: xk x1 x2 x3 x4 x5 x6 x7 x8 p(xk) 0.2 0.2 0.05 0.05 0.1 0.14 0.1 0.16
a. Hãy lập mã nguồn tối ưu nguồn tin trên theo phương pháp mã hóa Shannon – Fano.
b. Tính các hệ số tối ưu Kt và Kn của bộ mã.
2. Cho nguồn tin X có các lớp tin có xác suất xuất hiện như sau: xk x1 x2 x3 x4 x5 x6 x7 x8 p(xk) 0.2 0.15 0.05 0.05 0.1 0.19 0.1 0.16
a. Hãy lập mã nguồn tối ưu nguồn tin trên theo phương pháp mã hóa Shannon – Fano.
b. Tính các hệ số tối ưu Kt và Kn của bộ mã.
3. Cho nguồn tin X có các lớp tin có xác suất xuất hiện như sau: xk x1 x2 x3 x4 x5 x6 x7 x8 p(xk) 0.2 0.2 0.05 0.05 0.1 0.14 0.1 0.16
a. Hãy lập mã nguồn tối ưu nguồn tin trên theo phương pháp mã hóa Hufman
b. Tính các hệ số tối ưu Kt và Kn của bộ mã.
4. Cho nguồn tin X có các lớp tin có xác suất xuất hiện như sau: xk x1 x2 x3 x4 x5 x6 x7 x8 p(xk) 0.2 0.15 0.05 0.05 0.1 0.19 0.1 0.16
a. Hãy lập mã nguồn tối ưu nguồn tin trên theo phương pháp mã hóa Hufman
b. Tính các hệ số tối ưu Kt và Kn của bộ mã.
5. Cho mô hình hệ thống thông tin nhị phân có mối quan hệ giữa nguồn tin nơi phát và nguồn tin nơi
nhận thông qua xác suất đồng thời như sau: Hãy tính I(X); I(X,Y)
6. Cho mô hình hệ thống thông tin nhị phân có mối quan hệ giữa nguồn tin nơi phát và nguồn tin nơi
nhận thông qua xác suất có điều kiện và phân bố nguồn tin như sau: Hãy tính I(X); I(X,Y)