ĐẠI HỌC BÁCH KHOA HÀ NỘI
TRƯỜNG ĐIỆN TỬ - VIỄN THÔNG
ĐỒ ÁN MÔN HỌC
NHẬP MÔN ĐTVT
Đề tài:
Điều khiển thiết bị bằng giọng nói
Sinh viên thực hiện: Đỗ Đình Thi – 20224155
Việt Anh – 20223865
Nguyễn Quang Hiếu – 20223969
Nguyễn Minh Quân – 20223728
Nguyễn Hữu Long – 20223794
LỚP ĐT 01 và 02 - K67
Giảng viên hướng dẫn: PGS.TS. NGUYỄN XUÂN QUYỀN
PGS.TS TRẦN THỊ THANH HẢI
Hà Nội, 12-2022
TRƯỜNG ĐIỆN TỬ - VIỄN THÔNG
ĐỒ ÁN MÔN HỌC
NHẬP MÔN ĐTVT
Đề tài:
Điều khiển thiết bị bằng giọng nói
Sinh viên thực hiện: Đỗ Đình Thi – 20224155
Việt Anh – 20223865
Nguyễn Quang Hiếu – 20223969
Nguyễn Minh Quân – 20223728
Nguyễn Hữu Long – 20223794
LỚP ĐT 01 và 02 - K67
Giảng viên hướng dẫn: PGS.TS. NGUYỄN XUÂN QUYỀN
PGS.TS TRẦN THỊ THANH HẢI
Hà Nội, 12-2022
PHẦN MỞ ĐẦU
Tự động hóa đang là xu thế chung của thế giới hiện nay. Các thiết bị tự động hóa
khả năng điều khiển từ xa giúp cuộc sống của con người trở nên dễ dàng thoải mái
hơn. Bắt kịp xu thế đó thì hệ thống thiết bị thông minh điều khiển bằng giọng nói là một
lựa chọn tuyệt vời cho căn nhà của mỗi người.
CHƯƠNG 1. TỔNG QUAN
1.1 Giới thiệu chung về hệ thống tưới tiêu tự động
Điều khiển thiết bị bằng giọng nói là gì ?
-là các thiết bị điện tử cho phép người ng điều khiển bằng giọng nói thông qua
thiết bị kết nối internet
Hệ thống này có ưu điểm nào so với điều khiển thông thường?
Hệ thống này có khuyết điểm gì?
Hệ thống này có khó khăn trong việc sản xuất và lắp đặt không?
1.2 Mục tiêu của đồ án 1.3 Các nhiệm vụ cần thực hiện
1.3.1 Các nhiệm vụ 1.3.2 Bảng phân công công việc và đánh giá mức độ hoàn
thành
CHƯƠNG 2. PHÂN TÍCH VÀ THIẾT K
2.1 Tìm hiểu nhu cầu người dùng
2.2 Đặc tả
2.2.1 Chức năng 2.2.2 Phi chức năng
2.3 Lập kế hoạch 2.4 Thiết kế khối 2.5 Lựa chọn phương án
CHƯƠNG 3. MÔ PHỎNG VÀ TRIỂN KHAI
3.1 Công cụ mô phỏng và kết quả đạt được
3.1.1 Công cụ mô phỏng 3.1.2 Kết quả mô phỏng
3.2 Triển khai sản phẩm thực tế 3.3 Kiểm thử và đánh giá
CHƯƠNG 4. KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN
4.1 Kết luận 4.2 Hướng phát triển
TÀI LIỆU THAM KHẢO
[1] https://github.com/ultralytics/yolov5, last accessed at 14:57 on June 24, 2021.
[2] Qing Chen, El-Sawah A., Joslin C., et al. (2005). A dynamic gesture interface for
virtualenvironments based on hidden markov models. IEEE, 109–114, 109–114.
[3] Chen X. and Koskela M. (2013). Online RGB-D gesture recognition with extreme
learning machines. ACM Press, 467–474, 467–474.
[4] Doan H.-G., Vu H., and Tran T.-H. (2017). Dynamic hand gesture recognition from
cyclical hand pattern. IEEE, 97–100, 97–100.
[5] Burges C.J.C. (1998). A Tutorial on Support Vector Machines for Pattern
Recognition. Data Min Knowl Discov, 2(2), 121–167.
[6] Gkioxari G., Girshick R., and Malik J. (2015). Contextual Action Recognition with
R*CNN. IEEE, 1080–1088, 1080–1088.
[7] Cheron G., Laptev I., and Schmid C. (2015). P-CNN: Pose-Based CNN Features
for Action Recognition. IEEE, 3218–3226, 3218–3226.
[8] Simonyan K. and Zisserman A. Two-Stream Convolutional Networks for Action
Recognition in Videos. 9.
[9] Ji S., Xu W., Yang M., et al. (2013). 3D Convolutional Neural Networks for Human
Action Recognition. IEEE Trans Pattern Anal Mach Intell, 35(1), 221–231.
[10] Bishop C.M. (2006), Pattern recognition and machine learning, Springer, New
York.
[11] Becker S. and Lecun Y. (1989). Improving the convergence of backpropagation
learning with second-order methods. Proc 1988 Connect Models Summer Sch San
Mateo.
[12] Brox T., Bruhn A., Papenberg N., et al. (2004). High Accuracy Optical
FlowEstimation Based on a Theory for Warping. Computer Vision - ECCV 2004.
Springer Berlin Heidelberg, Berlin, Heidelberg, 25–36.
[13] https://github.com/AlexeyAB/darknet, last accessed at 22:35 on June 17, 2021.
[14]https://www.kaggle.com/phamdinhkhanh/convolutional-neural-network-p1, last
accessed at 15:31 on June 14, 2021.
[15] https://blog.roboflow.com/yolov5-improvements-and-evaluation/, last accessed
at 17:31 on June 18, 2021.

Preview text:

ĐẠI HỌC BÁCH KHOA HÀ NỘI
TRƯỜNG ĐIỆN TỬ - VIỄN THÔNG ĐỒ ÁN MÔN HỌC NHẬP MÔN ĐTVT Đề tài:
Điều khiển thiết bị bằng giọng nói
Sinh viên thực hiện: Đỗ Đình Thi – 20224155 Vũ Việt Anh – 20223865
Nguyễn Quang Hiếu – 20223969
Nguyễn Minh Quân – 20223728
Nguyễn Hữu Long – 20223794 LỚP ĐT 01 và 02 - K67
Giảng viên hướng dẫn: PGS.TS. NGUYỄN XUÂN QUYỀN
PGS.TS TRẦN THỊ THANH HẢI Hà Nội, 12-2022
TRƯỜNG ĐIỆN TỬ - VIỄN THÔNG ĐỒ ÁN MÔN HỌC NHẬP MÔN ĐTVT Đề tài:
Điều khiển thiết bị bằng giọng nói
Sinh viên thực hiện: Đỗ Đình Thi – 20224155 Vũ Việt Anh – 20223865
Nguyễn Quang Hiếu – 20223969
Nguyễn Minh Quân – 20223728
Nguyễn Hữu Long – 20223794 LỚP ĐT 01 và 02 - K67
Giảng viên hướng dẫn: PGS.TS. NGUYỄN XUÂN QUYỀN
PGS.TS TRẦN THỊ THANH HẢI Hà Nội, 12-2022 PHẦN MỞ ĐẦU
Tự động hóa đang là xu thế chung của thế giới hiện nay. Các thiết bị tự động hóa có
khả năng điều khiển từ xa giúp cuộc sống của con người trở nên dễ dàng và thoải mái
hơn. Bắt kịp xu thế đó thì hệ thống thiết bị thông minh điều khiển bằng giọng nói là một
lựa chọn tuyệt vời cho căn nhà của mỗi người.
CHƯƠNG 1. TỔNG QUAN
1.1 Giới thiệu chung về hệ thống tưới tiêu tự động
Điều khiển thiết bị bằng giọng nói là gì ?
-là các thiết bị điện tử cho phép người dùng điều khiển bằng giọng nói thông qua
thiết bị kết nối internet
Hệ thống này có ưu điểm nào so với điều khiển thông thường?
Hệ thống này có khuyết điểm gì?
Hệ thống này có khó khăn trong việc sản xuất và lắp đặt không?
1.2 Mục tiêu của đồ án 1.3 Các nhiệm vụ cần thực hiện
1.3.1 Các nhiệm vụ 1.3.2 Bảng phân công công việc và đánh giá mức độ hoàn thành
CHƯƠNG 2. PHÂN TÍCH VÀ THIẾT KẾ
2.1 Tìm hiểu nhu cầu người dùng 2.2 Đặc tả
2.2.1 Chức năng 2.2.2 Phi chức năng
2.3 Lập kế hoạch 2.4 Thiết kế khối 2.5 Lựa chọn phương án
CHƯƠNG 3. MÔ PHỎNG VÀ TRIỂN KHAI
3.1 Công cụ mô phỏng và kết quả đạt được
3.1.1 Công cụ mô phỏng 3.1.2 Kết quả mô phỏng
3.2 Triển khai sản phẩm thực tế 3.3 Kiểm thử và đánh giá
CHƯƠNG 4. KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN
4.1 Kết luận 4.2 Hướng phát triển
TÀI LIỆU THAM KHẢO
[1] https://github.com/ultralytics/yolov5, last accessed at 14:57 on June 24, 2021.
[2] Qing Chen, El-Sawah A., Joslin C., et al. (2005). A dynamic gesture interface for
virtualenvironments based on hidden markov models. IEEE, 109–114, 109–114.
[3] Chen X. and Koskela M. (2013). Online RGB-D gesture recognition with extreme
learning machines. ACM Press, 467–474, 467–474.
[4] Doan H.-G., Vu H., and Tran T.-H. (2017). Dynamic hand gesture recognition from
cyclical hand pattern. IEEE, 97–100, 97–100.
[5] Burges C.J.C. (1998). A Tutorial on Support Vector Machines for Pattern
Recognition. Data Min Knowl Discov, 2(2), 121–167.
[6] Gkioxari G., Girshick R., and Malik J. (2015). Contextual Action Recognition with
R*CNN. IEEE, 1080–1088, 1080–1088.
[7] Cheron G., Laptev I., and Schmid C. (2015). P-CNN: Pose-Based CNN Features
for Action Recognition. IEEE, 3218–3226, 3218–3226.
[8] Simonyan K. and Zisserman A. Two-Stream Convolutional Networks for Action
Recognition in Videos. 9.
[9] Ji S., Xu W., Yang M., et al. (2013). 3D Convolutional Neural Networks for Human
Action Recognition. IEEE Trans Pattern Anal Mach Intell, 35(1), 221–231.
[10] Bishop C.M. (2006), Pattern recognition and machine learning, Springer, New York.
[11] Becker S. and Lecun Y. (1989). Improving the convergence of backpropagation
learning with second-order methods. Proc 1988 Connect Models Summer Sch San Mateo.
[12] Brox T., Bruhn A., Papenberg N., et al. (2004). High Accuracy Optical
FlowEstimation Based on a Theory for Warping. Computer Vision - ECCV 2004.
Springer Berlin Heidelberg, Berlin, Heidelberg, 25–36.
[13] https://github.com/AlexeyAB/darknet, last accessed at 22:35 on June 17, 2021.
[14]https://www.kaggle.com/phamdinhkhanh/convolutional-neural-network-p1, last
accessed at 15:31 on June 14, 2021.
[15] https://blog.roboflow.com/yolov5-improvements-and-evaluation/, last accessed at 17:31 on June 18, 2021.