Luận án Mạng neural trong hệ thống điều khiển xe lăn cho người tàn tật nặng sử dụng điện não (eeg), camera

LỜI CAM ĐOAN . 1

LỜI CẢM ƠN . ii

MỤC LỤC. iii

DANH MỤC VÀ CHỮ VIẾT TẮT. vi

DANH MỤC HÌNH . vii

DANH MỤC BẢNG. x

MỞ ĐẦU. xi

CHƯƠNG 1 TỔNG QUAN VỀ TÍN HIỆU ĐIỆN NÃO. 1

1.1 Tình hình nghiên cứu trong nước---------------------------------------------- 1

1.2 Tình hình nghiên cứu ngoài nước --------------------------------------------- 1

1.3 Nội dung thực hiện đề tài ------------------------------------------------------- 2

1.4 Mục đích nghiên cứu ------------------------------------------------------------ 3

1.5 Đối tượng và phạm vi nghiên cứu --------------------------------------------- 4

1.6 Những đóng góp của luận án--------------------------------------------------- 4

1.6.1 Đóng góp về mặt lý thuyết --------------------------------------------- 4

1.6.2 Đóng góp về mặt thực tiễn --------------------------------------------- 5

1.7 Cấu trúc nội dung của luận án-------------------------------------------------- 5

1.8 Kết luận chương 1 --------------------------------------------------------------- 6

CHƯƠNG 2 CƠ SỞ LÝ THUYẾT . 7

2.1 Tín hiệu điện não EEG ---------------------------------------------------------- 7

2.1.1 Giới thiệu về tín hiệu điện não EEG------------------------------------ 7

2.2.2 Các loại thiết bị thu nhận tín hiệu điện não EEG -------------------- 10

2.2.3 Các dạng sóng cơ bản của tín hiệu điện não EEG ------------------- 13

2.2 Ý nghĩa vị trí các điện cực trên thiết bị EEG-------------------------------- 16

2.3 Các phương pháp trích đặc điểm tín hiệu------------------------------------ 19

2.3.1 Biến đổi Fourier--------------------------------------------------------- 20

pdf109 trang | Chia sẻ: honganh20 | Ngày: 22/02/2022 | Lượt xem: 299 | Lượt tải: 1download
Bạn đang xem trước 20 trang tài liệu Luận án Mạng neural trong hệ thống điều khiển xe lăn cho người tàn tật nặng sử dụng điện não (eeg), camera, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
được tiếp tục cho đến khi tìm ra được IMF hay 1 tín hiệu đủ nhỏ, có nghĩa là các hàm tích phân của các giá trị tuyệt đối hay tín hiệu còn lại không có biến đổi. Cộng tất cả các IMF lại và được trừ đi từ tín hiệu ban đầu tín hiệu còn lại đó là biểu diễn hướng của tín hiệu. Cuối cùng tín hiệu x(t) có thể được viết như sau: () = () + () (2.4) Theo công thức (2.4), N là số lượng IMF, rN(t) là phần dư (hướng của tín hiệu) và các ci(t) gần như trực giao với nhau. Tóm lại giải thuật EMD được tóm tắt như sau: Trang 25 Hình 2. 20 Lưu đồ giải thuật EMD Bằng các quá trình sàng lọc, dữ liệu giờ là những IMF, mà biến đổi HHT có thể được áp dụng; phổ Hilbert cho phép chúng ta thể hiện được biên độ và tần số tức thời theo thời gian trong không gian 3 chiều, phân bổ theo thời gian và tần số của biên độ được gọi là phổ biên độ Hilbert, cũng được gọi là biến đổi Hilbert – Bắt đầu x(n) r(n) = x(n) r(n) r(n) = r(n) - e(n) R(n) là hàm cơ bản x(n) = x(n) - r(n) x(n) là tối giản Kết thúc e(n) = M(n) + m(n) 2 Xác định cực đại M1/ cực tiểu M1 Đường bao cực đại M(n)/ cực tiểu m(n) Đ S S Đ Trang 26 Huang (HHT). Phương pháp HHT không những cung cấp cho chúng ta thông tin về các sự kiện theo thời gian và tần số tốt hơn phân tích Wavelet [63] mà còn có ý nghĩa vật lý trong việc diễn giải quá trình động, bảng 2.3 cho chúng ta thấy rõ các đặc tính khác nhau giữa 3 phương pháp đã trình bày phần trên. Bảng 2. 3 Bảng so sánh giữa biến đổi Fourier, Wavelet và HHT [58][70][71] Fourier Wavelet HHT Cơ bản Tiên nghiệm Tiên nghiệm Tần số Có tính toàn cục Có tính cục bộ Khác nhau trên từng vùng cục bộ, chính xác Thời gian biến đổi Nhanh Chậm Nhanh [36] Phi tuyến Không phù hợp Phù hợp Phù hợp Trích đặc điểm Không phù hợp Phù hợp Phù hợp Cơ sở lý thuyết Cơ sở toán học Cơ sở toán học Thực nghiệm Độ phức tạp trong giải thuật Phức tạp Phức tạp Đơn giản [36] Một tín hiệu EEG như hình 2.21 được phân tích bằng phương pháp HHT cho ta kết quả như sau: Hình 2. 21 Tín hiệu EEG cần phân tích Hình 2. 22 Tín hiệu được phân tích thành IMF1 Trang 27 Hình 2. 23 Tín hiệu được phân tích thành IMF2 Hình 2. 24 Tín hiệu được phân tích thành IMF3 Hình 2. 25 Tín hiệu được phân tích thành IMF4 Hình 2. 26 Tín hiệu được phân tích thành IMF5 Hình 2. 27 Tín hiệu được phân tích thành IMF6 Trang 28 Hình 2. 28 Tín hiệu được phân tích thành IMF7 Hình 2. 29 Tín hiệu được phân tích thành IMF8 Hình 2. 30 Tín hiệu được phân tích thành IMF9 Hình 2. 31 Tín hiệu được phân tích thành IMF10 Hình 2. 32 Tín hiệu được phân tích thành IMF11 Hình 2. 33 Tín hiệu được phân tích thành IMF12 Trang 29 Sau khi phân tích tín hiệu điện não ra thành từng dạng sóng tối giản, dựa vào từng kênh, tín hiệu sẽ được biến đổi ra thành các dạng sóng cơ bản hình 2.34. Hình 2. 34 Một kênh tín hiệu EEG được biến đổi thành các dạng sóng cơ bản Sau đó 10 kênh tín hiệu đã được chọn lọc, được đưa vào giải thuật gom cụm để giúp cho mạng neural làm việc được hiệu quả hơn. 2.4 Gom cụm dữ liệu Gom cụm là một quá trình phân vùng một dữ liệu nhất định được đặt thành các nhóm đồng nhất dựa trên các tính năng nhất định sao cho các đối tượng tương tự được giữ trong một nhóm trong khi các đối tượng khác nhau nằm trong các nhóm khác nhau [30][72][74][86]. Gom cụm dữ liệu mục đích là làm sạch dữ liệu, nhận diện phần tử biên (outliers) và giảm thiểu nhiễu (noisy data). Hình 2.35 mô tả việc gom cụm dữ liệu. Hình 2. 35 Mô tả gom cụm dữ liệu Vì nhiệm vụ gom cụm là chủ quan, nên các phương tiện có thể được sử dụng để đạt được mục tiêu này là rất nhiều. Mỗi phương pháp tuân theo một bộ quy tắc khác nhau để xác định ‘điểm tương đồng’ giữa các điểm dữ liệu. Trong thực tế, có Trang 30 hơn 100 thuật toán phân cụm được biết đến [75]. Nhưng một vài thuật toán được sử dụng phổ biến hiện nay như:  Các mô hình kết nối (Connectivity models): Như tên cho thấy, các mô hình này dựa trên khái niệm rằng các điểm dữ liệu gần hơn trong không gian dữ liệu thể hiện sự tương đồng với nhau hơn so với các điểm dữ liệu nằm xa hơn. Những mô hình này có thể theo hai cách tiếp cận. Trong cách tiếp cận đầu tiên, chúng bắt đầu với việc phân loại tất cả các điểm dữ liệu thành các cụm riêng biệt và sau đó tổng hợp chúng khi khoảng cách giảm. Trong cách tiếp cận thứ hai, tất cả các điểm dữ liệu được phân loại thành một cụm duy nhất và sau đó được phân vùng khi khoảng cách tăng. Ngoài ra, sự lựa chọn của chức năng khoảng cách là chủ quan. Những mô hình này rất dễ giải thích nhưng thiếu khả năng mở rộng để xử lý các bộ dữ liệu lớn. Ví dụ về các mô hình này là thuật toán phân cụm phân cấp và các biến thể của nó.  Các mô hình Centroid (Centroid models): Đây là các thuật toán gom cụm lặp trong đó khái niệm tương tự được bắt nguồn từ sự gần gũi của một điểm dữ liệu với tâm của cụm. Thuật toán phân cụm K-Means là một thuật toán phổ biến thuộc danh mục này. Trong các mô hình, số các cụm yêu cầu ở cuối phải được đề cập trước, điều này làm cho điều quan trọng là phải có kiến thức trước về bộ dữ liệu. Những mô hình này chạy lặp đi lặp lại để tìm tối ưu cục bộ.  Các mô hình phân phối (Distribution models): Các mô hình phân cụm này dựa trên khái niệm về khả năng có thể xảy ra là tất cả các điểm dữ liệu trong cụm thuộc về cùng một phân phối.  Mô hình mật độ (Density Models): Những mô hình này tìm kiếm không gian dữ liệu cho các khu vực có mật độ điểm dữ liệu khác nhau trong không gian dữ liệu. Nó cô lập các vùng mật độ khác nhau và gán các điểm dữ liệu trong các vùng này trong cùng một cụm. Các ví dụ phổ biến của các mô hình mật độ là DBSCAN và OPTICS. Gom cụm là một cách tiếp cận máy học không giám sát, nhưng nó có thể được sử dụng để cải thiện độ chính xác của các thuật toán học máy được giám sát bằng cách phân cụm các điểm dữ liệu thành các nhóm tương tự và sử dụng các nhãn cụm này làm biến độc lập trong thuật toán học máy được giám sát. Trang 31 2.5 Mô hình mạng Neural Mạng Neural nhân tạo thường được gọi là mạng Neural, là một mô hình toán học hay mô hình tính toán dựa vào cấu trúc Neural sinh học [29][76][77][78]. Mạng Neural bao gồm một nhóm các Neural nhân tạo liên kết với nhau, nó xử lý thông tin theo phương pháp kết nối để tính toán. Mạng Neural được dùng để mô hình hóa mối quan hệ phức tạp giữa nhập và xuất trong một hệ thống nhằm tìm ra giải pháp tối ưu cho các bài toán nhận dạng, tìm kiếm, phân lớp, xấp xỉ hàm, v.v do đặc tính và ứng dụng của mạng neural nên việc áp dụng mạng neural vào trong hệ thống là phù hợp so với quá trình nhận dạng khác như phát hiện ngưỡng [79]. Mạng Neural còn được gọi là “hộp đen” (black box) vì trong mạng Neural các tri thức có mối quan hệ không rõ ràng, không thể xây dựng luật và chúng không dựa vào tri thức trong quá khứ hay luật để đưa ra trả lời mà dựa vào kết quả của quá trình học [80]. Khả năng học của mạng Neural chính là tính năng ưu việt của nó. Quá trình học hay quá trình huấn luyện mạng nhằm mang lại giá trị tối ưu cho các tham số, trọng số của mạng với sai số nhỏ nhất giữa kết quả mong muốn và kết quả thực tế. Tuy nhiên, việc xác định số nút Neural, số lớp ẩn thích hợp là một công việc phức tạp. 2.5.1 Cấu trúc mạng Neural Mạng Neural được phân thành 3 loại là mạng truyền thẳng, mạng hồi quy và mạng tự tổ chức, trong đó mạng truyền thẳng được sử dụng nhiều trên thực tế [47]. Mạng truyền thẳng gồm 2 loại là mạng truyền thẳng đa lớp (multi-layer) và mạng truyền thẳng đơn lớp (single-layer). Mạng truyền thẳng đa lớp bao gồm một lớp nhập, một lớp xuất và một hoặc nhiều lớp ẩn. Hình 2.37 mô tả cấu trúc mạng truyền thẳng đa lớp với một lớp nhập, một lớp ẩn và một lớp xuất. Các nút trong lớp nhập không thực hiện bất kỳ tính toán nào, giá trị các nút này được xử lý ở giai đoạn tiền xử lý trước khi đưa vào mạng. Các nút trong các lớp ẩn và lớp xuất, đầu tiên tính tổng trọng số cho từng nút theo công thức (2.5), sau đó truyền qua hàm tác động (Activation Function) như là hàm Hyperbolic Tangent theo công thức (2.6). Trang 32 = ∗ ; = 1,2.. (2.5) Ở đây, wij là trọng số từ nút thứ i của lớp trước đến nút thứ j của lớp kế tiếp, xi là giá trị của nút thứ i của lớp trước. Lớp trước có n nút và lớp kế tiếp có m nút. 2 2 1 , 1,2,..., 1 j j I j I e O j m e       (2.6) Ở đây, Ij là giá trị được tính từ công thức (2.5). Ij và Oj còn được gọi là giá trị nhập và giá trị xuất của nút thứ j trong lớp ẩn hoặc lớp xuất. Mạng truyền thẳng đơn lớp được thể hiện trong hình 2.35. Cấu trúc mạng này bao gồm một lớp nhập và một lớp xuất. Hình 2. 36 Mô hình mạng Neural đơn lớp có 2 nút nhập Mạng truyền thẳng đa lớp được thể hiện trong hình 2.38. Cấu trúc mạng này bao gồm một lớp nhập, một hoặc nhiều lớp ẩn và một lớp xuất. Trang 33 Hình 2. 37 Mô hình mạng Neural đa lớp. 2.5.2 Thuật toán huấn luyện mạng Huấn luyện mạng là quá trình hiệu chỉnh trọng số sao cho sai số giữa giá trị mong muốn và giá trị xuất của mạng là nhỏ nhất. Quá trình huấn luyện mạng phân thành hai bước chính như sau:  Tính toán lan truyền tiến: Từ giá trị của nút nhập, tính giá trị nhập của các nút ẩn theo công thức (2.2), sau đó tính giá trị xuất của các nút ẩn theo công thức (2.5) hoặc (2.6). Tiếp theo từ giá trị xuất của nút ẩn, tính giá trị nhập của nút xuất theo công thức (2.5), sau đó tính giá trị xuất của nút xuất theo công thức (2.5) hoặc (2.6), đây chính là giá trị xuất của mạng.  Hiệu chỉnh trọng số: Giá trị xuất của mạng so sánh với giá trị mong muốn. Sự chênh lệch giữa 2 giá trị này là sai số dùng để hiệu chỉnh trọng số trước tiên cho các nút xuất, sau đó cho các nút của các lớp trước. Để giảm sai số tối ưu, thuật toán huấn luyện mạng lan truyền ngược sai số được đề xuất [29][77]. Thuật toán lan truyền ngược sai số là một trong những thuật toán huấn luyện mạng phổ biến nhất của mạng Neural. Sau khi khởi tạo trọng số ngẫu nhiên, thuật toán thực hiện 4 bước như sau:  Bước 1: Tính toán lan truyền tiến.  Bước 2: Tính sai số lan truyền ngược cho lớp xuất.  Bước 3: Tính sai số lan truyền ngược cho các lớp ẩn.  Bước 4: Cập nhật trọng số. Trang 34 Thuật toán dừng khi giá trị sai số giữa giá trị mong muốn và giá xuất của mạng nhỏ hơn ngưỡng. Thuật toán này có một việc khó khăn đó là xác định tỷ lệ học thích hợp. 2.6 Kết luận chương 2 Để nhận dạng được tín hiệu EEG thì chúng ta phải hiểu được các đặc điểm của tín hiệu EEG, các phương pháp phân tích và lọc nhiễu tín hiệu EEG, từ đó giúp cho mạng nơron phân lớp chính xác các mẫu tín hiệu EEG. Những kiến thức trên đã được tác giả trình bày một cách cô động. Chương 3 sẽ trình bày những đóng góp chính của tác giả về các mô hình từ mạng neural từ đơn lớp đến đa lớp để nhận dạng tín hiệu EEG và các kết quả thực nghiệm đạt được. Trang 35 CHƯƠNG 3 XÂY DỰNG MÔ HÌNH HỆ THỐNG ĐIỀU KHIỂN Tóm tắt chương 3 Trong chương này tác giả trình bày quá trình xây dựng mạng neural đa lớp dùng để phân loại 5 mẫu tín hiệu EEG, việc xây dựng mạng neural đa lớp được tiến hành từng bước từ việc phân loại 2 mẫu tín hiệu đến phân loại 5 mẫu tín hiệu. Trong chương này cũng trình bày về việc xử lý tín hiệu điện não kết hợp với xử lý ảnh thông qua camera. Mỗi kết quả đều có các công trình nghiên cứu được đăng trên các bài báo, tạp chí quốc tế như “A Novel Approach for Classifying EEG Signal with Multi-Layer Neural Network”. ICRAI 2017 Proceedings of the 2017 International Conference on Robotics and Artificial Intelligence (ISBN:978-1- 4503- 5358-8) – “Build Control Command Set Based on EEG Signals via Clustering Algorithm and Multi-Layer Neural Network”. Journal of Communications (ISSN: 1796-2021). 3.1 Mô hình mạng Neural đơn lớp Mô hình này nhận dạng tín hiệu não EEG dựa trên tín hiệu nhìn vào hình ảnh con vật và phong cảnh với phương pháp xử lý tin hiệu biến đổi Wavelet dạng hình nón Mêhicô và sử dụng mạng Neural đơn lớp để nhận dạng. Mô hình hệ thống được thể hiện trong hình 3.1, mô hình này bao gồm 2 giai đoạn: giai đoạn 1: quá trình tiền xử lý nhẳm xử lý tín hiệu dữ liệu thô và tổng hợp thành 5 tín hiệu sóng Delta, Theta, Alpha, Beta và Gamma. Giai đoạn 2: xây dựng mạng Neural đơn lớp với 5 ngõ vào là 5 tín hiệu sóng Delta, Theta, Alpha, Beta, Gamma và một ngõ ra để xác định kết quả nhận dạng. Trang 36 Hình 3. 1 Mô hình hệ thống 3.1.1 Quá trình tiền xử lý Quá trình tiền xử lý thực hiện gồm 2 phần được thể hiện trong hình 3.2. Hình 3. 2 Quá trình tiền xử lý Phần thứ nhất phân tích tín hiệu EEG thành 5 dạng sóng Delta, Theta, Alpha, Beta, Gamma sử dụng phương pháp biến đổi sóng con (Wavelet Transform) dạng hình nón Mêhicô dựa theo công thức (3.1) và (3.2) [81]. Dữ liệu thô Kết quả nhận dạng Quá trình tiền xử lý Mạng neural đơn lớp Trang 37 (,) = 1 √ ()∗ − (3.1) Với tín hiệu x(t) tại khoảng a và thời gian b. Sóng con dạng hình nón Mêhicô được mô tả trong hình 3.3. 22 /2 1/4 2 ( ) (1 ) 3 tt t e    (3.2) Hình 3. 3 Sóng con dạng hình nón Mêhicô Phần thứ hai tổng hợp 5 tín hiệu sóng Delta, Theta, Alpha, Beta, Gamma theo công thức (3.3). = ∑ 10 , = 1..5 (3.3) Ở đây, k từ 1 đến 5 tương ứng với 5 tín hiệu sóng Delta (k=1), Theta (k=2), Alpha (k=3), Beta (k=4), Gamma (k=5) và xik là giá trị của tín hiệu k và tín hiệu thô i tương ứng với 10 kênh tín hiệu được chọn. Hình 3.4 trình bày tín hiệu EEG thu nhận được từ thiết bị 31 kênh và hình 3.5 trình bày một kênh tín hiệu được biến đổi theo phương pháp sóng con thông qua Matlab. Trang 38 Hình 3. 4 Tín hiệu EEG ghi nhận được Hình 3. 5 Một kênh tín hiệu được xử lý bằng biến đổi sóng con Trang 39 3.1.2 Mạng Neural đơn lớp Mô hình này bao gồm 2 lớp đươc trình bày trong hình 3.6. Lớp thứ nhất có 5 nút là 5 nút nhập bao gồm 5 tín hiệu sóng Delta, Theta, Alpha, Beta, Gamma. Lớp thứ hai có một nút xuất, kết quả của nút xuất này dùng để nhận dạng tín hiệu EEG. Vì hàm tác động sử dụng trong mô hình này là hyperbolic tangent nên giá trị của nút xuất nằm trong đoạn [-1, 1], giá trị xuất trong khoảng [0, 1] thì kết quả nhận dạng là hình phong cảnh, giá trị xuất trong khoảng [-1, 0] thì kết quả nhận dạng là hình con vật, hình 3.7 mô tả kết quả xuất. Thuật toán huấn luyện mạng dùng cho mô hình này là thuật toán lan truyền ngược sai số [84], sau khi huấn luyện mạng xong thì sẽ thu được bộ trọng số tối ưu, bộ trọng số này sẽ được sử dụng cho quá trình nhận dạng. Quá trình nhận dạng thực hiện 2 giai đoạn như sau: Giai đoạn 1: Tổng trọng hóa các nút nhập theo công thức (3.4). = ∗ (3.4) Ở đây, xi, wi là giá trị và trọng số của các nút Alpha, Beta, Delta, Gamma, Theta. Giai đoạn 2: Giá giá trị xuất được tính theo công thức hàm tác động hyperbolic tangent (3.5). O O O O e e f e e      (3.5) Ở đây, O là giá trị xuất được tính từ công thức (3.4). Hình 3. 6 Mô hình mạng Neural Trang 40 Hình 3. 7 Phân lớp kết quả nhận dạng 3.1.3 Kết quả thực nghiệm với mô hình mạng Neural đơn lớp Với mạng Neural đơn lớp, tác giả sử dụng dữ liệu thực nghiệm được thu thập từ [26] bao gồm 20 bộ với 21.000 mẫu, trong đó 10.000 mẫu là tín hiệu EEG hình con vật, 11.000 mẫu là tín hiệu hình phong cảnh. Chúng tôi xây dựng 2 tập dữ liệu, tập dữ liệu huấn luyện bao gồm 7.000 mẫu hình con vật và 8.000 mẫu hình phong cảnh, tập dữ liệu kiểm tra bao gồm 3.000 mẫu hình con vật và 3.000 mẫu hình phong cảnh. Dữ liệu [26] thu thập được thông qua quá trình thực nghiệm thực tế của một số người tình nguyện tham dự như sau:  Người tham dự được đội mũ ghi nhận tín hiệu não EEG dạng 31 kênh ngồi trước màn hình máy tính cách khoảng 110 cm, họ thực hiện 2 công việc luân phiên: phân loại và nhận dạng, cả 2 công việc này bao gồm hình con vật và hình phong cảnh, người tham dự sẽ thực hiện trong 2 ngày: ngày đầu gồm 11 người thực hiện, ngày thứ 2 bao gồm 10 người thực hiện, mỗi người tham gia thực hiện 1000 hình ảnh cho mỗi công việc.  Để bắt đầu một công việc người tham gia sẽ nhấn và giữ nút cảm ứng. Một hình ảnh 8 bit màu (256 pixel rộng và 384 pixel cao) xuất hiện trong khoảng thời gian 200ms, người tham gia sẽ phản xạ theo mẫu được nhìn thấy sau đó nhả nút nhấn nhanh và dứt khoát. Trong khoảng 1000ms đầu tiên được xem là thời gian đáp ứng sau khoảng thời gian đó xem như không có đáp ứng, tổng khoảng thời gian cho một khung hình là 2000±200ms được mô tả trong hình 3.8. Trang 41 Hình 3. 8 Giản đồ thời gian thu nhận cho một khung hình Trong việc phân loại, người tham gia sẽ phản ứng xem hình đó là hình con vật hay là hình phong cảnh và ghi nhận lại thông tin. Hệ thống sử dụng Matlab cho quá trình thực nghiệm, phần mạng Neural được chia thành 2 giai đoạn thực nghiệm: Giai đoạn huấn luyện mạng được thực hiện trên tập dữ liệu huấn luyện với các tham số sau:  Tỷ lệ học cố định là: 0,7  Trọng số khởi tạo ngẫu nhiên trong đoạn từ -0,5 đến 0,5.  Ngưỡng sai số là 1x10-5 với cách tính sai số dựa trên MSE (Mean Square Error).  Số vòng lặp tối đa là: 5.000. Giai đoạn nhận dạng dựa vào bộ trọng số tối ưu nhận được ở giai đoạn huấn luyện mạng và các công thức (3.4), (3.5) để xác định kết quả nhận dạng trên tập dữ liệu kiểm tra. Kết quả thực nghiệm nhận dạng trên tập dữ liệu kiểm tra được thể hiện trong bảng 3.1. Bảng 3. 1 Kết quả thực nghiệm trên dữ liệu kiểm tra Loại ảnh Con vật/Phong cảnh Tỷ lệ nhận dạng France Phong cảnh 99,13% Wild sheep Con vật 98,67% Wild cats Con vật 99,28% Bali, Indonesia Phong cảnh 62,44% Wild animals Con vật 99,64% California Coasts Phong cảnh 56,89% Wolves Con vật 98,64% Mushrooms Phong cảnh 95,16% Trang 42 Loại ảnh Con vật/Phong cảnh Tỷ lệ nhận dạng Kenya Con vật 99,76% The big Apple Phong cảnh 98,79% Snakes, lizards... Con vật 98,32% Caves Con vật 67,18% Polar bears Con vật 99,03% Exotic Hong Kong Phong cảnh 98,72% Images of France Phong cảnh 99,37% Fabulous fruit Phong cảnh 98,25% Wild animals Con vật 93,97% Sand & solitude Con vật 98,42% Lions Con vật 62,78% Great Silk Road Phong cảnh 98,47% Từ kết quả thực nghiệm ở bảng 3.1, chúng ta nhận thấy kết quả nhận dạng chính xác trung bình trên tập dữ liệu kiểm tra là 91,15%. Kết quả này cũng được so sánh với một số công trình nghiên cứu trước đây như [82] nhận dạng tín hiệu EEG dựa vào việc nháy mắt với 15.360 mẫu đạt 90,85%, [53] dựa vào chuyển động mắt bằng 2 thực nghiệm với 3.600 mẫu và 8.320 mẫu đạt tỷ lệ tốt nhất là 85% và nhận thấy rằng tiếp cận mới trong bài báo nhận dạng chính xác hơn, có thể ứng dụng cho việc điều khiển tốt hơn. 3.2 Mô hình mạng Neural đa lớp Dựa trên những kết quả đạt được từ mô hình mạng Neural đơn lớp, NNC tiếp tục phát triển mô hình mạng Neural đa lớp với kết quả phân thành 5 lớp tương ứng với 5 tín hiệu điều khiển. Bảng 3.2 mô tả 5 lệnh điều khiển tương ứng vói kết quả phân lớp khi người dùng nhìn vào các loại hình ảnh tương ứng. Hình 3.9 và 3.10 mô tả 5 loại hình ảnh trên bảng điều khiển tương ứng với 05 lệnh điều khiển. Trang 43 Bảng 3. 2 Mô tả các lệnh điều khiển Loại hình ảnh Mô tả hình ảnh Lệnh điều khiển tương ứng Hình con người Chạy tới Hình con vật Chạy lùi Hình phong cảnh Rẽ phải Hình thành phố Rẽ trái Hình bông hoa Dừng Hình 3. 9 Phân loại hình ảnh thành 05 lớp Trang 44 Hình 3. 10 Lệnh điều khiển tương ứng Mô hình đề xuất này sử dụng biến đổi Wavelet để khử tín hiệu và trích xuất đặc trưng, sau đó dùng thuật toán K-mean để gom cụm các đặc trưng của dữ liệu sau đó đưa vào mạng Neural đa lớp để phân loại. Trong mô hình này chỉ chọn 10 kênh để xử lý nhằm giảm thời gian xử lý và thực hiện. Mô hình hệ thống được mô tả trong hình 3.11. Hình 3. 11 Mô hình hệ thống Tín hiệu EEG Chọn kênh Biến đổi Wavelet Gom cụm Mạng neural đa lớp Kết quả phân lớp Trang 45 3.2.1 Quá trình tiền xử lý Nhiều kênh EEG thể hiện sự dư thừa thông tin. Điều này có nghĩa là không cần phải phân tích tất cả kênh. Theo [84], chỉ có mười vị trí điện cực là thường được sử dụng như F3, C3, P3, O1, F4, C4, P4, O2, A1 và A2. Sau khi chọn các kênh phù hợp, biến đổi Wavelet được sử dụng để rút trích đặc trưng và giảm nhiễu [20][21][23]. Kế tiếp, thuật toán gom cụm K-means được được dùng để gom thành 5 cụm Delta, Theta, Alpha, Beta and Gamma. Thuật toán K-mean là một trong những thuật toán phân cụm đơn giản và nổi tiếng nhất. Thuật toán này xác định các trung tâm cụm và các yếu tố thuộc về chúng bằng cách giảm thiểu bình phương lỗi dựa trên hàm mục tiêu. Mục đích của thuật toán là để xác định vị trí các trung tâm cụm cách xa nhau càng nhiều càng tốt và liên kết từng điểm dữ liệu với trung tâm cụm gần nhất. Trong mô hình này, chọn k = 5 để gom thành 5 cụm là Delta, Theta, Alpha, Beta and Gamma [34]. Hàm mục tiêu J được tính theo công thức (3.6) như sau: = (‖ − ‖ ) (3.6) Trong đó, K là số cụm, ci là tâm của cụm và xk là điểm dữ liệu thứ k trong cụm thứ i. Một điểm dữ liệu thuộc về một cụm có trung tâm gần nhất với cụm điểm dữ liệu đó. Do đó, các cụm được đại diện bởi nhị phân ma trận thành viên U. Các yếu tố của ma trận U được xác định theo (3.7) như sau: = 1 − ≤ − ,∀ ≠ 0 ngược lại (3.7) Trong đó, uij là điểm dữ liệu thứ j thuộc cụm thứ i, hoặc không phải. Mỗi trung tâm cụm ci làm giảm hàm mục tiêu J được định nghĩa theo (3.8) như sau: = ∑ ∑ (3.8) Trong đó, N là số điểm dữ liệu. Thuật toán được hiển thị trong Hình 3.12. Trang 46 Hình 3. 12 Thuật toán K-Means 3.2.2 Mô hình mạng Neural đa lớp Mô hình mạng neural đa lớp gồm 3 lớp được trình bày trong hình 3.13. Lớp đầu tiên chứa năm nút đó là Delta, Theta, Alpha, Beta và Gamma. Lớp này được gọi là lớp đầu vào. Lớp thứ hai là lớp ẩn. Số lượng nút ẩn trong lớp ẩn được đặt là 5, 10, 15, 20, 25, 30, 35, 40, 45 và 50. Lớp đầu ra chứa một nút, kết quả của này nút được sử dụng để phân lớp tín hiệu EEG. Do hàm hành động được sử dụng trong mô hình này là hàm hyperbolic tangent, giá trị của nút đầu ra trong khoảng [-1, 1]. Hình 3. 13 Mô hình mạng Neural đa lớp Repeat //Tính các thông số trong ma trận U = 1 − ≤ − ,∀ ≠ 0 ℎ //Xác định hàm mục tiêu J = (‖ − ‖ ) //Cập nhật trọng tâm của phân đoạn = ∑ ∑ Until (the cluster centers no longer move) Trang 47 Trước khi sử dụng mô hình, mạng Neural cần phải vượt qua giai đoạn huấn luyện mạng. Thuật toán huấn luyện mạng được trình bày trong hình 3.14, thể hiện một quy trình huấn luyện lan truyền ngược [71]. Hình 3. 14 Thuật toán huấn luyện mạng Neural Thuật toán huấn luyện mạng thực hiện hai giai đoạn như sau: Khởi tạo bộ trọng số ngẫu nhiên Nhận giá trị Delta, Theta, Alpha, Beta, Gamma Tính giá trị nhập của các nút trong lớp ẩn Tính giá trị xuất của các nút trong lớp ẩn Tính giá trị nhập của nút xuất Tính giá trị xuất của nút xuất Tính lỗi của lớp xuất Tính lỗi của lớp ẩn Tính lỗi của hệ thống Lỗi hệ thống <= ngưỡng? Kết thúc Cập nhật trọng số Bắt đầu Đúng Sai Trang 48  Giai đoạn lan truyền tiến. Giai đoạn này tính giá trị cho các nút trong lớp ẩn và lớp xuất. o Giá trị đầu vào của các nút ẩn được tính theo công thức (3.9). = .; = 1..5 (3.9) Trong đó, Ii, Vj và wji là giá trị đầu vào thứ i của lớp ẩn, giá trị thứ j của lớp nhập và trọng số từ nút thứ j của lớp trước đến nút thứ i của lớp tiếp theo. o Giá trị đầu ra của các nút ẩn được tính toán theo công thức (3.10). = 1 − 1 + ; = 1.. (3.10) Trong đó, Ii và Oi là giá trị đầu vào thứ i và giá trị đầu ra thứ i trong lớp ẩn tương ứng. o Giá trị đầu vào của nút xuất được tính bằng công thức (3.11). = . (3.11) Trong đó, Oi và Wi là giá trị đầu ra thứ i của lớp ẩn và trọng số từ nút thứ i của lớp ẩn đến nút xuất tương ứng. o Giá trị đầu ra của nút xuất được tính toán theo công thức (3.12). = − + (3.12) Trong đó, O và I giá trị đầu vào và giá trị đầu ra trong lớp xuất tương ứng.  Giai đoạn lan truyền ngược. Giai đoạn này tính lỗi và cập nhật trọng số. o Lỗi của nút xuất được tính theo công thức (3.13). = .(1 − ).( − ) (3.13) Trong đó, T và O là giá trị thực của mẫu trong tập dữ liệu huấn luyện, giá trị đầu ra của nút xuất tương ứng. o Lỗi của nút thứ i trong lớp ẩn được tính theo công thức (3.14). = .1 − . .; = 1.. (3.14) Trang 49 Trong đó, Oi, Wi và Err là giá trị đầu ra của nút ẩn thứ i, trọng số của kết nối từ nút ẩn thứ i đến nút xuất và lỗi của nút xuất tương ứng. o Các trọng số từ lớp ẩn đến lớp đầu ra được cập nhật theo công thức (3.15). ∆ = .. =

Các file đính kèm theo tài liệu này:

  • pdfluan_an_mang_neural_trong_he_thong_dieu_khien_xe_lan_cho_ngu.pdf
Tài liệu liên quan