LỜI CAM ĐOAN . 2
LỜI CẢM ƠN. 3
Danh mục các ký hiệu và chữ viết tắt. 4
Danh mục các bảng . 5
Danh mục các hình vẽ, đồ thị. 6
MỤC LỤC. 8
MỞ ĐẦU . 10
1. Lý do chọn đề tài. 10
2. Mục đích nghiên cứu . 13
3. Nhiệm vụ nghiên cứu. 13
4. Đối tượng và phạm vi nghiên cứu. 13
5. Phương pháp nghiên cứu. 13
Chương 1. TỔNG QUAN VỀ SỰ KIỆN HIẾM. 14
1.1. KHÁI NIỆM VỀ SỰ KIỆN HIẾM. 14
1.1.1. Định nghĩa sự kiện hiếm. 14
1.1.2. Các sự kiện hiếm trong tự nhiên và xã hội. 15
1.2. BÀI TOÁN DỰ BÁO TRƯỚC SỰ KIỆN HIẾM. 17
Chương 2. PHƯƠNG PHÁP PHÁT HIỆN SỰ KIỆN HIẾM. 19
2.1. TÌM HIỂU CÁC PHƯƠNG PHÁP PHÁT HIỆN SỰ KIỆN HIẾM. 19
2.1.1. Nhân bản mẫu dương tính. 19
2.1.2. Giảm số lượng mẫu âm tính . 20
2.1.3. Tạo thêm các mẫu dương tính bằng thuật toán. 21
2.1.4. Điều chỉnh trọng số học tập các mẫu . 22
2.1.5. Đánh giá các phương pháp cân bằng số lượng mẫu. 22
71 trang |
Chia sẻ: honganh20 | Ngày: 04/03/2022 | Lượt xem: 563 | Lượt tải: 3
Bạn đang xem trước 20 trang tài liệu Luận văn Nghiên cứu phương pháp phát hiện sự kiện cực hiếm bằng mô hình autoencoder và ứng dụng vào dự báo trước sự cố trong nhà máy giấy, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
ụng một phương pháp cân bằng số lượng mẫu mỗi lớp một
23
cách riêng lẻ mà cần sử dụng kết hợp các phương pháp lại. Điều này sẽ đem lại
độ hiệu quả cao hơn nhiều, khắc phục bớt khuyết điểm của mỗi phương pháp
riêng rẽ.
Bên cạnh đó, do một tỉ lệ lớn các bài toán sự kiện hiếm là các sự kiện
diễn ra theo thứ tự thời gian được lấy mẫu định kỳ. Chính vì vậy việc sử dụng
các mô hình dự báo cho chuỗi thời gian đa biến, như mô hình mạng nơ-ron bộ
nhớ ngắn hạn LSTM(Long short-term memory) hay mạng nơ-ron đơn vị hồi
quy có kiểm soát (Gated Recurrent Units - GRU), kết hợp với các phương pháp
cân bằng số mẫu thường cải thiện độ hiệu quả cho mô hình.
Việc sử dụng các phương pháp cân bằng số mẫu tương đối hiệu quả khi
dự báo các sự kiện hiếm (số mẫu dương tính chiếm 5-10%) và một số sự kiện
rất hiếm (số mẫu dương tính chiếm 1-5%). Tuy nhiên đối với các sự kiện cực
hiếm (số mẫu dương tính nhỏ hơn 1%) thì việc sử dụng kết hợp tất cả các giải
pháp trên cũng không thực sự hiệu quả rõ ràng. Chính vì thế cần sử dụng mô
hình đặc biệt khác để dự báo sự kiện hiếm: Mô hình bộ mã hóa tự động
Autoencoder.
24
2.2. PHƯƠNG PHÁP PHÁT HIỆN SỰ KIỆN HIẾM BẰNG MÔ HÌNH
AUTOENCODER
2.2.1. Mô hình Autoencoder
2.2.1.1. Định nghĩa mô hình Autoencoder
Autoencoder hay còn gọi là bộ mã hóa tự động không phải là một mô
hình mạng nơ-ron có cấu trúc cụ thể mà là một khái niệm chỉ các mô hình mạng
nơ-ron nhân tạo phân loại 1 lớp, có đầu ra giống với đầu vào. Mô hình này
được sử dụng để tìm ra các đặc trưng nén hiệu quả nhất của bộ dữ liệu bằng
phương pháp học không giám sát.
Autoencoder thường có 3 thành phần chính là khối mã hóa, mã và khối
giải mã (như hình 2.4). Mục đích của khối mã hóa của Autoencoder là tìm cách
biểu diễn (mã hóa) cho bất kỳ dữ liệu đầu vào nào thành mã. Đồng thời, khối
giải mã của Autoencoder có chức năng cố gắng tái tạo lại dữ liệu [18] ban đầu
từ dữ liệu đã mã hóa sao cho dữ liệu giải mã càng giống với đầu vào càng tốt.
Do bộ mã hóa tự động có đầu vào tương tự đầu ra nên không cần phải mất thời
gian và công sức để dán nhãn dữ liệu như các mô hình khác, vì thế có thể đào
tạo mô hình bằng phương pháp học không giám sát.
Hình 2.4. Mô hình Autoencoder mã hóa tự động số 4
Mô hình Autoencoder không quy định kích thước mã phải nhỏ hơn hay
lớn hơn kích thước đầu vào. Tuy nhiên sử dụng trong thực tế đại đa số các mạng
Autoencoder đều hướng tới việc đặt kích thước mã nhỏ hơn kích thước đầu vào
nhiều lần. Việc thiết lập kích thước mã nhỏ sẽ có tác dụng khuyến khích mô
hình mạng bỏ qua tín hiệu nhiễu, chỉ giữ lại những đặc trưng quan trọng nhất
của dữ liệu đầu vào. Đồng thời giảm kích thước cũng rất thuận lợi cho việc lưu
25
trữ mã trong các ứng dụng cần nén dữ liệu có mất mát. Sử dụng mã làm đầu
vào cho các mô hình huấn luyện khác giúp làm tăng tốc độ hội tụ và khả năng
khái quát của mạng, giúp cải thiện độ chính xác so với dữ liệu gốc làm đầu vào,
đặc biệt hiệu quả với những bài toán bộ dữ liệu đầu vào là đa biến và mật độ
dữ liệu mỗi biến thưa thớt.
Chính vì vậy khi nhắc đến Autoencoder mặc định là ám chỉ các bộ mã
hóa tự động có kích thước mã nhỏ hơn nhiều so với kích thước đầu vào. Điều
này tạo ra một nút thắt cổ chai (bottleneck) cho toàn bộ mạng nơ-ron ở vị trí
mã.
Hình 2.5. Kiến trúc mạng nơ-ron Autoencoder
2.2.1.2. Kiến trúc mạng nơ-ron Autoencoder
Như thể hiện trên hình 2.5, kiến trúc một bộ mã hóa tự động
Autoencoder bao gồm 3 thành phần chính:
− Khối mã hóa (encoder): Khối mã hóa sẽ nhận đầu vào là vec-tơ biểu diễn
dữ liệu n chiều, đầu ra là vec-tơ mã hóa trong không gian ẩn m chiều.
Thông thường khi nhắc đến Autoencoder nếu không nhắc tới cụ thể kích
thước khối mã thì ngầm hiểu m < n. Do đó đây cũng là một phương pháp
để giảm số chiều của dữ liệu vào.
26
− Mã (code): Đây là một vec-tơ trong không gian m chiều. Mã chính là vetor
của lớp ẩn nằm chính giữa bộ mã hóa tự động, có số chiều nhỏ nhất trong
tất cả các lớp, cũng chính là nút thắt cổ chai có chủ đích của toàn mạng.
Chính nhờ nút thắt cổ chai này mà mạng nơ-ron nhân tạo có khuynh hướng
chỉ giữ lại những đặc điểm quan trọng nhất của dữ liệu và loại bỏ các thành
phần nhiễu và các thành phần dư thừa. Đây chính là kết quả đầu ra của
khối mã hóa và được dùng làm đầu vào của khối giải mã.
− Khối giải mã (decoder): Khối giải mã nhận đầu vào là thành phần mã
(vec-tơ m chiều) và có nhiệm vụ cố gắng tái tạo lại dữ liệu ban đầu (vec-
tơ n chiều đầu vào của khối mã hóa). Vì thế trong quá trình huấn luyện
cho mạng nơ-ron, đầu ra của khối giải mã cũng chính là đầu vào của khối
mã hóa ban đầu.
Để đào tạo một bộ mã hóa tự động, chúng ta không cần phải dán nhãn
dữ liệu bởi vì đầu ra của bộ mã hóa tự động cũng chính là dữ liệu đầu vào của
nó. Chính vì thế bộ mã hóa tự động được coi là một mạng nơ-ron học không
giám sát, không cần nhãn rõ ràng để đào tạo. Trong một số mô hình
Autoencoder dùng để khử nhiễu của ảnh, trong quá trình đào tạo tín hiệu đầu
ra có thể khác đầu vào, thường đầu vào là những bức ảnh đã bị nhiễu, đầu ra là
những bức ảnh tốt hơn chưa bị nhiễu ảnh hưởng.
Có thể hình dung Autoencoder là một mô hình nén dữ liệu có mất mát
một tín hiệu đầu vào và khôi phục lại tín hiệu đó. Để khôi phục lại được tín
hiệu gốc ít mất mát nhất, mã phải học được cách lưu giữ các thông tin quan
trọng nhất, hiệu quả nhất của tín hiệu đầu vào, đồng thời cũng loại bỏ được một
số thành phần tín hiệu nhiễu, thành phần ít quan trọng hơn.
2.2.1.3. Phân loại mạng Autoencoder
Vì Autoencoder không phải là một mô hình mạng nơ-ron có cấu trúc cụ
thể mà là một khái niệm chỉ các mô hình mạng nơ-ron nhân tạo phân loại 1 lớp
có đầu ra giống với đầu vào nên khi kết hợp vào các kiến trúc mạng nơ-ron
khác tạo ra các mô hình bộ mã hóa tự động khác nhau như dưới đây:
27
Bộ mã hóa tự động MLP Autoencoder
Hình 2.6. Kiến trúc mạng MLP Autoencoder
MLP Autoencoder (Multi-layer Perceptron) hay còn gọi là bộ mã hóa tự
động Perceptron đa lớp là sự kết hợp giữa kiến trúc mạng nơ-ron Perceptron đa
lớp và mô hình Autoencoder. Đây là kiến trúc đơn giản nhất của một
Autoencoder, là một mạng nơ-ron MLP được xây dựng để huấn luyện không
giám sát với đầu ra chính là đầu vào. Mạng được xây dựng với một nút thắt cổ
chai là lớp mã ở chính giữa. Kích thước các lớp ẩn giảm dần ở khối mã hóa (từ
đầu vào đến lớp mã) và tăng dần trở lại ở khối giải mã (từ lớp mã đến đầu ra).
Kích thước các lớp ẩn thường được lựa chọn đối xứng qua lớp mã với ý tưởng
là mỗi lớp ở khối giải mã là ảnh phản chiếu của một lớp ở khối mã hóa. Thực
tế là chúng ta không có ràng buộc dữ liệu ở các lớp ẩn trong khối giải mã phải
bằng với dữ liệu ở các lớp tương ứng trong khối mã nên hoàn toàn có thể xây
dựng khối giải mã có số lớp và số nút khác với khối mã hóa. Tuy nhiên việc
xây dựng mô hình các lớp đối xứng qua lớp mã thường được khuyến khích lựa
chọn vì giúp quá trình tối ưu tham số trở nên hiệu quả và dễ dàng hơn và trông
mô hình đẹp và có cấu trúc hơn.
Mô hình MLP Autoencoder thường được ứng dụng trong các bài toán
phân loại và dự báo với đầu vào đa biến. Đây cũng là mô hình có kiến trúc đơn
giản nhất nên có thể dễ dàng xây dựng để làm chuẩn so sánh với các mô hình
truyền thống và Autoencoder khác.
28
Bộ mã hóa tự động LSTM Autoencoder
Hình 2.7. Kiến trúc mạng LSTM Autoencoder
LSTM Autoencoder (Long short-term memory) hay còn gọi là bộ mã
hóa tự động bộ nhớ ngắn hạn LSTM là sự kết hợp giữa kiến trúc mạng nơ-ron
bộ nhớ ngắn hạn LSTM và mô hình Autoencoder.
Mô hình LSTM Autoencoder có khối mã hóa và khối giải mã là 2 mạng
nơ-ron LSTM đề chứa n mẫu dữ liệu giống nhau liên tiếp theo thời gian (hình
2.7). Kết nối giữa 2 khối mã hóa và giải mã là lớp mã m chiều, chứa các đặc
trưng đã được mã hóa của n mẫu này, và cũng là nút thắt cổ chai của toàn mạng.
Mạng Autoencoder sẽ mã hóa n mẫu đầu vào và cố gắng tái tạo lại n mẫu này
từ vec-tơ mã.
Bộ mã hóa LSTM Autoencoder được xây dựng trên kiến trúc mạng nơ-
ron LSTM nên chuyên dùng để xử lý các bài toán chuỗi thời gian đa biến : xử
lý các bộ dữ liệu được lấy mẫu định kỳ theo thời gian, xử lý tín hiệu âm thanh,
video
29
Bộ mã hóa tự động Convolutional Autoencoder
Hình 2.8. Kiến trúc mạng Convolutional Autoencoder
Convolutional Autoencoder [19] hay còn gọi là bộ mã hóa tự động xoắn
là sự kết hợp giữa kiến trúc mạng nơ-ron xoắn và mô hình Autoencoder.
Mô hình Convolutional Autoencoder có kiến trúc tương tự như MLP
Autoencoder nhưng thay thế các lớp kết nối đầy đủ bằng các lớp xoắn
convolution (bao gồm lớp gộp - pooling layer) (hình 2.8). Kích thức mỗi lớp
xoắn giảm dần trong khối mã hóa và tăng dần trong khối giải mã tương tự như
MLP Autoencoder.
Bộ mã hóa Convolutional Autoencoder được xây dựng trên kiến trúc
mạng nơ-ron xoắn nên chuyên dùng để xử lý các bài toán phân lớp hình ảnh,
video.
Các bộ mã hóa tự động khác
Ngoài 3 kiến trúc kể trên mô hình Autoencoder còn kết hợp được với rất
nhiều cấu trúc mạng nơ-ron khác để xử lý các bài toán cụ thể. Điểm chung của
các mô hình này là sử dụng các kiến trúc huấn luyện đặc thù cho từng bài toán
kết hợp với ưu điểm huấn luyện không giám sát, tạo nút thắt cổ chai để tăng
tính khái quát hóa và giảm ảnh hưởng nhiễu của mô hình Autoencoder.
2.2.1.4. Xây dựng mô hình Autoencoder cho bài toán cụ thể
Để xây dựng một bộ mã hóa tự động cụ thể, bước đầu tiên cần làm là
phải tìm được mô hình Autoencoder nào phù hợp để xử lý dữ liệu cho bài toán
(xem các mô hình Autoencoder nêu trong mục 2.2.1.3). Sau khi xác định được
mô hình phù hợp, thông quá quá trình thử nghiệm chúng ta cần xác định 4 thành
phần tham số chính sau đây để tối ưu cho mạng nơ-ron Autoencoder:
30
− Kích thước mã: kích thước mã là số lượng nút trong lớp giữa. Kích thước
mã nhỏ hơn dẫn đến tỉ lệ nén nhiều hơn, khả năng mạng sẽ tìm được những
đặc trưng quan trọng nhất tốt hơn. Tuy nhiên nếu kích thước mã xuống
quá thấp thì không đủ khả năng lưu trữ được các dữ liệu cần thiết dẫn tới
việc giải mã ở đầu ra rất khác đầu vào. Với những ứng dụng nén ảnh khi
biết tỉ lệ nén trước ta có thể xác định kích thước mã ngay từ lúc xây dựng
mô hình mạng, với những ứng dụng chưa biết trước kích thước mã ta cần
quá trình thử nghiệm để xác định kích thước tối ưu.
− Số lớp ẩn, hàm kích hoạt: bộ mã hóa tự động có thể có số lượng lớp bất
kỳ như chúng ta muốn. Như trong hình 2.6 minh họa về kiến trúc MLP
Autoencoder có 2 lớp ẩn kết nối đầu đủ trong cả khối mã hóa và khối giải
mã (không tính lớp đầu vào và đầu ra). Thông thường chỉ cần 2 lớp ẩn
trong khối mã hóa và khối giải mã là đủ hiệu quả cho mô hình đào tạo, tuy
nhiên tùy theo đặc trưng bài toán có thể tăng giảm số lớp ẩn cho phù hợp
và hiệu quả.
Hàm kích hoạt ở mỗi lớp thường là các hàm phi tuyến (sigmoid,
tanh, relu ) ngoại trừ ở lớp ẩn cuối cùng sát với đầu ra chúng ta không
nên sử dụng hàm kích hoạt (tương đương với sử dụng hàm kích hoạt
tuyến tính) để mạng nơ-ron dễ dàng giải mã tín hiệu đầu ra tương tự tín
hiệu đầu vào.
− Số lượng nút trên mỗi lớp ẩn: Chúng ta có toàn quyền kiểm soát các tham
số số lượng nút trên mỗi lớp ẩn mà không có ràng buộc nào. Tuy nhiên
như phân tích ở mục 2.2.1.2, thông thường để tăng độ hiệu quả đào tạo
mạng, khuyến khích mạng giữ lại những đặc trưng quan trọng nhất và
giảm nhiễu, số lượng nút của lớp mã nhỏ hơn nhiều so với đầu vào. Vì
vậy số lượng nút trên mỗi lớp ẩn nên được thiết kế giảm dần theo từng lớp
trong khối mã hóa và tăng dần trở lại trong khối giải mã. Kích thước mỗi
lớp ẩn có thể được xác định tối ưu thông qua quá trình thử nghiệm, nhưng
không quan trọng bằng việc xác định kích thước mã.
− Hàm mất mát: hàm mất mát cho các mô hình Autoencoder thường được
sử dụng là hàm lỗi bình phương trung bình (mean squared error - mse)
hoặc hàm crossentropy hay crossentropy nhị phân. Nếu các giá trị đầu vào
31
nằm trong phạm vi [0, 1] thì chúng ta thường sử dụng hàm crossentropy,
nếu không, chúng ta sử dụng lỗi bình phương trung bình. Ngoài ra tùy vào
bài toán chúng ta có thể sử dụng các hàm mất mát khác cho phù hợp và
hiệu quả.
Từ kiến trúc mạng nơ-ron Autoencoder, chúng ta thấy khối mã hóa có
mục tiêu tương tự với phương pháp phân tích thành phần chính (Principal
Component Analysis - PCA). Nếu kích hoạt tuyến tính được sử dụng ở mỗi
lớp, thì chúng ta nhận được đầu ra ở lớp mã có giá trị gần như tương tự với kết
quả chúng ta nhận được khi dùng PCA giảm số chiều đầu vào từ n chiều xuống
m chiều như hình 2.9.
Hình 2.9. Kết quả mã hóa bộ dữ liệu MNIST bằng PCA và Linear
Autoencoder
Tuy nhiên, tiềm năng của Autoencoder nằm ở tính phi tuyến tính của bộ
mã hóa tự động, cho phép mô hình học cách khái quát hóa mạnh hơn nhiều so
với PCA và có khả năng tái tạo lại dữ liệu đầu vào với mức độ mất thông tin
thấp hơn đáng kể. Điều này thể hiện rất rõ trên hình 2.10 khi với cùng tỉ lệ nén,
hình ảnh khôi phục từ bộ mã hóa tự động Autoencoder trông rõ ràng hơn rất
nhiều so với hình ảnh khôi phục từ PCA.
32
Hình 2.10. Hình ảnh được khôi phục sau khi nén bằng PCA và Autoencoder
2.2.1.5. Các ứng dụng mô hình Autoencoder
Do bộ tự động mã hóa Autoencoder là một mô hình khái niệm linh hoạt
kết hợp với rất nhiều mô hình cụ thể khác tạo ra mô hình có rất nhiều ưu điểm
như giảm số chiều, khử nhiễu, học không giám sát nên đã được ứng dụng vào
rất nhiều bài toán khác nhau. Dưới đây là một số ứng dụng điển hình của mô
hình Autoencoder:
Giảm kích thước, giảm số chiều
Giảm kích thước đầu vào là một trong những ứng dụng đầu tiên và là
một trong những động lực ban đầu để nghiên cứu bộ mã hóa tự động
Autoencoder. Mục tiêu ban đầu của Autoencoder là tìm ra một phương pháp
chiếu thích hợp để ánh xạ dữ liệu từ không gian có số chiều cao sang không
gian có số chiều thấp hơn.
Nhờ việc giảm kích thước, bộ mã hóa tự động có thể được ứng dụng để
giảm kích thước đầu vào với các bộ dữ liệu có kích thước đầu vào hàng trăm,
hàng ngàn biến xuống nhiều lần để làm đầu vào mới cho các mô hình huấn
luyện tiếp theo. Ngoài ra khi chúng ta cần đào tạo các mạng có đầu vào là các
vec-tơ thưa việc giảm số chiều giúp chúng ta biến đổi đầu vào thành các vec-
tơ có mật độ dữ liệu nhiều hơn [20], tạo thuận lợi cho các mô hình đào tạo.
Truy xuất thông tin
Lợi ích truy xuất thông tin thước trong tìm kiếm cũng đến từ đặc điểm
giảm kích thước đầu vào của Autoencoder. Điều này có thể trở nên cực kỳ hiệu
quả khi chúng ta giảm kích thước đầu vào xuống không gian khối mã có số
chiều thấp nhất định (vừa đủ để phân biệt các dữ liệu thông tin vừa đủ nhỏ để
33
tăng tốc độ truy xuất). Nhờ thế, bộ mã hóa tự động thực sự đã được ứng dụng
tạo ra các mã băm ngữ nghĩa , được đề xuất bởi Salakhutdinov và Hinton vào
năm 2009 [21]. Mô hình đã tạo ra các mã nhị phân (chỉ có 2 giá trị 0 và 1) có
số chiều thấp, sau đó tất cả các mục cơ sở dữ liệu có thể được lưu trữ trong một
vec-tơ mã nhị phân ánh xạ bảng băm. Bảng này sau đó sẽ cho phép thực hiện
truy xuất thông tin bằng cách trả về tất cả các mục có cùng mã nhị phân như
truy vấn hoặc các mục tương tự có sai lệch số bit thấp nhất so với bộ mã của
truy vấn.
Xử lý ảnh
Các đặc điểm đặc biệt của bộ mã hóa tự động đã khiến cho mô hình này
cực kỳ hữu ích trong việc xử lý hình ảnh với nhiều ứng dụng khác nhau.
Ứng dụng đầu tiên dễ thấy nhất là dùng bộ mã hóa tự động để nén ảnh
có mất mát. Trong nhiều nghiên cứu, các bộ mã hóa tự động thể hiện tiềm năng
vượt trội so với các phương pháp khác và được chứng minh hoàn toàn đủ sức
cạnh tranh với chuẩn nén ảnh JPEG 2000.
Một ứng dụng hữu ích khác của bộ mã hóa tự động trong lĩnh vực xử lý
hình ảnh là khử nhiễu hình ảnh [22] (hình 2.11 và hình 2.12). Nhu cầu về các
phương pháp phục hồi hình ảnh hiệu quả đã tăng lên với việc sản xuất hàng
loạt hình ảnh và phim kỹ thuật số các loại, thường được thực hiện trong điều
kiện tồi tệ.
Hình 2.11. Mô hình đào tạo mạng Autoencoder để khử nhiễu hình ảnh
34
Hình 2.12. Hình ảnh sử dụng Autoencoder để khử nhiễu
Không chỉ dừng lại ở việc khử nhiễu, khôi phục lại chất lượng hình ảnh
ban đầu, bộ mã hóa tự động còn có thể được ứng dụng để tăng chất lượng hình
ảnh vượt qua cả hình ảnh gốc. Một số ứng dụng quan trọng nhất là sử dụng
Autoencoder tăng chất lượng hình ảnh là: tô màu hình (hình 2.13), tăng độ
phân giải hình ảnh [23] (hình 2.14), tăng độ tương phản, xoay hình ảnh trong
không gian 3D
Hình 2.13. Dử dụng Autoencoder để tô màu hình ảnh
35
Hình 2.14. Tăng độ phân giải hình ảnh với Convolutional Autoencoder
Chuẩn đoán bệnh trong y tế
Trong lĩnh vực chẩn đoán từ hình ảnh trong y tế, một số nghiên cứu sử
dụng bộ mã hóa tự động Convolutional Autoencoder để khử nhiễu hình ảnh
siêu âm, X-quang [24], phát hiện các tế bào trong sinh thiết tủy xương [25],
phát hiện ung thư vú [26] hoặc thậm chí mô hình hóa mối quan hệ giữa sự suy
giảm nhận thức của Bệnh Alzheimer [27] dựa trên các ưu điểm của
Convolutional Autoencoder được đào tạo với MRI.
Dịch máy
Autoencoder đã được áp dụng thành công vào lĩnh vực dịch máy ngôn
ngữ tự nhiên, tạo nên các là máy dịch nơ-ron (Neural Machine Translation -
NMT) Autoencoder. Trong NMT, các văn bản ngôn ngữ được coi là chuỗi được
mã hóa đưa vào quy trình học tập, trong khi ở phía bộ giải mã, các ngôn ngữ
đích sẽ được tạo.
36
2.2.2. Sử dụng Autoencoder phát hiện sự kiện hiếm
Với ưu điểm phân loại một lớp bằng phương pháp học không giám sát
cùng sự linh hoạt kết hợp với các kiến trúc mạng nơ-ron khác, bộ mã hóa tự
động Autoencoder hoàn toàn có thể ứng dụng vào bài toán phát hiện và dự báo
sự kiện hiếm, sự kiện bất thường.
Hình 2.15. Mô hình MLP Autoencoder dự đoán sự kiện hiếm
Chúng ta có thể xây dựng một mô hình mạng Autoencoder điển hình phù
hợp với bài toán (như hình 2.15 mô hình MLP Autoencode) có một nút thắt cổ
chai ở lớp chính giữa làm mô hình phát hiện sự kiện hiếm. Trong quá trình huấn
luyện, chúng ta chỉ cho mạng Autoencoder học các sự kiện bình thường, bỏ qua
các sự kiện hiếm. Bằng cách này, mô hình Autoencoder được khuyến khích
học cách tái tạo chính xác các đặc điểm của các sự kiện bình thường, mà không
học được cách tái tạo các đặc điểm của sự kiện hiếm. Do mạng Autoencoder
có nút thắt cổ chai, mạng sẽ có xu hướng học tập và giữ lại các đặc trưng quan
trọng, khái quát nhất của các sự kiện bình thường và bỏ qua các nhiễu bất
thường. Sau quá trình đào tạo, bộ mã hóa tự động có thể xây dựng lại các dữ
liệu bình thường rất tốt, trong khi đó không thực hiện được tương tự với dữ liệu
bất thường mà bộ mã hóa tự động không gặp phải. Vì thế các sự kiện hiếm này
sẽ sinh ra tỉ lệ lỗi lớn giữa đầu ra và đầu vào. Chúng ta có thể dùng lỗi tái cấu
trúc này làm giá trị đo độ bất thường, từ đó có thể đặt ra ngưỡng lỗi để phát
hiện và dự báo các sự kiện bất thường.
37
Ngoài sử dụng mô hình MLP Autoencoder điển hình, do đặc điểm rất
nhiều bộ dữ liệu của bài toán dự đoán sự kiện hiếm là chuỗi thời gian đa biến
được lấy mẫu định kỳ nên có thể sử dụng Autoencoder kết hợp với một mạng
thần kinh hồi quy (như RNN, LSTM – hình 2.16, GRU) làm mô hình dự báo
sự kiện hiếm cho bài toán.
Hình 2.16. Mô hình LSTM Encoder dự đoán sự kiện hiếm
38
CHƯƠNG 3. ỨNG DỤNG MÔ HÌNH AUTOENCODER ĐỂ DỰ BÁO
TRƯỚC SỰ CỐ TRONG NHÀ MÁY GIẤY
Chương 3 bài luận văn tập trung vào nghiên cứu, áp dụng thử nghiệm và
cải tiến mô hình Autoencoder để dự báo sự kiện cực hiếm vào một bài toán
thực tế là dự báo trước sự cố trong dây chuyền sản xuất của nhà máy giấy. Đây
là một bài toán dự báo sự kiện cực hiếm điển hình và cũng rất thách thức nên
nếu kết quả dự báo khả quan chứng tỏ mô hình Autoencoder hoàn toàn có thể
áp dụng vào các bài toán dự báo sự kiện hiếm và cực hiếm khác cả trong tự
nhiên, xã hội hay môi trường sản xuất kinh doanh.
3.1. BÀI TOÁN DỰ BÁO SỰ CỐ TRONG NHÀ MÁY GIẤY
3.1.1. Phát biểu bài toán
Bài luận văn sử dụng mô hình Autoencoder để dự báo các sự cố trong
dây chuyền sản xuất của nhà máy giấy, sử dụng dữ liệu được thu thập trực tiếp
từ một nhà máy giấy trong thực tế. Để sản xuất ra những tấm giấy, các nhà máy
giấy có một dây chuyền gồm rất nhiều bộ phận (hình 3.1) hoạt động liên tục
suốt ngày đêm. Tuy nhiên do đặc điểm là các tấm giấy rất mỏng, dễ bị đứt, nên
khi có một bộ phận nào đó của dây chuyền trục trặc, sự đồng bộ giữa các bộ
phận không còn trơn tru, các tấm giấy lớn sẽ bị phá vỡ. Bất cứ khi nào xảy ra
sự cố phá vỡ các tấm giấy, toàn bộ dây chuyền sản xuất của nhà máy sẽ phải
dừng lại để kiểm tra và khôi phục. Thông thường phải mất hơn một giờ để
máycó thể khôi phục hoạt động trở lại bình thường. Trong khoảng thời gian
chết này, nhà máy thiệt hại khoảng 10 nghìn đô-la và các kỹ sư phải vào những
khu vực nguy hiểm để kiểm tra và khôi phục lại dây chuyền sản xuất. Trung
bình sự cố xảy ra một vài lần mỗi ngày, gây tổn thất cho doanh nghiệp hàng
triệu đô-la mỗi năm, kèm theo mối nguy hiểm, rủi ro cho sức khỏe của công
nhân phục hồi hệ thống. Chính vì thế ngay cả việc giảm được 5% số sự cố cũng
mang lại lợi ích đáng kể trong nhà máy cả về kinh tế lẫn sức khỏe nhân viên.
39
Hình 3.1. Hình ảnh về một dây chuyền sản xuất trong nhà máy giấy
Để phục vụ việc dự báo trước sự cố phá vỡ các tấm giấy, doanh nghiệp
đã cho lắp đặt 60 cảm biến đặt ở các bộ phận khác nhau dọc theo dây chuyền.
Các cảm biến được lấy mẫu tự động và định kỳ với tần suất 2 phút/lần tạo ra
các mẫu dữ liệu. Vì thế trong một ngày, hệ thống sẽ tự động sinh ra đều đặn
720 mẫu dữ liệu, mỗi mẫu gồm 60 giá trị thu được từ các cảm biến. Khi nào có
sự cố trong dây chuyền sản xuất, mẫu dữ liệu đầu tiên sau khi xảy ra sự cố sẽ
được đánh dấu dương tính và loại bỏ qua các mẫu thu thập được trong khoảng
thời gian nghỉ để khắc phục sự cố. Chính vì thế số lượng mẫu dương tính trong
bộ dữ liệu thu thập được từ các cảm biến chiếm tỉ lệ cực kỳ thấp, trung bình chỉ
chiếm khoảng 0.67% tổng số mẫu.
Nhà máy giấy mong muốn từ dữ liệu thu thập được từ các cảm biến có
thể xây dựng được mô hình dự đoán trước sự cố phá vỡ tấm giấy trong dây
chuyền sản xuất của nhà máy giấy và xác định bộ phận có khả năng gây ra sự
cố.
3.1.2. Bộ dữ liệu nhà máy giấy
Nguồn bộ dữ liệu nhà máy giấy được nhóm tác giả Chitta Ranjan,
Mahendranath Reddy, Markku Mustonen, Kamran Paynabar, Karim Pourak
40
phối hợp với 1 nhà máy giấy thu thập và cung cấp bộ dữ liệu cho các nhà nghiên
cứu bài toán phân loại sự kiện hiếm trong chuỗi thời gian đa biến [28].
Bộ dữ liệu nhà máy giấy bao gồm các mẫu được thu thập từ 60 cảm biến
trong khoảng thời gian một tháng với tần suất lấy mẫu 2 phút/lần. Sau khi loại
trừ các mẫu dữ liệu thu thập trong khoảng thời gian khắc phục sự cố ta có bộ
dữ liệu gồm:
− Bộ dữ liệu gồm 18396 mẫu dữ liệu, trong đó có 123 mẫu dương tính
(chiếm 0.67% tổng số mẫu) và 18273 mẫu âm tính (chiếm 99.33% tổng
số mẫu).
− Mỗi mẫu dữ liệu bao gồm các trường giá trị :
+ Trường thời gian “time”: chứa thời điểm lấy mẫu.
+ Nhãn sự kiện “y” : mẫu đánh dấu thời điểm bắt đầu xảy ra sự cố
(nhãn dương tính) mang giá trị 1, không xảy ra sự cố (nhãn âm tính)
mang giá trị 0.
+ “x1” đến “x60” : giá trị được ghi nhận từ 60 cảm biến.
3.1.3. Mục tiêu của bài toán
Từ bộ dữ liệu của bài toán xây dựng mô hình đạt được 2 mục tiêu chính :
− Dự đoán trước sự kiện phá hủy giấy trước khi nó xảy ra.
− Xác định vị trí bộ phận có khả năng cao gây ra sự cố để có thể nhanh
chóng bảo trì và ngăn chặn sự phá hủy giấy diễn ra.
41
3.2. ỨNG DỤNG MÔ HÌNH MLP AUTOENCODER CHO BÀI TOÁN
3.2.1. Tiếp cận bài toán với mô hình MLP Autoencoder
Đầu tiên bài luận văn cố gắng tiếp cận bài toán dự báo sự cố trong dây
chuyền sản xuất của nhà máy giấy bằng bộ mã hóa tự động đơn giản và điển
hình nhất: MLP Autoencoder. Chỉ với các kết nối đầy đủ giữa các lớp, mô hình
MLP Autoencoder có thể xử lý tương đối hiệu quả rất nhiều bài toán khác nhau
mà chưa cần xây dựng bộ mã hóa tự động đặc thù phụ thuộc vào đặc điểm bộ
dữ liệu (các bộ mã hóa tự động như LSTM Autoencoder, Convolutional
Autoencoder, ). Kết quả của mô hình MLP Autoencoder thường được đặt
làm tiêu chuẩn để so sánh với các mô hình dự đoán khác.
3.2.2. Xây dựng mô hình MLP Autoencoder cho bài toán
Bài luận văn lựa chọn kiến trúc MLP Autoencoder điển hình nhất và dự
đoán hiệu quả cho nhiều bài toán là mô hình có 2 lớp ẩn ở mỗi khối mã hóa và
giải mã, số lượng nút các lớp mã hóa và giải mã sẽ đối xứng nhau qua lớp mã
(như hình 3.2).
Hình 3.2. MLP Autoencoder 2 lớp ẩn ở khối mã hóa và giải mã
Các tham số của mô hình được lựa chọn như sau:
42
− Số lớp, hàm kích hoạt: có 2 lớp ẩn trong khối mã hóa và 2 lớp ẩn trong
khối giải mã. Hàm kích hoạt của các lớp được lựa chọn là hàm Rectified
Linear Unit (ReLU), ngoại trừ ở lớp cuối cùng dùng hàm tuyến tính
(Linear).
− Kích thước mã: bài luận văn sẽ khảo sát kích thước mã sẽ biến đổi từ 1, 2,
4, 8, 16 nút
Các file đính kèm theo tài liệu này:
- luan_van_nghien_cuu_phuong_phap_phat_hien_su_kien_cuc_hiem_b.pdf