Lời nói đầu 1
Chương 1. CẤU TRÚC NGÔN NGỮ TIẾNG VIỆT 5
1.1 Tiếng nói và nhận dạng tiếng nói. 5
1.2 Hệ thống ngữ âm tiếng Việt. 8
CHƯƠNG 2. KỸ THUẬT PHÂN TÍCH DỮ LIỆU TIẾNG NÓI 14
2.1. Cấu trúc File “.Wav”. 14
2.2. Các kỹ thuật tiền xử lý. 16
2.3. Các kỹ thuật trích rút đặc trưng. 28
CHƯƠNG 3. TÌM HIỂU VỀ MẠNG NEURAL 36
3.1. Các khái niệm chung về mạng Neural. 36
3.2. Mạng Neural lan truyền ngược. 41
CHƯƠNG 4. ỨNG DỤNG MẠNG NEURAL NHẬN DẠNG ÂM THANH TIẾNG VIỆT. 50
4.1. Thiết kế hệ thống nhận dạng. 50
4.2. Thiết kế mạng Neural lan truyền ngược. 52
4.3. Các đầu vào nhận dạng. 54
4.4. Thiết kế chương trình. 55
4.5. Phân tích và đánh giá kết quả. 65
Kết luận 67
Các tài liệu tham khảo 68
68 trang |
Chia sẻ: lethao | Lượt xem: 2016 | Lượt tải: 5
Bạn đang xem trước 20 trang tài liệu Đồ án Nghiên cứu mạng Neurral và xây dựng ứng dụng nhận dạng tiếng Việt, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
”.
Một file wave là một phần của một lớp file lớn hơn dùng bởi các hàm Multimedia của Windows là các file RIFF (Resource Interchange File Format). Một file RIFF bao gồm một hoặc nhiều chunk. Mỗi chunk có con trỏ chỉ đến chunk kế tiếp. Mỗi chunk có một mô tả kiểu theo sau bởi một số dữ liệu. Một ứng dụng để đọc các file RIFF có thể đi qua một số chunk, đọc các chunk cần quan tâm và bỏ qua các chunk không liên quan.
•Cấu trúc file.wav gồm những phần sau:
- RIF chunk: kích thước 12 byte.
+ 0 –3 : “RIF” (mã tự ASCII), đây là xâu ký tự định danh các file âm thanh có đuôi *.wav.
+ 4 –7: độ dài tổng cộng của thông tin phần sau, nó được tính bằng công thức: độ dài tổng cộng = độ dài của file *.wav –8.
+ 8 –11: là xâu “WAVE”.
- FORMAT chunk: kích thước 24 byte.
+ 0 – 3: là xâu ký tự bắt đầu khối định dạng dữ liệu.
+ 4 – 7: độ dài của FORMAT chunk.
+ 8 – 9: 0x01.
+ 10 –11: số chanel (kênh) (0x01 = mono, 0x02 = stero).
+ 12 –15: sample rate (tốc độ lấy mẫu), thường là các giá trị xác định như: 11.025 kHz, 22.5 kHz, 44.1 kHz.
+ 16 –19: bytes per second, giá trị này cho biết số byte được truy xuất trong 1 giây.
+ 20 –21: bytes per sample (1 =8 bit mono, 2 =8 bit stereo hoặc 16 bit mono, 4= 8 bit stereo), giá trị này cho biết số byte dùng để mã hoá một mẫu trong quá trình lượng tử hoá.
+ 22 –23: bits per sample, là số bit trong một mẫu được lấy.
- DATA chunk:
+ 0 –3: là xâu “data”, xâu là báo hiệu bắt đầu phần dữ liệu.
+ 4 –7: độ dài dữ liệu.
+ 8 - hết: là dữ liệu.
Tóm tắt cấu trúc của wave file như sau:
Kích thước (số bytes)
Giá trị
4
“RIFF”
4
Kích thước file RIFF
4
“WAVE”
4
“fmt ”
4
Kích thước subchunk “fmt ”
2
Kiểu mã hoá dữ liệu của file wave
2
Số kênh: + 1 – mono
+ 2 – stereo
4
Số mẫu /1giây
4
Số bytes/1giây
2
Số bytes/1mẫu
2
Số bits/1mẫu
4
“data”
4
Kích thước vùng dữ liệu
Dữ liệu sóng âm
2.2. Các kỹ thuật tiền xử lý.
2.2.1. Các đơn vị cơ bản.
Các đơn vị cơ bản của tín hiệu tiếng nói bao gồm: Tần số lấy mẫu, tần số cơ bản, Formant, biên độ, và nhiễu.
*Tần số lấy mẫu:
Bản chất của âm thanh là các sóng âm. Đây là tín hiệu tương tự. Để có thể biểu diễn âm thanh trong máy tính và áp dụng các kỹ thuật xử lý tín hiệu số thì bước đầu tiên là phải chuyển đổi các tín hiệu tương tự thành các dãy số. Quá trình này được thực hiện bằng cách lấy mẫu tín hiệu âm thanh theo một tần số lấy mẫu thích hợp ( tần số lấy mẫu là số mẫu lấy trong một đơn vị thời gian).
Với tín hiệu tương tự x(t), chu kỳ lấy mẫu T (tần số lấy mẫu 1/T) thu được dãy số X(n):
X(n)=x(n*T) với -¥ < n < ¥
Để đảm bảo quá trình số hoá không làm mất mát thông tin của phổ tín hiệu thì tần số lấy mẫu Fs=1/T phải đủ lớn. Giá trị đủ lớn của Fs phải tuân theo định lý lấy mẫu: Tín hiệu liên tục theo thời gian có bề rộng phổ hữu hạn với tần số cao nhất f Hz có thể được khôi phục một cách duy nhất từ các mẫu nếu quá trình lấy mẫu được thực hiện với tốc độ Fs>=2f mẫu trên một giây. Đối với chuẩn của file âm thanh thì tần số lấy mẫu thấp nhất là 8000Hz điều này có nghĩa là quá trình số hóa chỉ áp dụng với các tín hiệu tương tự có tần số cao nhất là 4000Hz-phù hợp với tiếng nói con người có tần số từ 40Hz-4000Hz.
*Formant:
Formant hay còn gọi là các họa âm, đóng vai trò tạo nên âm sắc của âm thanh. Formant là giải tần số được tăng cường do hiện tượng cộng hưởng, đặc trưng cho âm sắc của mỗi vần.Trong mỗi dải tần như thế có một tần số được tăng cường hơn cả và được gọi là đỉnh của Formant. Một vần do người phát ra có nhiều Formant, trong số đó có 2 Formant ứng với hộp cộng hưởng miệng và hộp cộng hưởng yết hầu, các Formant khác đặc trưng cho giọng nói từng người.
*Tần số cơ bản:
Sóng âm thanh do con người phát ra rất phức tạp. Nó có dạng đường cong phức tạp, có chu kỳ. Khi phát ra một âm có tần số f1 thì con người cũng đồng thời phát ra âm có tần số 2f1, 3f1, 4f1... Âm có tần số f1 được gọi là âm cơ bản, tần số f1 được gọi là tần số cơ bản. Các âm khác được gọi là các hoạ âm (Formant) thứ nhất, hoạ âm thứ 2... Âm cuối cùng (âm nghe được) là âm tổng hợp của âm cơ bản và các hoạ âm. Do đó đường biểu diễn của nó là một đường cong phức tạp có tần số là tần số cơ bản.
*Biên độ:
Biên độ là một đặc trưng quan trọng của sóng âm, đó là li độ lớn nhất của sóng âm so với vị trí cân bằng. Sóng âm thanh khi thu vào máy tính sẽ được số hoá thành một chuỗi các số rời rạc với miền giá trị tuỳ theo độ phân giải, số kênh, tần số lấy mẫu. Độ phân giải được hiểu theo nghĩa là số bit được dùng để biểu diễn một mẫu thu được trong quá trình lấy mẫu. Với độ phân giải 8bit, miền giá trị của các mẫu là khoảng đóng [0,255]; độ phân giải 16bit, miền giá trị này là khoảng đóng [0,65535]. Do đó xác định chính xác biên độ của sóng là một bài toán khó và trên thực tế là không cần thiết phải giải quyết tuyệt đối chính xác vì cái mà ta thực sự quan tâm là sự biến thiên của biên độ. Do đó bài toán này thường được giải quyết bằng phương pháp giải gần đúng. Trước hết ta xác định gần đúng ngưỡng không, sau đó biên độ sẽ được tính bằng trị tuyệt đối hiệu của giá trị số hoá trừ đi giá trị của ngưỡng không. Giá trị của ngưỡng không tuỳ thuộc vào từng Soundcard.
*Nhiễu:
Nhiễu là một trong những yếu tố làm cho bài toán nhận dạng trở nên vô cùng phức tạp. Nhiễu được xem xét như một đại lượng ngẫu nhiên, làm biến đổi tín hiệu cần nhận dạng. Do đó, lọc nhiễu là một khâu cần thiết phải tiến hành trong quá trình tiền xử lý tín hiệu.
2.2.2. Chuẩn hóa biên độ.
Để tránh mất mát đặc trưng do âm thanh quá to hoặc quá nhỏ, đồng thời làm tăng ý nghĩa cho các đặc trưng để nhận dạng ta tiến hành chuẩn hóa biên độ. Đây là một bước cần thiết nhưng không đòi hỏi tính toán, xử lý phức tạp. Các mẫu âm thanh được thu trong quá trình làm đồ án với độ phân giải thì biên độ của tiếng nói có giá trị nằm trong khoảng [0, 255], do đó ta tiến hành chuẩn hóa dữ liệu sao cho giá trị trung bình của nó là 125. Chuẩn hoá biên độ có thể tiến hành đơn giản bằng cách nhân tín hiệu với một hệ số thích hợp:
s(n)=k*s(n)
k là hệ số nhân. Giá trị của k có thể chọn như sau:
max(s(n)) là giá trị lớn nhất của dãy s(n).
Sơ đồ khối thuật toán chuẩn hóa:
2.2.3. Làm rõ tín hiệu.
Việc làm rõ (hay làm trơn) tín hiệu có ý nghĩa quan trọng trong bài toán nhận dạng tiếng nói, làm tăng hiệu quả làm việc của hệ thống nhận dạng. Trong đồ án em dùng hàm cửa sổ Hamming.
Dữ liệu tiếng nói được đưa qua hàm cửa sổ Hamming để làm trơn phổ của tín hiệu.
Hàm cửa sổ Hamming:
W(n) = 0.54-0.46.Cos(2*PI/N-1);n=0,1,…,N-1
W(n) = 0 với các n khác.
2.2.4. Chia Frame dữ liệu.
Công việc chia âm thanh thành các Frame là vô cùng quan trọng bởi trong một âm thanh luôn có sự biến động theo thời gian, việc chia âm thanh thành các đoạn nhỏ để ta có thể dự đoán được sự thay đổi về năng lượng, về tần số…của âm thanh trong mỗi Frame và trong cả đoạn âm thanh.
Có 2 cách chia Frame dữ liệu âm thanh:
Chọn kích thước Frame trước sau đó chia âm thanh theo Frame này và từ đó sẽ xác định được số Frame trong mỗi âm thanh.
Chọn số Frame cố định và chia âm thanh, như vậy kích thước Frame trong các âm thanh sẽ khác nhau.
2.2.5. Năng lượng trung bình thời gian ngắn.
Năng lượng của chuỗi tín hiệu rời rạc x(m) (kết quả rời rạc hoá tín hiệu tương tự x(t)) được định nghĩa như sau:
Giá trị năng lượng này ít có giá trị thực tế trong việc nghiên cứu tín hiệu âm thanh nói chung và tín hiệu tiếng nói nói riêng. Giá trị này không phản ánh được tính chất biến động theo thời gian của tín hiệu do nó được tính trong khoảng thời gian vô cùng lớn. Ở đây, người ta đưa ra định nghĩa về năng lượng thời gian ngắn:
Công thức này cho thấy, để tính năng lượng thời gian ngắn của dãy tín hiệu x(m) ta chia dãy x(m) thành những khoảng (có thể liên tục hoặc gối lên nhau) theo thời gian. Khi đó, năng lượng thời gian ngắn của x(m) tại khoảng thứ n, là tổng bình phương biên độ của N mẫu từ n-N+1 tới n.
Căn cứ vào giá trị năng lượng thời gian ngắn có thể phân biệt được các đoạn hữu thanh-vô thanh hoặc các đoạn tín hiệu nhiễu nền.
Dưới đây là lưu đồ thuật toán xác định độ lớn năng lượng thời gian ngắn:
Ta thấy việc tính độ lớn năng lượng thời gian ngắn hết sức đơn giản, nó được tính cho từng khối dữ liệu. Và có công thức: EN(w)=EN(w)+ AI(i)*AI(i).
2.2.6. Tần số cắt không trung bình thời gian ngắn.
Với các tín hiệu rời rạc theo thời gian, khái niệm tần số cắt được hiểu là số lần tín hiệu đổi dấu trong một giây. Đây là một đại lượng tần số đơn giản của tín hiệu. Tần số cắt không trung bình cũng là một cách để xác định tần số của tín hiệu hình sin. Điều này đúng với các tín hiệu có dải tần hẹp. Ví dụ tín hiệu hình sin có tần số F0 được lấy mẫu với tần số Fs sẽ có Fs/F0 mẫu trong một chu kỳ. Mỗi chu kỳ có 2 zero-crossing nên ta có tỷ lệ zero-crossing là 2F0/Fs crossing/mẫu. Như vậy từ tỷ lệ zero-crossing ta có thể tính ra tần số F0 của tín hiệu.
Tín hiệu tiếng nói là tín hiệu có dải tần rộng nên không thể áp dụng trực tiếp nhận xét trên mà thường xác định tần số cắt không trong một thời gian ngắn nhằm dự đoán sự thay đổi phổ của tín hiệu tiếng nói. Công thức chung như sau:
Trong đó:
Sgn[x(n)]=1 khi x(n)>=0
Sgn[x(n)]= -1 khi x(n)<0
W(n) cửa sổ lấy tín hiệu.
W(n)= với 0<=n<=N-1
W(n)=0 với các giá trị khác của n.
Năng lượng, độ lớn và tần số cắt không thời gian ngắn là cách đơn giản và hiệu quả để xác định phần nhiễu nền và tín hiệu, phần vô thanh và hữu thanh. Bằng thực nghiệm ta thấy: phần khác giá trị trung bình biên độ sóng âm của 2 đoạn âm thanh có tín hiệu và nhiễu nền đều xấp xỉ không, vì vậy số lần chuyển qua trục x=0 của đoạn tín hiệu nhiễu nền nhiều hơn đoạn tín hiệu âm thanh. Khi cần phân biệt phần nhiễu nền và tín hiệu, phần tín hiệu vô thanh và hữu thanh thuờng ta chỉ cần 1 chỉ tiêu trên cũng đủ để phân biệt. Nhưng trong trường hợp phức tạp phải sử dụng đến cả năng lượng và tần số cắt không. Các chỉ tiêu trên còn sử dụng để thiết lập tần số cơ bản của tiếng nói.
Dưới đây là lưu đồ thuật toán xác định tỷ lệ Zezo-crossing
2.2.7. Xác định tần số Pitch theo AMDF.
Thực chất của việc xác định tần số Pitch theo phương pháp AMDF chính là trích rút ra được tần số Pitch hay tần số cơ bản của tiếng nói theo hàm sai khác độ lớn trung bình thời gian ngắn.
Hàm sai khác độ lớn trung bình thời gian ngắn được định nghĩa như sau:
Giả sử chuỗi tuần hoàn với chu kỳ Po thì hàm AMDF sẽ đạt giá trị cực tiểu tại Po. Như vậy việc xác định chu kỳ Pitch của tiếng nói sẽ thông qua xác định chỉ số Po mà tại đó hàm AMDF đạt giá trị cực tiểu. Trong thực tế chu kỳ Pitch của tiếng nói nằm trong một miền giới hạn vì vậy không cần thiết phải tính toán cho mọi giá trị P của hàm AMDF.
Như vậy với mỗi tiếng nói ban đầu ta đều có thể đưa ra được các đặc trưng thời gian ngắn như đã trình bày ở trên. Mỗi âm thanh sẽ có các đặc trưng khác nhau, và các đặc trưng này được xác định theo những tiêu chuẩn riêng. Việc xác định tần số Pitch theo hàm sai khác độ lớn trung bình thời gian ngắn hay xác định tần số cắt không cũng chỉ là cách đưa ra được ước lượng thô về tần số của tiếng nói vì chưa có một phát biểu mang ý nghĩa vật lý về tần số cơ bản của tiếng nói. Nhưng nó cũng là cơ sở quan trọng để nhận dạng được tiếng nói cũng như trong việc nhận dạng các thanh điệu tiếng Việt.
Sơ đồ thuật toán tính tần số cơ bản:
2.3. Các kỹ thuật trích rút đặc trưng.
2.3.1. Cắt bỏ đoạn vô thanh.
Trong xử lý tiếng nói, một vấn đề đặt ra là phải làm thế nào để xác định được phần âm vô thanh, cắt bỏ nó để có được phần hữu thanh của tiếng nói một cách chính xác.
Trên thực tế có rất nhiều cách để xác định phần vô thanh, hữu thanh của tiếng nói song hầu hết đều cho kết quả tương đối; việc xác định phần hữu thanh, vô thanh gặp phải khó khăn lớn khi muốn xác định một cách chính xác do tồn tại nhiễu và tồn tại một số âm có mức năng lượng rất thấp ở trong một số từ nhất định.
Các bước xác định phần hữu thanh:
Bước 1: Tính giá trị năng lượng trung bình thời gian ngắn cho từng khối dữ liệu ta được E[i].
Bước 2: Tìm giá trị năng lượng trung bình thời gian ngắn lớn nhất trong các khối dữ liệu EMAX.
Bước 3: Xác định đoạn âm thanh.
Dùng 2 biến vt1,vt2 để lưu 2 giá trị mà ta xác định được là đoạn có dữ liệu tiếng nói.
Sau đó ta tiến hành dịch chuyển khối dữ liệu từ vị trí EMAX về bên trái và bên phải để xác định vị trí đầu tiên và vị trí cuối cùng. Khi dịch chuyển khối dữ liệu về hai bên mà E[i]<EMAX*alpha thì đó chính là vị trí cần tìm.
Sơ đồ khối thuật toán xác định phần hữu thanh:
2.3.2. Xác định vị trí cắt vần và phụ âm.
Ta tiến hành xác định ví trí cắt vần và phụ âm dựa trên cơ sở phương sai năng lượng trong mỗi Frame. Phương sai năng lượng trong mỗi Frame được hiểu là tổng chênh lệch của bình phương biên độ hai mẫu liên tiếp trong một Frame.
Bước 1: Tính phương sai năng lượng cho mỗi Frame theo công thức:
Bước 2: Dịch chuyển từ vị trí vt1 về vt2 khi gặp Frame thỏa mãn E_frame > alpha đó là vị trí cần tìm.
Sơ đồ khối thuật toán tách phụ âm và vần:
2.3.4 Phương pháp trích chọn đặc trưng LPC.
Phân tích dự báo tuyến tính là một trong những kỹ thuật phân tích tiếng nói được sử dụng rộng rãi. Nó có thể tính toán hiệu quả các tham số như hàm diện tích của tuyến âm và lưu trữ hoặc truyền thông tiếng nói với tỷ lệ lưu trữ nhỏ.
Phân tích dự báo tuyến tính dựa trên cơ sở mẫu tín hiệu yn sẽ được dự báo bằng p mẫu tín hiệu trước nó.
yn = + G . en
Trong đó : ai (i=1..p) là các hệ số dự báo
{yn-i}(i=1..p) là dãy p tín hiệu ngay trước của tín hiệu yn
G : hệ số lọc lặp
en : sai số dự báo (hay còn gọi là nhiễu)
Sai số dự báo en chính là sai số phân tích tiếng nói. Yêu cầu đặt ra cho hệ thống là phải giảm tối thiểu sai số dự báo en . Ở đây ta thực hiện đạo hàm riêng phần en2 cho từng biến ai (i=1..p), tính giá trị hệ số dự báo ai mà với giá trị đó en2 đạt cực tiểu.
=>
=>
Bài toán đưa về giải hệ phương trình P ẩn để tìm ai . Để giải hệ trên ta cần tính được các E [yn-i . yn-j]. Có hai phương pháp cho phép ta tính các E [yn-i . yn-j] là phương pháp tự tương quan (autocorrelation) và phương pháp hiệp biến (autocovariance). Trong phương pháp tự tương quan ta được :
E [ yn-i . yn-j] = Ryy(| i – j |)
Giả sử dãy tín hiệu {yn} bằng 0 ngoài đoạn tín hiệu ta cần tính hệ số dự báo. Khi đó :
Bây giờ ta có thể mô tả hệ phương trình dạng ma trận như sau :
(2.30)
Hệ phương trình trên có thể giải bằng phương pháp nghịch đảo ma trận bởi vì ma trận Ryy là ma trận Toeflitz (ma trận đối xứng qua đường chéo chính và các đường chéo song song với đường chéo chính có các phần tử giống nhau). Ma trận Toeflitz luôn có định thức khác 0, cũng có nghĩa là luôn tìm được ma trận nghịch đảo cho ma trận Toeflitz. Nhưng giải hệ phương trình bằng phương pháp ma trận nghịch đảo không hiệu quả, hơn nữa độ sai số rất lớn. Dưới đây trình bày thuật toán Levinson – Durbin cho phép ta tính hệ số dự báo ai (i=1..P) mà không cần giải hệ phương trình trên.
* Thuật toán Levinson – Durbin :
1. Đặt E0 = Ryy(0) , i = 0
2. i = 1
3. ki = ()
4. Đặt ai(i) = ki
5. aj(i) = aj(i-1) + ki . aj(i-1) (với j = 1..i-1)
Ei = ( 1 – ki2 ) Ei-1
Nếu i < P thì i=i+1 quay lại bước 3.
Sơ đồ thuật toán trích rút đặc trưng LPC:
CHƯƠNG 3. TÌM HIỂU VỀ MẠNG NEURAL
3.1. Các khái niệm chung về mạng Neural.
3.1.1. Khái niệm.
Mạng Neural nhân tạo là một mô hình mô phỏng cấu trúc của bộ não con người. Một mạng Neural bao gồm các nút (đơn vị xử lý, neural) và liên kết giữa các nút. Các liên kết được đặc trưng bởi các trọng số thể hiện cho đặc tính kích hoạt ức chế của các Neural. Quá trình học của mạng chính là quá trình hiệu chỉnh các trọng số để đáp ứng yêu cầu bài toán.
3.1.2. Cấu tạo của một Neural.
s=
s=
f ()
v
. . .
Hệ số hiệu chỉnh
Mạng Neural nhân tạo được kết nối từ các đơn vị xử lý thông tin có kiến trúc giống nhau gọi là các Neural.
Một Neural bao gồm các liên kết : nhận tín hiệu vào có các trọng số kết nối tương ứng với tín hiệu đầu vào , một hàm tổng và một hàm chuyển còn gọi là hàm kích hoạt để tạo tín hiệu ra v dựa trên giá (mỗi liên kết thứ i sẽ nhận giá trị vào tương ứng và có trọng số kết nối tương ứng).
●Trọng số kết nối: Các trọng số kết nối của mỗi đường liên kết là yếu tố then chốt của Neural, chúng sẽ được xác định tùy theo tập dữ liệu nhờ quá trình huấn luyện. Tức là mỗi tín hiệu tại đầu vào sẽ được nhân với trọng số kết nối .
●Hàm tổng: Hàm tổng S tích hợp các trọng số kết nối với các tín hiệu vào trên các liên kết tương ứng, trường hợp đơn giản nó có dạng: s=hoặc s=như là thông tin tổng hợp từ tín hiệu vào và trọng số kết nối.
●Hàm chuyển: Hàm chuyển f() hay hàm kích hoạt quy định giới hạn đầu ra của Neural. Hàm chuyển được xem như là một hàm nén; nó nén (giới hạn) phạm vi biên độ cho phép của tín hiệu đầu ra trong một khoảng giá trị hữu hạn. Mô hình trên bao gồm một hệ số hiệu chỉnh tác động từ bên ngoài. Hệ số hiệu chỉnh có tác dụng tăng lên hoặc giảm đi đầu vào thực của hàm chuyển.
Hàm f() thường có các dạng sau:
●
f =
1 khi v
0 khi v<0
Hàm ngưỡng:
●Hàm tuyến tính: f(v)=av
a
v
● Hàm sigmoid: f(v)=
● Hàm tanh : f(v)=
● Hàm Gauss: f(v)=
3.1.3. Cấu tạo của mạng Neural.
Mạng Neural bao gồm các Neural được kết nối với nhau theo một quy tắc nào đó. Mạng thông dụng nhất là mạng tiến đa mức.
Mạng tiến đa mức: Là một trong những kiến trúc mạng căn bản nhất, ở đó các Neuron được chia thành từng mức. Có 3 loại mức:
+ Mức đầu vào bao gồm các nút nguồn (không phải Neuron) cung cấp các tín hiệu đầu vào chung nhận được từ môi trường.
+ Mức ẩn: Bao gồm các Neuron không quan hệ trực tiếp với môi trường.
+ Mức đầu ra: Đưa ra các tín hiệu đầu ra cho môi trường.
Lần lượt từ mức đầu vào tới mức đầu ra, cứ tín hiệu đầu ra của một nút mạng thuộc mức trước sẽ là tín hiệu đầu vào cho nút mạng thuộc mức tiếp theo. Từ kiến trúc này ta có thể hình dung mạng Neuron như một bộ xử lý thông tin có nhiều đầu vào và nhiều đầu ra.
Tầng vào
Tầng ẩn
Tầng ra
● Các trọng số kết nối: Dùng cho liên kết các tầng Neural khác nhau và có vai trò quan trọng trong hoạt động của một mạng Neural và nó cũng là sự mô tả đặc tính riêng của mỗi mạng.
Với mạng Neural có thể xác định các trọng số kết nối như sau:
+Bắt đầu với một tập các trọng số kết nối cho trước và thực hiện quá trình hoạt động của mạng.
+Bắt đầu với một tập các trọng số kết nối, chạy mạng và thay đổi một vài hay tất cả các trọng số kết nối, chạy lại mạng với tập các trọng số kết nối mới. Lặp lại quá trình này cho tới khi đạt được mục đích (Training).
● Huấn luyện mạng: Là quá trình học để xác định các trọng số kết nối giữa các Neural. Đây là công việc quan trọng nhất trọng hoạt động của mạng Neural.
●Xây dựng mạng Neural: Các bước để xây dựng mạng Neural
1. Xây dựng kiến trúc mạng.
2. Huấn luyện mạng.
3. Kiểm tra mạng.
Xây dựng kiến trúc mạng: Xem xét mạng có bao nhiêu tầng, và các chức năng kết nối có liên quan.
Huấn luyện mạng: Chính là việc thay đổi các trọng số kết nối giữa các Neural cho phù hợp. Các trọng số sẽ thay đổi liên tục trong quá trình huấn luyện cho tới khi quá trình huấn luyện thành công.
Kiểm tra mạng: Đây là bước cuối cùng nhưng rất quan trọng trong quá trình xây dựng mạng Neural. Cách thức kiểm tra đó là đưa vào các tập dữ liệu để thử (tập testing) và đánh giá kết quả ở đầu ra. Nếu kết quả được như mục đích thiết kế thì việc huấn luyện mạng được đánh giá là thành công.
3.1.4. Các khả năng của mạng.
• Khả năng học: Mạng Neural có khả năng tiếp thu sự huấn luyện về mối quan hệ giữa đầu vào và đầu ra của các mẫu học, nếu ta chỉ cho nó đầu vào x tương ứng với đầu ra y thì mạng có thể đưa ra mối liên hệ giữa x và y, lưu nó lại để xử lý khi có đầu vào mới.
• Khả năng chuẩn hóa: Mạng neural học các mẫu dữ liệu và có khả năng nhận dạng những dữ liệu mới mà nó cho gần đúng với dữ liệu đã học.
• Khả năng tính toán: Mạng Neural có khả năng tính toán với khối lượng công việc lớn với độ phức tạp đa thức và kích thước xác định, đáp ứng yêu cầu của các giải thuật và khối lượng tính toán lớn.
Chính nhờ các khả năng nói trên mà mạng được dùng vào nhận dạng tiếng nói vì các mẫu âm học không bao giờ giống nhau một cách tuyệt đối.
3.2. Mạng Neural lan truyền ngược.
3.2.1. Giới thiệu chung.
Mạng lan truyền ngược được coi như là mạng đa tầng tiến (feed-forward Neural Network) được sử dụng rộng rãi trong mạng Neural. Mạng lan truyền ngược đạt được tính tổng quát bởi kỹ thuật cơ bản trong lan truyền ngược là cập nhật các trọng số theo hướng giảm Gradient.Mạng có kiến trúc như dưới đây:
Kiến trúc mạng.
Một mạng lan truyền tổng quát là mạng có n (n > 2) lớp:
Lớp vào:có m Neural, ký hiệu xi (i=1..m)
Lớp thứ n là lớp ra, ok (k=1..n)
Lớp ẩn:có (n-2) là lớp ẩn.Ví dụ n=3 thì có 1 lớp ẩn có p Neural ký hiệu pj (j=1..p)
Trong mạng lan truyền ngược:
● Mỗi nút ở lớp thứ i (0 < i < n) liên kết với nút ở lớp thứ (i+1)
● Các nút trong cùng một lớp không liên kết với nhau.
● Mỗi cung trong mạng được gắn một trọng số WR.
● Trạng thái lan truyền, thông tin lan truyền từ lớp vào đến lớp ra.
● Trạng thái học, thông tin lan truyền theo hai chiều nhiều lần để học các trọng số. Trạng thái lan truyền, mạng xử lý mỗi lần chỉ thực hiện với một mẫu.
● Hệ số bias b.
● Hàm kích hoạt trong các Neuron .
Mạng lan truyền chỉ có thể ở 1 trong 2 trạng thái: trạng thái lan truyền và trạng thái học. Trạng thái lan truyền, thông tin lan truyền từ lớp nhập đến lớp xuất. Trạng thái học, thông tin lan truyền theo hai chiều nhiều lần để hiệu chỉnh các trọng số.Trạng thái lan truyền, mạng xử lý mỗi lần một mẫu.
Trước tiên giá trị của các biến độc lập chuyển tới các nút vào của mạng. Các nút của lớp vào không tính toán gì cả. Các nút của lớp ẩn tính tổng trọng hóa của tất cả các dữ liệu bằng cách cộng dồn tất cả các tích giữa giá trị nút ẩn với trọng số của cung liên kết giữa nút nhập và nút ẩn.
Kế tiếp, một hàm truyền được áp dụng trên tổng trọng hóa này cùng với ngưỡng của nút ẩn nào đó để cho ra giá trị thực cho nút ẩn. Sau khi nén tổng trọng hóa của nó, đến lượt mình, mỗi nút ẩn sẽ gửi đến tất cả các nút của lớp ra.
Mỗi nút của lớp ra thực hiện các công việc tương tự như đã thực hiện trong nút ẩn để cho ra giá trị của nút xuất. Giá trị của các nút xuất chính là giá trị thực, nghĩa là giá trị của các biến phụ thuộc cần xác định.
Bản chất ánh xạ do mạng thực hiện tùy thuộc vào giá trị các trọng số trong mạng. Lan truyền ngược là một phương pháp cho phép xác định tập trọng số tốt nhất trong mạng giải quyết một bài toán được cho. Việc áp dụng phương pháp lan truyền ngược là một quá trình lặp đi lặp lại nhiều lần hai tiến trình: Lan truyền tiến và lan truyền ngược sai số. Hai tiến trình này được áp dụng trên tập mẫu xác định. Ta gọi chung tiến trình này là luyện mạng hay còn gọi là học.
Quá trình luyện mạng được bắt đầu với các giá trị trọng số tùy ý, có thể là các số ngẫu nhiên và tiến trình lặp đi lặp lại. Mỗi lần lặp được gọi là một thế hệ. Trong mỗi thế hệ, mạng điều chỉnh các trọng số sao cho sai số giảm dần (sai số là độ lệch giữa các kết xuất thực và kết xuất đích). Tiến trình điều chỉnh nhiều lần giúp cho trọng số dần đạt được tập hợp các giá trị tối ưu. Thường mạng cần thực hiện nhiều thế hệ trước khi việc luyện mạng hoàn tất.
Để cập nhật trọng số trong mỗi thế hệ, mạng phải xử lý tất cả các mẫu trong tập mẫu. Đối với từng mẫu, mạng thực hiện phép toán sau đây:
Trước tiên, mạng thực hiện quá trình lan truyền tiến, nghĩa là mạng ánh xạ các biến nhập của mẫu hiện hành các giá trị xuất như đã trình bày ở trên, sử dụng các giá trị của trọng số hiện hành. Ở các thế hệ đầu, các kết xuất thường chưa chính xác vì các trọng số ban đầu chưa có gì là đúng.
Kế tiếp sai số được tính dựa trên giá trị kết xuất và giá trị đích. Trên cơ sở sai số tính toán được, mạng sẽ cập nhật lại các trọng số theo nguyên tắc lan truyền ngược sai số gọi là giai đoạn lan truyền ngược.
Như vậy, để học một mẫu, mạng thi hành hai bước: Lan truyền tiến – thực hiện ánh xạ và lan truyền ngược sai số - cập nhật lại các trọng số.
3.2.2. Giải thuật lan truyền ngược.
Giải thuật lan truyền ngược.
Bước 1 : Truyền giá trị đầu vào xuôi theo mạng
Khởi tạo : Các nơron ở tầng thứ nhất nhận các giá trị đầu vào bên ngoài.
a0 = p
Đối với mạng có M lớp thì đầu ra mỗi tầng là đầu vào của tầng tiếp theo, do vậy ta có công thức biểu diễn các thao tác này là :
am+1 = fm+1(Wm+1am+bm+1) với m=0,1,...,M-1.
Bước 2 : Truyền độ nhạy ngược lại trong mạng :
Độ nhạy được tính từ tầng cuối cùng là lan truyền ngược lại cho đến tầng đầu :
Với:
( m=M-1,…,2,1)
F’(n) là đạo hàm của hàm chuyển.
Với hàm chuyển được sử dụng trong đồ án là hàm Log_sig ta sẽ tính được đạo hàm của hàm chuyển như sau:
Bước 3 : Tiếp theo là cập nhật lại các trọng số và hệ số bias:
α là hệ số học của mạng.
Nội dung giải thuật lan truyền ngược.
Khi mạng muốn học một mẫu học (X, Y) trong đó X là các vectơ tín hiệu đầu vào và Y là các vectơ tín hiệu đầu ra mong muốn. Các thành phần xi của X sẽ được đưa vào các Neuron tương ứng của lớp vào. Vì các Neuron của lớp vào chỉ có trách nhiệm nhận tín hiệu vào, không có bất kỳ xử lý nào, cho nên đầu ra của các Neuron lớp vào cũng chính là các giá trị xi.
Các tín hiệu đầu ra của lớp vào
Các file đính kèm theo tài liệu này:
- Nghiên cứu mạng Neurral và xây dựng ứng dụng nhận dạng tiếng Việt.doc