Luận văn Phân loại thực thể có tên trên wikipedia để phục vụ cho bài toán xây dựng hệ tri thức

Lời cảm ơn. i

Lời cam đoan. ii

Danh sách bảng . v

Danh sách hình vẽ. vi

Lời mở đầu . 1

Chương 1 Giới thiệu. 2

1.1. Phạm vi bài toán và mục tiêu nghiên cứu . 2

1.2. Đóng góp của luận văn. 4

1.3. Cấu trúc của luận văn. 5

Chương 2 Hệ thống kiểu của thực thể có tên. 7

2.1. Khái niệm. 7

2.1.1. Hệ tri thức . 7

2.1.2. Thực thể. 9

2.1.3. Thực thể có tên . 10

2.1.4. Kiểu của thực thể. 10

2.2. Các hệ thống kiểu thực thể. 11

2.2.1. Các hệ thống kiểu chi tiết cho Tiếng Anh . 11

2.2.2. Hệ thống kiểu thực thể NERD-TS . 13

2.2.3. Điểm khác biệt giữa NERD-TS với hệ thống kiểu trong bài toán NER

truyền thống. 14

Chương 3 Phân loại thực thể có tên trên Wikipedia tiếng Việt . 18

3.1. Học máy . 18

3.1.1. Tổng quan về học máy. 18

pdf79 trang | Chia sẻ: honganh20 | Ngày: 21/02/2022 | Lượt xem: 433 | Lượt tải: 2download
Bạn đang xem trước 20 trang tài liệu Luận văn Phân loại thực thể có tên trên wikipedia để phục vụ cho bài toán xây dựng hệ tri thức, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
bởi hai siêu phẳng này được gọi là “lề”, và siêu phẳng có biên cực đại là siêu phẳng nằm giữa chúng. Với một bộ dữ liệu Hình 3.6 Ví dụ về lề phân lớp cực đại 𝑤FF⃑ . 𝑥 = 𝑏 20 20 https://en.wikipedia.org/wiki/Support-vector_machine 29 được bình thường hoá hoặc chuẩn hóa, các siêu phẳng này có thể được mô tả bằng các phương trình: • 𝑤FF⃑ . �⃑� − 𝑏 = 1 (những gì thuộc hoặc nằm trên ranh giới này là của loại nhãn 1), và • 𝑤FF⃑ . �⃑� − 𝑏 = −1 (những gì thuộc hoặc nằm dưới ranh giới này là của nhãn −1). Hay nói cách khác, ta có mệnh đề sau: • 𝑤FF⃑ . 𝑥IFFF⃑ − 𝑏 ≥ 1, nếu 𝑦6 = 1, và • 𝑤FF⃑ . 𝑥IFFF⃑ − 𝑏 ≤ −1, nếu 𝑦6 = −1. (3.3) Lưu ý, siêu phẳng có biên độ tối đa được xác định hoàn toàn bởi những 𝑥IFFF⃑ nằm gần nó nhất. Những 𝑥IFFF⃑ này được gọi là véc-tơ hỗ trợ. Lề mềm (Soft margin) Trong rất nhiều trường hợp thực tế, dữ liệu không thể phân tách tuyến tính, ví dụ khi một số dữ liệu huấn luyện bị gán nhãn sai. Thuật toán lề mềm sẽ chọn một siêu phẳng phân tách các mẫu huấn luyện tốt nhất có thể, và đồng thời cực đại hóa khoảng cách giữa siêu phẳng với các mẫu được gán đúng nhãn. Chúng ta cần cực tiểu hàm: Q1𝑛Smax (0,1 − 𝑦6(𝑤FF⃑ . 𝑥IFFF⃑ − 𝑏))26W/ X + 𝜆‖𝑤FF⃑ ‖ 1 (3.4) Trong đó, tham số 𝜆 xác định sự đánh đổi giữa việc tăng kích thước lề và đảm bảo rằng 𝑥IFFF⃑ nằm ở phía đúng của lề. 3.2.3. Phân loại đa lớp (Multiclass classification) Mô hình máy véc tơ hỗ trợ là mô hình hỗ trợ việc phân loại nhị phân (binary classification). Theo đó thông tin đầu vào sẽ được gán với các nhãn đầu ra thuộc một trong hai lớp được xác định trước. Tuy nhiên, với bài toán phân loại thực thể, một thực thể đầu vào cần phải được phân loại thành một loại trong rất nhiều loại kiểu thực thể, có thể đến hàng trăm loại kiểu chi tiết. Trong phạm vi luận văn, phải thực hiện phân loại một thực thể đầu vào thành một trong sáu kiểu Person, Organization, Place, Event, v.v. Có nhiều cách để thực hiện điều này, thông qua các biến thể của phương pháp phân loại nhị phân để thực hiện các bài toán phân 30 loại đa lớp (muticlass classification). Dưới đây là ba chiến lược phổ biến nhất được sử dụng: Chiến lược một-một (One-vs-One) Trong chiến lược này, sẽ phải xây dựng rất nhiều bộ phân loại nhị phân cho từng cặp lớp. Bộ thứ nhất phân biệt lớp 1 và lớp 2, bộ thứ hai phân biệt lớp 1 và lớp 3, v.v. Khi có một dữ liệu mới vào, đưa nó vào toàn bộ các bộ phân loại nhị phân nêu trên. Kết quả cuối cùng có thể được xác định bằng cách xem lớp nào mà điểm dữ liệu đó được phân vào nhiều nhất (major voting). 21 Như vậy, nếu có n lớp thì tổng số mô hình phân loại nhị phân phải xây dựng là n*(n−1)/2. Đây là một con số lớn, cách làm này không lợi về tính toán với các bài toán có số lượng lớp lớn. Chiến lược một-tất cả (One-vs-the-rest hay One-vs-all) Trong chiến lược này, được thực hiện bằng cách phân loại cho từng lớp theo thứ tự lần lượt. Với mỗi một lớp, sẽ có một mô hình được xây dựng riêng để thực hiện phân loại cho lớp đó với tất cả các lớp còn lại. Nếu có n lớp thì chỉ cần xây dựng n bộ phân loại nhị phân. Bộ phân loại thứ nhất giúp phân biệt lớp 1 và không phải lớp 1, tức xem một điểm có thuộc lớp 1 hay không, hoặc xác suất để một điểm rơi vào lớp 1 là bao nhiêu. Tương tự như thế, bộ phân loại thứ hai sẽ phân biệt lớp 2 không phải lớp 2, v.v. Kết quả cuối cùng có thể được xác định bằng cách xác định lớp mà một điểm rơi vào với xác suất cao nhất. Phương pháp này còn được gọi là one-hot coding (được sử dụng nhiều nên có rất nhiều tên) vì với cách mã hóa trên, giả sử có lớp thì các lớp 1, 2, 3, 4 sẽ lần lượt được mã hóa dưới dạng nhị phân bởi 1000, 0100, 0010 hoặc 0001. One-hot vì chỉ có một bit là hot (bằng 1). Chiến lược này giúp tăng hiệu quả tính toán do chỉ cần xây dựng n mô hình, tương ứng với n lớp, đồng thời kết quả tương đối tường minh, dễ hiểu.22 Phân tầng (Hierarchical) 21https://machinelearningcoban.com/2017/02/11/binaryclassifiers/#-binary-classifiers-cho-multi-class- classification-problems 22 https://scikit-learn.org/stable/modules/multiclass.html#one-vs-one 31 Các làm như một-một (one-vs-one) sẽ mất rất nhiều thời gian huấn luyện vì có quá nhiều mô hình phân lớp cần được xây dựng. Một cách khác giúp tiết kiệm số mô hình phân lớp hơn đó là phân tầng. Ý tưởng của chiến lược này là gom các lớp thành một số ít nhóm hơn, từ đó xây dựng các bộ phân loại các nhóm này với nhau. Tiếp theo đó, xây dựng các bộ phân loại để phân biệt các lớp con trong một nhóm. Như vậy số bộ phân loại có thể giảm đi rất nhiều so với chiến lược một- một. Hạn chế lớn nhất của nó là việc nếu chỉ một phân loại cho kết quả sai thì kết quả cuối cùng chắc chắn sẽ sai. Trong luận văn học viên sử dụng chiến lược một-một để thực hiện cho bài toán phân loại thực thể. Với tổng số bảy loại nhãn (bao gồm cả Other), số mô hình máy véc tơ hỗ trợ phải xây dựng là 7*6/2 = 21 mô hình. Con số này không quá lớn nên vẫn đảm bảo thực hiện được đễ dàng. Tuy nhiên, trong tương lai, khi mở rộng phạm vi bài toán với lượng dữ liệu phong phú hơn và hệ thống kiểu chi tiết hơn thì việc sử dụng chiến lược nào cũng cần cân nhắc lại. 3.3. Bộ công cụ Sklearn Sklearn23 [15] (trước đây gọi là scikits.learn), một dự án của David Cournapeau tham gia Google Summer of Code, là một thư viện học máy miễn phí viết bằng ngôn ngữ lập trình Python. Sklearn là một công cụ rất phổ biến để chạy thực nghiệm các thuật toán học máy với Python. Sklearn cung cấp nhiều lựa chọn cho cả các thuật toán học có giám sát và các thuật toán học không giám sát. Trên hết, Sklearn rất dễ sử dụng và được cộng đồng nghiên cứu coi như là một “bộ công cụ học máy trong sáng nhất”. Sklearn là một trong những lựa chọn tốt nhất hiện nay để sử dụng trong bất kỳ dự án học máy nào, xuyên suốt từ giai đoạn nghiên cứu cho đến triển khai sản xuất. Sklearn được xây dựng dựa trên một số thư viện Python phổ biến. Ví dụ, chúng ta có thể truyền trực tiếp các mảng Numpy và cấu trúc dữ liệu Pandas cho các thuật toán học máy của Sklearn. Cụ thể, Sklearn sử dụng các thư viện sau: • NumPy: khi cần làm việc với ma trận; • SciPy: khi cần tính toán khoa học và kỹ thuật; • Matplotlib: khi cần mô phỏng dữ liệu; 23 https://scikit-learn.org/stable/modules/generated/sklearn.svm.LinearSVC.html 32 • Pandas: khi cần xử lý dữ liệu, thao tác và phân tích; • và một số thư viện khác. Ngoài ra, Sklearn hỗ trợ nhiều mô hình, thuật toán học máy khác nhau bao gồm: • Hồi quy: mô hình tuyến tính và phi tuyến tính; • Phân cụm: mô hình phân loại không giám sát; • Cây quyết định: mô hình phân loại và hồi quy; • SVM: mô hình phân loại có giám sát; • và nhiều mô khác như mạng nơ-ron, Naïve Bayes, v.v. Trong luận văn sử dụng Sklearn để thực thi mô hình học máy để phân loại thực thể, sử dụng thư viện Linear SVC (phân loại tuyến tính bằng máy véc tơ hỗ trợ). Đồng thời, các tác vụ phân chia dữ liệu (sử dụng stratified K-fold cross validation) và véc tơ hoá các đặc trưng (DictVectorizer), đánh giá kết quả của mô hình (confusion_matrix), v.v. đều được thực hiện thông qua các thư viện có sẵn trong Sklearn. 3.3.1. Thư viện Sklearn Linear SVC (Linear Support Vector Classification) Một trong những thuật toán học máy được áp dụng nhiều nhất cho phân loại sử dụng máy véc-tơ tuyến tính là Linear SVC. Linear SVC hỗ trợ phân loại đa lớp và hoạt động hiệu quả, linh hoạt với một tập dữ liệu đầu vào lớn. Trong phạm vi bài toán phân loại thực thể, luận văn cũng sử dụng thư viện này thực hiện phân loại tuyến tính đa lớp bằng máy véc tơ hỗ trợ. Hình 3.7 thể hiện ví dụ về cách sử dụng Linear SVC trong thư viện Skearn. Dưới đây là giải thích cụ thể về từng tham số và thuộc tính trong ví dụ: Tham số: • penalty: string, ‘l1’ or ‘l2’ (mặc định=’l2’) => Chỉ định định mức được sử dụng trong hình phạt. Hình phạt 'l2' là tiêu chuẩn được sử dụng trong SVC. 'l1' dẫn đến các véc tơ coef_ thưa thớt class sklearn.svm.LinearSVC(penalty=’l2’, loss=’squared_hinge’, dual=True, tol=0.0001, C=1.0, multi_class=’ovr’, fit_intercept=True, intercept_scaling=1, class_weight =None, verbose=0, random_state=None, max_iter=1000) Hình 3.7: Ví dụ về Linear SVC trong thư viện Sklearn 33 • loss: string, ‘hinge’ or ‘squared_hinge’ (mặc định=’squared_hinge’) => Chỉ định hàm mất mát. Hinge loss là mất mát SVM tiêu chuẩn (được sử dụng bởi lớp SVC) trong khi 'squared_ hinge' là bình phương của hingle loss. • dual: bool, (mặc định=True) => Chọn thuật toán để giải quyết vấn đề tối ưu hóa kép hoặc nguyên thủy. Lựa chọn Dual= False khi n_samples> n_features. • tol: float, tùy chọn (mặc định = 1e-4) => Dung sai cho tiêu chí dừng. Tham số này để xác định khi nào thì chương trình sẽ dừng lại, không thực hiện tiếp nữa. • C: float, tùy chọn (mặc định = 1.0) => Thông số phạt C của phần sai sót. • multi_class: string, 'ovr' hoặc 'crammer_singer' (mặc định = 'ovr') => Xác định chiến lược đa lớp (multiclass strategy) nếu y chứa nhiều hơn hai lớp. “ovr” là huấn luyện một-tất cả n-lớp (n-classes one-vs-rest), trong khi “crammer_singer” nhằm tối ưu hóa một mục tiêu chung trên tất cả các lớp. Mặc dù crammer_singer thú vị từ góc độ lý thuyết vì nó phù hợp, nhưng nó hiếm khi được sử dụng trong thực tế vì nó hiếm khi dẫn đến độ chính xác tốt hơn và tốn kém hơn để tính toán. Nếu crammer_singer được chọn, các tùy chọn loss, penalty và dual sẽ bị bỏ qua. • fit_intercept: boolean, tùy chọn (mặc định = True) => Có tính toán đánh chặn cho mô hình này hay không. Nếu được đặt thành false, sẽ không có phần chặn nào được sử dụng trong các phép tính (tức là dữ liệu dự kiến sẽ tập trung). • intercept_scaling: float, tùy chọn (mặc định = 1) => Khi self.fit_intercept là True, véc-tơ x trở thành [x, self.intercept_scaling], tức là một đặc trưng tổng hợp với giá trị không đổi bằng với intercept_scaling được gắn vào véc-tơ thể hiện. Việc chặn trở thành intercept_scaling * trọng số đặc trưng tổng hợp. Lưu ý là trọng số đặc trưng tổng hợp có thể được chuẩn hóa L1/L2 như tất cả các đặc trưng khác. Để giảm bớt ảnh hưởng của việc chuẩn hoá hóa đối với trọng số đặc trưng tổng hợp (và do đó trên phần chặn), phải tăng khả năng đánh chặn. • class_ weight: {dict, ‘balanced’}, tùy chọn => Đặt tham số C của lớp i thành class_weight[i]*C cho SVC. Nếu không được đặt, tất cả các lớp được cho là có trọng số là một. Chế độ balanced (cân bằng) sử dụng các giá trị của y để tự động điều chỉnh các trọng số tỷ lệ nghịch với tần số lớp trong dữ liệu đầu vào là n_samples / (n_classes* np.bincount (y)). 34 • verbose: int, (mặc định = 0) => Cho phép đầu ra dài dòng. Lưu ý rằng cài đặt này tận dụng cài đặt thời gian chạy theo quá trình trong liblinear, nếu được bật, có thể không hoạt động chính xác trong ngữ cảnh đa luồng. • random_state: int, RandomState instance hoặc None, tùy chọn (mặc định = none) => Hạt giống của trình tạo số giả ngẫu nhiên sẽ sử dụng khi xáo trộn dữ liệu cho gốc tọa độ kép (nếu dual = True). Khi dual = false, việc triển khai cơ bản của linearSVC không phải là ngẫu nhiên và random_state không ảnh hưởng đến kết quả. Nếu int, thì random_state là hạt giống được sử dụng bởi trình tạo số ngẫu nhiên; Nếu RandomState instance, thì random_state là trình tạo số ngẫu nhiên; Nếu là None, thì trình tạo số ngẫu nhiên là đối tượng RandomState được sử dụng bởi np.random • max_iter: int, (mặc định = 1000) => Quy định số lần lặp tối đa được chạy. Các thuộc tính: • coef: array, shape = [n_features] nếu n_groupes == 2 ngược lại [n_groupes, n_features] => Các trọng số được gán cho các đặc trưng (các hệ số trong bài toán nguyên thủy). Điều này chỉ đúng trong trường hợp hạt nhân tuyến tính. coef_ là một thuộc tính chỉ đọc có nguồn gốc từ raw_coef_ theo bố cục bộ nhớ trong của liblinear. • intercept: array, shape = [1] nếu n_groupes = 2 hoặc bằng [n_classes] => Hằng số trong hàm quyết định. 3.3.2. Trích chọn đặc trưng (Feature extraction) Sklearn cung cấp một loạt các mô đun để tiền xử lý dữ liệu, trước khi đưa vào mô hình học máy. Mô đun sklearn.feature_extraction được sử dụng để trích xuất các đặc trưng theo định dạng được hỗ trợ bởi các thuật toán học máy từ các tập dữ liệu bao gồm các định dạng như văn bản và hình ảnh.24 Trích chọn đặc trưng (feature extraction) khác với lựa chọn đặc trưng (feature selection). Trích chọn đặc trưng là chuyển đổi dữ liệu đầu vào, chẳng hạn như văn bản hoặc hình ảnh, thành các đặc trưng số học có thể sử dụng trong học máy. Lựa chọn đặc trưng là một kỹ thuật máy học được áp dụng trên các đặc trưng này. Trong luận văn, học viên đã sử dụng DictVectorizer để chuyển đổi các mảng đặc trưng (feature arrays) được biểu diễn dưới dạng danh sách các đối tượng trong 24 https://scikit-learn.org/stable/modules/feature_extraction.html 35 thư viện Python tiêu chuẩn sang biểu diễn NumPy/SciPy được sử dụng bởi các mô hình trong scikit-learn. Mặc dù xử lý không đặc biệt nhanh, thư viện Python có các ưu điểm là thuận tiện khi sử dụng, thưa thớt (không cần lưu trữ các đặc trưng vắng mặt) và lưu trữ thêm các tên đặc trưng ngoài các giá trị. DictVectorizer thực hiện những gì được gọi là mã hóa one-of-K hoặc one-hot cho các đặc trưng phân loại (còn gọi là danh nghĩa, rời rạc). Các đặc trưng phân loại là các cặp thuộc tính-giá trị, trong đó giá trị được giới hạn trong một danh sách các khả năng rời rạc mà không có thứ tự (ví dụ: định danh chủ đề, loại đối tượng, thẻ, tên, v.v.). Trong ví dụ sau đây, “city” là một đặc trưng phân loại trong khi “temperature” là một đặc trưng số học truyền thống: >>> measurements = [ ... {'city': 'Dubai', 'temperature': 33.}, ... {'city': 'London', 'temperature': 12.}, ... {'city': 'San Francisco', 'temperature': 18.}, ... ] >>> from sklearn.feature_extraction import DictVectorizer >>> vec = DictVectorizer() >>> vec.fit_transform(measurements).toarray() array([[ 1., 0., 0., 33.], [ 0., 1., 0., 12.], [ 0., 0., 1., 18.]]) >>> vec.get_feature_names() DictVectorizer cũng là một công cụ biến đổi biểu diễn hữu ích để đào tạo các trình phân loại trình tự trong các mô hình Xử lý ngôn ngữ tự nhiên thường hoạt động bằng cách trích xuất các cửa sổ đặc trưng xung quanh một từ quan tâm cụ thể. 36 3.3.3. Lựa chọn đặc trưng (Feature selection) Các lớp trong mô đun sklearn.feature_selection có thể được sử dụng để lựa chọn đặc trưng/ giảm chiều tập dữ liệu mẫu, để cải thiện độ chính xác hoặc để tăng hiệu năng của các bộ ước lượng trên các tập dữ liệu rất nhiều chiều.25 Loại bỏ các đặc trưng có phương sai thấp (low variance) VarianceThreshold là một cách tiếp cận cơ bản đơn giản để lựa chọn đặc trưng. Nó loại bỏ tất cả các đặc trưng mà phương sai không đáp ứng được một số ngưỡng. Theo mặc định, nó loại bỏ tất cả các đặc trưng có phương sai bằng không, tức là các đặc trưng có cùng giá trị trong tất cả các mẫu. Ví dụ: giả sử rằng chúng ta có tập dữ liệu với các đặc trưng boolean và chúng ta muốn loại bỏ tất cả các đặc trưng có hơn 80% mẫu là một hoặc không (bật hoặc tắt). Các đặc trưng Boolean là các biến ngẫu nhiên Bernoulli và phương sai của các biến đó được đưa ra bởi Var[X] = p(1 − p) vì vậy chúng ta có thể chọn sử dụng ngưỡng .8 * (1 - .8): >>> from sklearn.feature_selection import VarianceThreshold >>> X = [[0, 0, 1], [0, 1, 0], [1, 0, 0], [0, 1, 1], [0, 1, 0], [0, 1, 1]] >>> sel = VarianceThreshold(threshold=(.8 * (1 - .8))) >>> sel.fit_transform(X) array([[0, 1], [1, 0], [0, 0], [1, 1], [1, 0], [1, 1]]) Đúng như dự đoán, VarianceThreshold đã loại bỏ cột đầu tiên, có xác suất 𝑝 = 5/6 > .8 giá trị là số 0. Lựa chọn đặc trưng đơn biến (Univariate feature selection) Lựa chọn đặc trưng đơn biến hoạt động bằng cách chọn các đặc trưng tốt nhất dựa trên các kiểm tra thống kê đơn biến. Nó có thể được coi là một bước tiền xử lý 25 https://scikit-learn.org/stable/modules/feature_selection.html#feature-selection 37 cho bộ ước lượng. Scikit-learn đưa ra các trình lựa chọn đặc trưng như các đối tượng thực hiện phương thức biến đổi: • SelectKBest: loại bỏ tất cả trừ k đặc trưng có điểm số cao nhất • SelectPercentile: loại bỏ tất cả, trừ 1 phần đặc trưng có điểm số cao nhất do người dùng chỉ định. • Sử dụng các kiểm tra thống kê đơn biến phổ biến cho mỗi đặc trưng: tỉ lệ báo động nhầm (False Positive Rate) SelectFpr, tỉ lệ phát hiện nhầm (False discovery rate) SelectFdr, hoặc lỗi sai số chung nhỏ nhất (family wise error) SelectFwe. • GenericUnivariateSelect cho phép thực hiện lựa chọn đặc trưng đơn biến với chiến lược có thể định cấu hình. Điều này cho phép chọn chiến lược lựa chọn đơn biến tốt nhất với bộ ước lượng tìm kiếm siêu tham số. Chẳng hạn, chúng ta có thể thực hiện phép thử 𝜒1 cho các mẫu để lấy chỉ hai tính năng tốt nhất như sau: >>> from sklearn.datasets import load_iris >>> from sklearn.feature_selection import SelectKBest >>> from sklearn.feature_selection import chi2 >>> iris = load_iris() >>> X, y = iris.data, iris.target >>> X.shape (150, 4) >>> X_new = SelectKBest(chi2, k=2).fit_transform(X, y) >>> X_new.shape (150, 2) Các đối tượng này lấy đầu vào là một chức năng tính điểm trả về các điểm số và p giá trị đơn biến (hoặc chỉ các điểm số cho SelectKBest và SelectPercentile): • Cho hồi quy: f_regression, mutual_info_regression • Cho phân loại: chi2, f_classif, mutual_info_classif Các phương pháp dựa trên F-test ước lượng mức độ phụ thuộc tuyến tính giữa hai biến ngẫu nhiên. Mặt khác, các phương pháp thông tin lẫn nhau có thể nắm bắt bất kỳ loại phụ thuộc thống kê nào, nhưng không theo tỷ lệ, chúng yêu cầu nhiều mẫu hơn để ước lượng chính xác. Ngoài ra, còn có các phương pháp lựa chọn đặc trưng khác: • Loại bỏ đặc trưng đệ quy (Recursive feature elimination) 38 • Loại bỏ đặc trưng sử dụng SelectFromeModel • Loại bỏ đặc trưng như là một phần của luồng xử lý (Feature selection as part of a pipeline) Tuy nhiên trong khuôn khổ của luận văn, chúng ta sẽ không phân tích sâu vào các phương pháp này. 3.3.4. Kiểm định chéo (Cross-validation) Khi lựa chọn các cài đặt khác nhau, siêu tham số, cho một bộ ước lượng, chẳng hạn cài đặt C cho một máy véc-tơ hỗ trợ (SVM), vẫn có một nguy cơ quá khớp (overfitting) trên tập dữ liệu kiểm tra (test set) do các tham số này được điều chỉnh cho bộ ước lượng thực hiện được tối ưu nhất. Và vì thế kết quả của nó không còn đúng với thực tế, không hoạt động đúng được trên các dữ liệu chưa biết. Để giải quyết vấn đề này, một phần khác của tập dữ liệu sẽ được lấy ra, được gọi là tập kiểm định (validation set): việc huấn luyện được thực hiện trên tập huấn luyện, sau đó được đánh giá trên tập kiểm định và cuối cùng được đánh giá lại trên tập kiểm tra. Tuy nhiên, bằng cách phân vùng dữ liệu có sẵn thành ba tập, chúng ta đã giảm đáng kể số lượng mẫu có thể được sử dụng để học mô hình và kết quả có thể phụ thuộc vào một lựa chọn ngẫu nhiên cụ thể cho cặp (huấn luyện, kiểm định). Một giải pháp cho vấn đề này là một thủ tục gọi là kiểm định chéo (cross- validation - viết tắt là CV). Một tập dữ liệu kiểm tra vẫn được lấy ra để đánh giá cuối cùng, nhưng tập dữ liệu kiểm định không còn cần thiết nữa. Trong cách tiếp cận cơ bản, được gọi là kiểm định chéo k lần (k-fold CV), tập huấn luyện được chia thành k tập nhỏ hơn, gọi là các fold (có nhiều cách tiếp cận khác nhưng cơ bản dựa trên nguyên tắc tương tự): • k-1 fold được sử dụng như là tập dữ liệu huấn luyện để xây dựng mô hình • mô hình được xây dựng sẽ được kiểm định trên phần còn lại, như là tập dữ liệu dữ liệu kiểm tra để tính toán hiệu suất, chẳng hạn như độ chính xác. Hiệu suất được báo cáo từ k-fold CV là trung bình của các giá trị được tính trong vòng lặp. Cách tiếp cận này có thể tốn kém về mặt tính toán, nhưng không lãng phí quá nhiều dữ liệu (như trường hợp khi sửa một bộ kiểm định tùy ý), đây là một lợi thế lớn trong các vấn đề như suy luận nghịch đảo trong đó số lượng mẫu rất nhỏ. 39 Stratified k-fold26 Một số vấn đề phân loại có thể thể hiện sự mất cân bằng lớn trong phân phối các lớp mục tiêu. Chẳn hạn, có thể có nhiều mẫu âm hơn nhiều lần so với các mẫu dương. Trong các trường hợp như vậy, nên sử dụng lấy mẫu phân tầng như được triển khai trong StratifiedKFold và StratifiedShuffleSplit để đảm bảo rằng tần suất lớp tương đối được bảo toàn xấp xỉ trong mỗi lần huấn luyện và kiểm định. StratifiedKFold là một biến thể của k-fold trả về các tập dữ liệu con phân tầng: mỗi tập chứa xấp xỉ tỷ lệ phần trăm giống nhau số mẫu của mỗi lớp mục tiêu như tập hoàn chỉnh. Tiếp theo dưới đây là ví dụ về kiểm định chéo phân tầng 3-fold trên tập dữ liệu với mười mẫu từ hai lớp tương đối không cân bằng: >>> from sklearn.model_selection import StratifiedKFold >>> X = np.ones(10) >>> y = [0, 0, 0, 0, 1, 1, 1, 1, 1, 1] >>> skf = StratifiedKFold(n_splits=3) >>> for train, test in skf.split(X, y): ... print("%s %s" % (train, test)) [2 3 6 7 8 9] [0 1 4 5] [0 1 3 4 5 8 9] [2 6 7] [0 1 2 4 5 6 7] [3 8 9] 26 https://scikit-learn.org/stable/modules/cross_validation.html#k-fold 40 Hình 3.8: Biểu điễn của hành vi kiển định chéo 3-fold Stratified CV Hình 3.8 thể hiện cách thực thi việc phân chia dữ liệu theo cái tiếp cận kiểm định chéo Stratified 3-fold. Có thể thấy các tập con dữ liệu được phân chia với số lượng mẫu ở các lớp đồng đều và được thực hiện tương tự cho ba lần chia như phân tích ở trên. Ngoài ra, còn có rất nhiều cách tiếp cận khác như Repeted K-fold, LOO, LPO, Shuffle&Split, Group k-fold, Time series split, Predefined Fold-split, v.v. Trong thực nghiệm trong luận văn này, học viên sử dụng cách tiếp cận StratifiedKFold với K = 5. Cách tiếp cận này phù hợp với bài toán cần giải quyết do tập dữ liệu trên Wikipedia tiếng Việt không đồng đều với các loại kiểu khác nhau. StratifiedKFold sẽ giúp cho các kiểu được phân bổ đồng đều trong các tập dữ liệu con, tránh việc tập này có quá nhiều kiểu loại này, trong khi tập con khác lại không có đủ dữ liệu tương tự. 41 3.4. Tiền xử lý dữ liệu Tiền xử lý dữ liệu là một bước rất quan trọng trong việc giải quyết bất kỳ vấn đề nào trong lĩnh vực Học máy. Hầu hết các bộ dữ liệu được sử dụng trong các vấn đề liên quan đến Học máy cần được xử lý, làm sạch và biến đổi trước khi một thuật toán Học máy có thể được huấn luyện trên những bộ dữ liệu này. Hình 3.9 mô tả các bước tiền xử lý được thực hiện trong luận văn, bao gồm các bước chuẩn bị dữ liệu, trích chọn đặc trưng và số hoá các đặc trưng, cũng như các công cụ được sử dụng trong các bước. Hình 3.9 Các bước tiền xử lý dữ liệu Dữ liệu các trang Wikipedia tiếng Việt là các trang web định dạng html chứa các thông tin hữu ích như tiêu đề bài viết, hộp thông tin (infobox), nội dung bài viết, thể loại bài viết, mục lục trong bài viết. Những thông tin này rất có giá trị để sử dụng làm các đặc trưng cho mô hình học máy phục vụ bài toán. Tuy nhiên, cũng tồn tại rất nhiều nhiễu cần phải loại bỏ như các thông tin nhãn html, các trang chuyển tiếp (redirect pages), các trang mẫu (template pages). Hình 3.10 biểu điễn một trang web điển hình từ Wikipedia tiếng Việt chưa qua xử lý. Chuẩn bị dữ liệu Trích chọn đặc trưng Số hoá các đặc trưng Wikipedia tiếng Việt - Sử dụng Wikextractor - Tải dữ liệu từ wikidump - Loại bỏ nhiễu - Phần mềm Java đọc thẻ html - Sử dụng VNCoreNLP để tách từ và gán nhãn từ loại - Biểu diễn các đặc trưng dạng phrase, 1-gram, 2-gram, 3- gram - Véc tơ hoá dữ liệu các đặc trưng 42 Hình 3.10 Một trang wikipedia điển hình Wikipedia cung cấp một công cụ hữu ích (Wikiextractror) để tải tất cả các bài viết được lưu trữ trên hệ thống trong các file dump được backup định kỳ. Đồng thời Wikiextractor cũng giúp thực hiện các tác vụ làm sạch dữ liệu, loại bỏ các dữ liệu nhiễu trong các trang Wikipedia được tải xuống. Dữ liệu sử dụng trong luận văn được tải từ dữ liệu backup trên máy chủ của Wikipedia tháng 1/2019. Để trích xuất các thông tin hữu ích ứng với các đặc trưng mong muốn sử dụng, tác giả đã phát triển một công cụ đơn giản để tiền xử lý dữ liệu viết trên nền tảng Java. Công cụ này xử lý các trang Wikipedia đã được tải về như trên, đọc các các thẻ html liên quan để lấy ra các thông tin cần sử dụng tương ứng. Tiếp theo, tác giả sử dụng công cụ VNCoreNLP để phân tách các thông tin đọc được thành các từ có ý nghĩa và là danh từ. Nội dung tệp dữ liệu sau tiền xử lý được mô tả như trong Phụ lục 3. Tiếp theo, là nội dung giới thiệu chi tiết hơn về công cụ VNCoreNLP, cũng như các n

Các file đính kèm theo tài liệu này:

  • pdfluan_van_phan_loai_thuc_the_co_ten_tren_wikipedia_de_phuc_vu.pdf
Tài liệu liên quan