Đồ án Phân cụm tập kết quả tìm kiếm web dựa vào tập thô dung sai

Mục lục

CHƯƠNG 1 5

VẤN ĐỀ TÌM KIẾM THÔNG TIN TRÊN WEB 5

1.1. Máy truy tìm Web 5

1.1.1. Web Crawler 6

1.1.2. Document Index (lập chỉ mục tài liệu) 6

1.1.3. Document Cache(lưu trữ tài liệu) 7

1.1.4. Document Ranking 7

1.1.5. Query Processor(bộ xử lý truy vấn) 7

1.1.6. Presentation interface(giao diện trình bày) 7

2.1. Trình bày kết quả tìm kiếm của máy truy tìm Web Google 8

CHƯƠNG II 10

PHÂN CỤM TẬP KẾT QUẢ TÌM KIẾM WEB DỰA VÀO TẬP THÔ DUNG SAI 10

2.1. Khái niệm phân cụm 10

2.2. Phân cụm tập kết quả tìm kiếm Web 10

2.2.1. Khái niệm 10

2.2.2. Phép đo độ tương tự 11

2.2.3. Đặc điểm 12

2.2.4. Hiệu quả 13

2.2.5. Yêu cầu 13

2.3. Lý thuyết tập thô 14

2.3.1. Giới thiệu 14

2.3.2. Quan hệ không thể phân biệt 15

2.3.3. Hàm thuộc thô 16

2.3.4. Định nghĩa Hệ thông tin 16

2.3.5. Không gian xấp xỉ tổng quát (Generalized approximation spaces) 18

2.4. Mô hình tập thô dung sai (TRSM) 20

2.4.1. Không gian tolerance của các từ 20

2.4.2. Biểu diễn tài liệu 22

3. Phương pháp trọng số mở rộng đối với xấp xỉ trên 22

Chương III Giải thuật phân cụm tập kết quả tìm kiếm web 24

3.1. Giải thuật 24

3.1.1. Tiền xử lý snippet 24

3.1.2. Trích chọn những từ đặc trưng của mỗi snippet 26

3.1.3. Sinh lớp tolerance 28

3.1.4. Giải thuật phân cụm K-means 30

3.1.5. Tạo nhãn cho mỗi nhóm 33

3.2. Một số thuật toán phân cụm không giám sát 33

3.2.1. Phương pháp phân hoạch 33

3.2.2. Phương pháp phân cấp 34

 

 

doc43 trang | Chia sẻ: lynhelie | Lượt xem: 1365 | Lượt tải: 1download
Bạn đang xem trước 20 trang tài liệu Đồ án Phân cụm tập kết quả tìm kiếm web dựa vào tập thô dung sai, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
n biệt giữa phân lớp với phân cụm: Phân lớp còn được gọi học có giám sát . Là quá trình xếp một đối tượng vào trong những lớp đã biết trước . Ví dụ phân lớp các bệnh nhân theo dữ liệu hồ sơ bệnh án . Phân cụm còn được gọi học không giám sát .Là quá trình xếp các đối tưọng theo từng cụm tự nhiên, tức là số lượng và tên cụm chưa được biết trước . Yêu cầu về việc phân cụm xuất phát từ lĩnh vực thống kê, nó được áp dụng cho dữ liệu số . Tuy nhiên, trong lĩnh vực khoa học máy tính và khai phá dữ liệu thì khái niệm này được mở rộng cho cả dữ liệu text hoặc multimedia. Phân cụm tập kết quả tìm kiếm Web Khái niệm Phân cụm tập kết quả Web là tổ chức sắp xếp tập kết quả tìm kiếm thành một số nhóm chủ đề riêng theo cách bố cục tổng thể đến chi tiết, giống như các thư mục. Ví dụ đối với câu hỏi truy vấn “Clinton” thì kết quả được trình bày theo các chủ đề như:”Bill Clinton”, “Hillary Clinton”, “George Clinton”, v.v. Theo cách trình bày này cả những người sử dụng không có kinh nghiệm trong việc đặt câu hỏi truy vấn cũng có thể dễ dàng xác định nhanh chóng và chính xác tài liệu quan tâm . Mặt khác, đối với những người sử dụng đặt câu hỏi chung chung với mục đích biết thêm những chủ đề con sẽ không phải mất nhiều thời gian .Thay vào đó , họ chỉ cần duyệt theo từng nhóm chủ đề. Phép đo độ tương tự Bản chất công việc phân cụm là nhóm những đối tượng tương tự với nhau vào cùng một nhóm . Vậy cần phải có phép đo để đo độ tương tự giữa các đối tượng. Đối với các đối tượng là tài liệu thì người ta thường hay sử dụng phép đo hệ số góc cosin để đo độ tương tự giữa hai tài liệu (mỗi tài liệu được biểu diễn dưới dạng một vector). Công thức đo độ tương tự như sau: Cosin(X,Y) = Trong đó -X (x1 ,x2 , ..,xt) và Y(y1 ,y2 ,..,yt) là vector biểu diễn hai tài liệu -xi ,yi là trọng số thành phần thứ I của vector X,Y tương ứng . Chú ý: -Khi hệ số góc cosin =1 nghĩa là hai snippet đó hoàn toàn tương tự nhau(trùng nhau) -Khi hệ số góc cosin =0 nghĩa là hai snippet đó không hoàn toàn tương tự nhau(trùng nhau) -Các tài liệu có thể được biểu diễn dưới dạng vector, điểm trong không gian nhiều chiều. Ví dụ: 2 tài liệu doc1 và doc2, sau khi trích chọn các thuộc tính đặc trưng của snippet Trong doc1:từ computer xuất hiện 3 lần, và từ finace xuất hiện 1 lần Trong doc2:từ computer xuất hiện 2 lần, và từ finace xuất hiện 4 lần Biểu diễn dưới dạng vector, doc1 được biểu diễn (3i+1j) và doc2 được biểu diễn (2i+4j) Biểu diễn dưới dạng một điểm trong không gian nhiều chiều, doc1 được biểu diễn (3,1) và doc2 được biểu diễn (2,4). H×nh1: C¸c ®èi t­îng ®­îc biÓu diÔn d­íi d¹ng vector H×nh2: C¸c ®èi t­îng ®­îc biÓu diÔn d­íi d¹ng ®iÓm Đặc điểm -Phân cụm tập kết quả có tính phụ thuộc vào câu hỏi truy vấn của người sử dụng do tạo ra các nhóm chủ đề không thể dự tính được mà hoàn toàn phụ thuộc -Kết quả phân cụm là giao diện của máy truy tìm. Hiệu quả Việc phân các tài liệu thành từng nhóm cơ bản đã được chứng minh là có hiệu quả trong quá trình duyệt một tập lớn các tài liệu . Do đó việc phân cụm tập kết quả cũng có những ưu điểm sau: -Việc tổ chức tập kết quả tìm kiếm thành các chủ đề tạo điều kiện thuận lợi khi duyệt tập lớn các kết quả tìm kiếm. -Tên của các chủ đề giúp người sử dụng phát hiện được chủ đề chính và do đó có thể xác định nhanh chóng chủ đề mình quan tâm. -Việc phân chia tập kết quả thành các chủ đề giúp người sử dụng có thể nghiên cứu thêm tài liệu liên quan đến các chủ đề khác mà họ thường bỏ qua khi duyệt danh sách kết quả tìm kiếm được trình bày theo phương thức truyền thống ranked list, vì những tài liệu này ở rất xa trang đầu. Yêu cầu a.Liên quan Phân cụm phải tạo ra được các nhóm chủ đề khác biệt từ tập kết quả tìm kiếm Web, những kết quả có liên quan với nhau được sắp xếp vào cùng 1 nhóm và không liên quan thì ở nhóm khác. b.Tính tổng thể Nhãn của mỗi chủ đề phải ngắn gọn và chính xác.Như vậy mới giúp người sử dụng xác định nhanh chóng chủ đề quan tâm và tránh phải duyệt rải rác trên toàn tập kết quả. c.Nạp chồng Vì mỗi một tài liệu (snippet) có thể thuộc về nhiều chủ đề do vậy một tài liệu có thuộc vào nhiều nhóm khác nhau. d.Snippet tolerance Giải thụât cần phải tạo được các chủ đề có chất lượng cao thậm chí khi nó chỉ được thực hiện trên tập kết quả tìm kiếm web. e.Tốc độ Vì giải thuật được sử dụng trong hệ thống online, do vậy một yêu cầu về tốc độ xử lý phân cụm là vô cùng quan trọng để không làm chậm quá trình xử lý truy vấn . f.Tăng tốc độ xử lý Để tiết kiệm thời gian , giải thuật cần phải xử lý từng snippet ngay sau khi nhận được từ máy truy tìm . Lý thuyết tập thô Giới thiệu Lý thuyết tập thô (rough set theory) được Zdzislaw Pawlak đề xuất vào đầu những năm 1980 và nó nhanh chóng được coi như là một công cụ toán học mới để xử lý những thông tin mơ hồ và không chắc chắn . Phương pháp này tỏ ra hết sức quan trọng đối với lĩnh vực Trí tuệ nhân tạo và các ngành khoa học khác liên quan đến nhận thức, đặc biệt là lĩnh vực học máy, thu nhận tri thức, phân tích quyết định, phát hiện /khám phá tri thức từ cơ sở dữ liệu , các hệ chuyên gia , các hệ hỗ trợ quyết định , lập luận dựa trên quy nạp và nhận dạng. Triết lý của tập thô dựa trên giả sử rằng mọi đối tượng trong vũ trụ đều gắn một thông tin nào đó (như dữ liệu, tri thức). Ví dụ, nếu các đối tượng là các bệnh nhân bị một bệnh nhất định , các triệu chứng của bệnh nhân tạo thành thông tin về bệnh nhân . Các đối tượng được đặc trưng bởi cùng thông tin thì không thể phân biệt (indiscermible) được với nhau. Quan hệ tương đương là cơ sơ toán học của lý thuyết tập thô Một tập bất kỳ các đối tượng không thể phân biệt (các đối tượng tương tự) được gọi là tập cơ bản (elementary) và tạo thành nguyên tử (atom hay granule) của tri thức vũ trụ. Hợp bất kỳ các tập cơ bản được gọi là tập rõ (crisp) hay tập chính xác (precise), ngược lại là tập thô(rough) hay không chính xác(imprecise). Trong lý thuyết tập thô , bất cứ một khái niệm không rõ ràng nào đều được thay bằng một cặp khái niệm không chính xác gọi là xấp xỉ dưới và xấp xỉ trên của khái niệm không rõ ràng. Xấp xỉ dưới bao gồm tất cả các đối tượng chắc chắn thuộc về khái niệm và xấp xỉ trên gồm tất cả các đối tượng có thể thuộc về khái niệm. Hiệu của xấp xỉ trên và xấp xỉ dưới tạo thành khoảng ranh giới của khái niệm không rõ ràng . Các phép toán cơ bản của lý thuyết tập thô được sử dụng để phát hện các mẫu cơ sở trong dữ liệu . Do đó, với một ý nghĩa nhất định phương pháp luận tập thô cũng chính là học máy , phát hiện tri thức , suy diễn thống kê và suy diễn quy nạp. Lý thuyết tập thô ở một mức độ nhất định giao với nhiều công cụ toán học khác được dung để xử lý tri thức không đầy đủ . Trong lý thuyết tập thô khái niệm không rõ ràng dựa trên các xấp xỉ và sự không phân biệt được. Quan hệ không thể phân biệt Để có thể định nghĩa được xấp xỉ trên và xấp xỉ dưới trước hết chúng ta cần tìm hiểu về quan hệ không thể phân biệt. Định nghĩa: Quan hệ R(R Í UxU) được gọi là quan hệ không thể phân biệt khi nó là một quan hệ tương đương . Hay nói cách khác, quan hệ không thể phân biệt R là một quan hệ tương đương và chia vũ trụ thành một họ các lớp tương đương . Họ này được gọi là sự phân loại và ký hiệu U\R. Các đối tượng trong cùng một lớp tương đương là không phân biệt được , ngược lại là phân biệt được đối với R. Với "xÎU , lớp tương đương của x trong quan hệ R được biểu diễn là [x]R Trong không gian xấp xỉ A=(U,R) xấp xỉ dưới và xấp xỉ trên của tập X được định nghĩa tương ứng như sau: LR(X) = {x Î U : [x]R Í X } UR(X) = {x Î U : [x]R Ç X ¹ Æ } Tập LR(X) là tập các đối tượng trong U mà theo quan hệ R thì chắc chắn chúng là các đối tượng của X Tập UR(X) là tập các đối tượng của U mà theo quan hệ R thì ta chỉ có nói rằng chúng có thể là các đối tượng của X . Sự thật là LR Í X Í do vậy tập BNR = UR - LR được gọi là vùng biên của xấp xỉ hay là vùng không chắc chắn . Rõ rang , BNR là tập các đối tượng mà theo quan hệ R ta không thể xác định được chúng có thuộc vào X hay không . Kết hợp cặp (LR, UR) tạo thành xấp xỉ thô hoặc tập thô của khái niệm X. Hàm thuộc thô Ta cũng có thể định nghĩa các xấp xỉ thông qua khái niêm hàm thuộc thô. Cho hàm thuộc thô mX : X ® [0,1] của tập X Í U, tập thô được định nghĩa như sau: Lm(X) = {x Î U : m(x, X) =1 } Um(X) = {x Î U : m(x, X) >0 } Trong đó m(x, X) = Định nghĩa Hệ thông tin Trong thực tế các đối tượng thường là Thông thường hệ thông tin được mô tả bởi một cặp I= trong đó: U={x1 ,x2, ,x n} là một tập không rỗng hữu hạn các đối tượng gọi là vũ trụ A là một tập không rỗng hữu hạn các thuộc tính . Với mỗi thuộc tính a Î A thì có tương ứng một hàm giá trị fa : U ® Va với Va là tập giá trị của thuộc tính a. Vậy rõ ràng rằng bất kỳ một tập hữu hạn các đối tượng , mỗi đối tượng được mô tả bởi một tập các thuộc tính có thể xem là một hệ thông tin . Ví dụ như, một nhóm người , với mỗi người được mô tả bởi giới tính,tuổi, nghề nghiệp . Hình thức đơn giản của hệ thông tin chính là bảng thông tin , trong đó dòng là thể hịên đối tượng và cột là thể hiện thuộc tính của đối tượng. Với mỗi đối tượng x ÎU, việc nắm bắt thông tin về x thông qua tập thuộc tính BÍA được gọi là vector thông tin infB(x)= { (a, fa(x)) : a Î B } Thông thường bảng thông tin được cho dưới dạng mở rộng , bằng cách thêm vào cột chứa thuộc tính quyết định vào bảng thông tin được goi là bảng quyết định Ví dụ : Gọi U là tập các bênh nhân , U=(p1,p2,p3,p4,p5,p6,p7,p8)các bệnh nhân được miêu tả thông qua các triệu chứng ốm . Bảng biểu diễn hệ thông tin sau BÖnh nh©n Thuéc tÝnh ®iÒu kiÖn TT quyÕt ®Þnh §au ®Çu Nhøc mái NhiÖt ®é C¶m p1 Cã Cã B×nh th­êng Kh«ng P2 Cã Cã Cao Cã P3 Cã Cã RÊt cao Cã P4 Kh«ng Cã B×nh th­êng Kh«ng P5 Kh«ng Kh«ng Cao Kh«ng P6 Kh«ng Cã RÊt cao Cã P7 Kh«ng Kh«ng Cao Cã P8 Kh«ng Cã RÊt cao Kh«ng R là một quan hệ tương đương , được định nghĩa thông qua đẳng thức của hai thuộc tính Đau đầu và Nhức mỏi. Ví dụ: xRy có nghĩa là f§au ®Çu(x) = f§au ®Çu(y) Ù fNhiÖt đo(x) = fNhiÖt ®é(y) Quan hệ tương đương này phân tập U thành các lớp {p1}, { p2}, { p3},{ p4}, { p5, p7}, { p6, p8}.Như vậy theo mối quan hệ R thì ta không thể phân biệt bệnh nhân p5 với p7 , bệnh nhân p6 với p8. Gọi khái niệm X là bệnh nhân bị cảm , như vậyX={ p2 ,p3 ,p6 ,p7}. Lúc này , xấp xỉ của X theo mối quan hệ R được xác định như sau LR(X) = { p2, p3} UR(X) = { p2, p3, p5, p6, p7, p8} Không gian xấp xỉ tổng quát (Generalized approximation spaces) Như trên đã trình bày, lý thuyết tập thô kinh điển là dựa trên quan hệ tương đương để chia vũ trụ thành các lớp rời nhau. Theo định nghĩa, quan hệ tương R Í UxU phải thỏa các tính chất sau: Tính phản xạ: xRx, với bất kỳ x Î U Tính đối xứng: xRy Û yRx, với bất kỳ x,yÎ U Tính bắc cầu: xRy Ù yRz Þ xRz, với bất kỳ x,y,zÎ U Tuy nhiên trong thực tế, đối với một vài ứng dụng thì yêu cầu của quan hệ tương được chỉ ra là quá khắt khe. Vì trong nhiều lĩnh vực có rất nhiều khái niệm là không rõ ràng và có thể chồng lên nhau. Ví dụ: Chúng ta xét một tập các tài liệu khoa học. Mỗi tài liệu được mô tả thông qua tập các từ khóa. Dễ dàng nhận thấy rằng mỗi tài liệu có thể có nhiều từ khóa và một từ khóa có thể xuất hiện trong nhiều tài liệu. Vì vậy khi phân chia vũ trụ các tài liệu thành các lớp thì các lớp này có thể chồng lên nhau (nghĩa là một tài liệu có thể cùng thuộc vào nhiều lớp khác nhau). Do vậy, để phù hợp với thực tế cần phải giảm yêu cầu của quan hệ tương đương R bằng cách loại bỏ tính bắc cầu, tạo nên quan hệ mới được gọi là quan hệ Tolerance. Định nghĩa không gian xấp xỉ tổng quát Không gian xấp xỉ tổng quát là một bộ bốn A=(U, I, v, P) trong đó : U là một tập không rỗng hữu hạn các đối tượng, hay còn được gọi là một vũ trụ I: U ® P(U) là một hàm không chắc chắn, trong đó P(U) là tập tất cả các tập con của U Hàm I được gọi là hàm không chắc chắn nếu thỏa: x Î I(x), "xÎU y Î I(x) Û x Î I(y), "x,yÎU Vậy quan hệ xRy Û y Î I(x) là một quan hệ tolerance vì nó thỏa mãn điều kiện phản xạ, đối xứng và I(x) là lớp tolerance của x. Như vậy, nếu chúng ta xét các đối tượng xÎU theo R thì I(x) là tập các đối tượng tương tự với x. : P(U) x P(U) ® [0,1] là hàm thuộc mờ. Hàm thuộc mờ v hầu như giống hàm thuộc (được định nghĩa ở phần 3), tuy nhiên nó được mở rộng trên P(U) x P(U) để đo mức thuộc của hai tập. Hàm : P(U) x P(U) ® [0,1] được gọi là hàm thuộc mờ nếu thỏa: Y Í Z Þ (X, Y) < (X, Z) với X, Y, Z Í U, tính đơn điệu Kết hợp hàm không chắc chắn I và hàm thuộc mờ v, hàm thuộc thô được định nghĩa như sau: Với x Î U, X Í U, ta có hàm thuộc thô mI, (x, X) = (I(x), X) P: I(U)®{0,1} là hàm cấu trúc Trong đó, I(U) = { I(x) : x ÎU)} Hàm này dùng làm điều kiện ràng buộc toàn cục trên các tập I(x). Trong khi sinh các xấp xỉ, chỉ những tập X Î I(U) có P(X) = 1 mới được xem xét, nghĩa là chỉ xét những đối tượng trong U. Xấp xỉ Trong không gian xấp xỉ A thì các xấp xỉ của tập X Í U được định nghĩa như sau: LA(X) = {x Î U : P(I(X)) =1 Ù m(x, X) =1 } U A(X) = {x Î U : P(I(X)) =1 Ù m(x, X) >0 } Mô hình tập thô dung sai (TRSM) Với khả năng giải quyết linh hoạt tính gần đúng và tính mờ, tập thô dung sai được đánh giá là một công cụ đầy hứa hẹn để xác định mối quan hệ giữa từ và tài liệu. Bất cứ vấn đề nào trong lĩnh vực thu thập thông tin, đặc biệt trong việc phân cụm tài liệu thì việc định nghĩa mối quan hệ tương tự giữa tài liệu – tài liệu, từ – từ, từ – tài liệu là không thể thiếu được. Vì bản chất của bài toán phân cụm là tìm những đối tượng tương tự nhóm lại thành một nhóm. Không gian tolerance của các từ Gọi D là tập các tài liệu, D={d1, d2,., dN } và T là tập các từ có trong D, T={t1, t1,.., tM}. Thông qua mô hình không gian vectơ, mỗi tài liệu di được biểu diễn bởi một vectơ có trọng số [wi1, wi2, ., wiM], với wij là trọng số của từ j trong tài liệu di. Trong mô hình tập thô dung sai, không gian tolerance được định nghĩa dựa trên toàn bộ các từ trong D. U= T = {t1, t1,.., tM} Mục đích đặt ra là căn cứ vào mối quan hệ giữa các từ để thực hiện phân lớp các tài liệu. Với mục đích này, quan hệ tolerance R được xác định thông qua số lần cùng xuất hiện của các từ trong tập tài liệu D. Sở dĩ ở đây chọn số lần cùng xuất hiện của các từ để định nghĩa quan hệ tolerance là vì: theo các tài liệu hiện nay người ta xác định rằng giữa hai từ có 2 loại quan hệ tương tự: Tương tự ngữ nghĩa, hai từ tương tự ngữ nghĩa có thể thay thế cho nhau trong một ngữ cảnh riêng. Ví dụ, trong ngữ cảnh: “I read the book” từ book có thể được thay thế bởi từ magazine mà không làm thay đổi nghĩa của câu, và do vậy 2 từ này được gọi là tương tự ngữ nghĩa. Tương tự theo ngữ đoạn, hai từ tương tự theo ngữ đoạn có nghĩa là chúng cùng xuất hiện với nhau trong một đoạn text. Ví dụ, hai từ cut và knife là tương tự trong ngữ đoạn vì chúng có đặc điểm là thường cùng xuất hiện với nhau trong cùng đoạn text. Như vậy, việc xác định quan hệ tương tự giữa hai từ theo loại 2 là đơn giản, phù hợp với yêu cầu về thời gian đối với giải thuật phân cụm (không chọn tương tự ngữ nghĩa vì phải mất thời gian học từ). Lớp tolerance của từ * Hàm không chắc chắn I với ngưỡng q được định nghĩa như sau: Iq(ti) = { tj | fD(ti,tj) > q } È {ti} trong đó, fD(ti, tj) là số snippet trong tập D có cả hai từ ti và tj cùng xuất hiện. Rõ ràng rằng hàm trên thỏa điều kiện: Phản xạ: ti Î Iq(ti) Đối xứng: tj Î Iq(ti) Û ti Î Iq(tj), " i, j Î T. Vì vậy quan hệ tolerence I Í T x T được định nghĩa như sau: ti I tj Û tj Î Iq(ti), trong đó Iq(ti) là lớp tolerance của từ ti Dễ dàng nhận thấy rằng một lớp tolerance là thể hiện một khái niệm thông qua các từ chứa trong nó. Để điều chỉnh mức độ quan hệ của các từ trong lớp tolerance thì ta có thể thay đổi tham số q (q được cho phụ thuộc vào số lượng tài liệu trong tập D) * Để đo mức độ thuộc của tập này vào tập khác, hàm thuộc mờ được định nghĩa như sau: Rõ ràng là hàm này thỏa mãn tính đơn điệu. * Hàm thuộc m với ti Î T, X Í T được định nghĩa như sau: Giả sử rằng tập các từ trong T không thay đổi trong trình ứng dụng, tất cả các lớp tolerance của các từ được xem là các tập cấu trúc: P() = 1 " ti Î T * Lúc này, xấp xỉ dưới và xấp xỉ trên của X Í U với không gian các lớp tolerance R = (T, I, ,P) được xác định tương ứng như sau: LR(X) = {ti Î T | =1 } UR(X) = { ti Î T | >0 } Nếu ta xem X như là một khái niệm được mô tả mờ bởi các từ chứa trong nó thì UR(X) là tập các khái niệm có một vài điểm chung so với X, trong khi đó LR(X) là khái niệm nhân của X. Biểu diễn tài liệu Trong mô hình không gian vector chuẩn, một tài liệu được xem là một cái túi chứa các từ. Theo mô hình này chỉ những từ xuất hiện trong tài liệu mới được gắn trọng số khác không. Còn với mô hình TRSM, không chỉ xét những từ xuất hiện trong tài liệu mà còn xét cả những từ có quan hệ tương tự với những từ xuất hiện trong tài liệu, thông qua lớp tolerance của các từ, nhằm mục đích nâng cao chất lượng thể hiện nét đặc trưng của tài liệu. Được thực hiện đơn giản thông qua xấp xỉ trên. Gọi di = {ti1, ti2, , tik } là tài liệu trong D và ti1, ti2, , tik Î T là các từ trong di, xấp xỉ trên của di được định nghĩa như sau: UR(di) = { ti Î T | >0 } 2.5 Phương pháp trọng số mở rộng đối với xấp xỉ trên Phương pháp trong số TF*IDF thường được sử dụng để gắn trọng số cho vector tài liệu. Phương pháp này được đánh giá là tốt, vậy để có thể sử dụng phương pháp này cho xấp xỉ trên của tài liệu thì cần phải mở rộng để biết được từ nào được xuất hiện trong xấp xỉ trên của tài liệu, nhưng không xuất hiện trong tài liệu. Phương pháp trọng số mở rộng đối với xấp xỉ trên, được định nghĩa như sau Trong đó, wị là trọng số của từ tj trong tài liệu di. Phương pháp này đảm bảo chắc rằng những từ xuất hiện trong xấp xỉ trên của tài liệu di nhưng không xuất hiện trong tài liệu di bao giờ cũng có trọng số nhỏ hơn trọng số của bất kỳ một từ nào trong tài liệu di. Sau đó chuẩn hóa chiều dài vector của tất cả các vector tài liệu bằng công thức sau: Chương III Giải thuật phân cụm tập kết quả tìm kiếm web Giải thuật Input : Tập D gồm N snippet d1, d2,., dN Output : K nhóm chủ đề khác biệt Mô hình dữ liệu: * Áp dụng mô hình không gian vector để biểu diễn kết quả tìm kiếm snippet. Cụ thể: - Mỗi snippet được biểu diễn bởi một vector nhiều chiều. Mỗi một chiều là tương ứng với một từ trong snippet. - Giả sử trong tập N snippet có M từ riêng biệt nhau. Khi đó, một snippet được biểu diễn dưới dạng một vector như sau: di= (wi1, wi2 , ..., wiM) , trong đó wij là trọng số của từ thứ j trong snippet di . Vì mỗi một snippet trong D có một chiều dài riêng (có số lượng từ khác nhau). Do vậy để giải thuật phân cụm cho ra kết quả chính xác thì cần chuẩn hóa số chiều của vectơ tương ứng với mỗi snippet trong D. Như vây, với tập D sẽ tạo thành một ma trận document-terms. Giải thật phân cụm TRC gồm có 5 pha: Tiền xử lý snippet Trích chọn từ đặc trưng của mỗi snippet (những từ thể hiện nội dung chính của snippet) Sinh các lớp tolerance Phân cụm Tạo nhãn cho từng nhóm Tiền xử lý snippet Đây là một pha vô cùng quan trọng, nó ảnh hưởng rất lớn đến quá trình thực hiện phân cụm. Nhiệm vụ của pha này là làm giảm số từ trong mỗi snippet, do vậy nó có tác dụng làm giảm độ phức tạp tính toán của các pha sau và làm nâng cao chất lượng pha 2 - trích chọn từ đặc trưng của snippet. Công việc của pha tiền xử lý snippet: a.Phân tích từ vựng Phân tích từ vựng chính là nhận dạng từ trong tài liệu. Kết quả công việc việc này là tạo ra tập từ khác biệt. Tuy nhiên trong quá trình phân tích từ cần phải chú ý một vài trường hợp đặc biệt, chẳng hạn như số, dấu ngoặc, dấu chấm câu và trường hợp chữ hoa chữ thường; để có cách ứng xử đặc biệt. Ví dụ về cách ứng xử đặc biệt, số thường bị loại ra trong khi phân tích vì một mình nó không mang lại một ý nghĩa nào cho tài liệu (ngoại trừ một vài trường hợp đặc biệt, ví dụ trong thu thập thông tin về lĩnh vực lịch sử). Dấu chấm câu, ví dụ như “.”, “!”, “?”, “-“, v.v cũng thường được loại ra mà không có ảnh hưởng gì đến nội dung của tài liệu. Tuy nhiên cần phải chú ý trong một vài trường hợp, chẳng hạn đối với những từ ghép nối (state-of-the-art) là không được phép bỏ dấu “-“, vì sẽ làm thay đổi nghĩa của từ. b. Loại bỏ stop-words Những từ mà xuất hiện quá nhiều trong các snippet của toàn tập kết quả, thường thì không giúp ích gì trong việc phân biệt nội dung của các tài liệu. Ví dụ, những từ “web”, “site”, “link”, “www”, v.v là xuất hiện hầu hết trong các snippet Những từ như vậy được gọi là stop-words. Ngoài ra, những từ như là “a”, “the” (mạo từ”, “in” (giới từ) , liên từ “but”, động từ phổ biến có dạng “to”, “be”, và một số trạng từ và tính từ đặc biệt cũng được xem là stop-words. Vì đặc điểm của stop-words nên chúng được loại bỏ mà không ảnh hưởng đến các pha sau. c. Stemming Stemming là loại bỏ tiền tố và hậu tố của từ để biến đổi nó thành từ gốc. Vì trong thực tế một từ gốc có thể có nhiều hình thái biến đổi, chẳng hạn như động từ, danh từ, tính từ, trạng từ; và giữa chúng có mối quan hệ ngữ nghĩa. Ví dụ như những từ: “clusters”, “clustering”, “clustered” là có cùng mối quan hệ với từ “cluster”. Do vậy cần phải Stemming để làm giảm được số lượng từ mà vẫn không làm ảnh hưởng đến nội dung tài liệu. Tuy nhiên có một vấn đề không tốt xảy ra khi stemming, vì giải thuật stemming sử dụng một tập các quy tắc đơn giản để loại bỏ tiền tố/hậu tố. Do vậy nó có thể sinh ra các từ không chính xác. Ví dụ như “computing”, “computation” sau khi stemming sẽ còn là “comput” trong khi đó từ đứng phải là “compute’. Trích chọn những từ đặc trưng của mỗi snippet Dữ liệu đầu vào của pha này chính là dữ liệu đầu ra của pha tiền xử lý tài liệu. a. Việc trích chọn được thực hiện theo quy tắc sau: Loại bỏ số và những từ ngắn hơn 2 ký tự Loại bỏ những từ xuất hiện trong câu hỏi truy vấn, bởi vì chúng ta đang thực hiện trên tập kết quả tìm kiếm trả về từ câu hỏi truy vấn, do vậy mà những từ nó sẽ xuất hiện hầu hết trong tất cả các snippet Loại bỏ những từ mà nó xuất hiện ít hơn ngưỡng cho phép (ví dụ ít hơn 2 snippet. b. Sau khi trích chọn được các từ đặc trưng, ta xây dựng ma trận tần số document-terms : TF=[tfi,j]NxM Trong đó, N là số snippet trong D M là số từ được trích chọn trong toàn tập D tfi,j là số lần xuất hiện của từ j trong snippet di Mỗi một dòng TF[i] trong ma trận TF là thể hiện đặc trưng của snippet di thông qua tần số xuất hiện của mỗi từ. c. Sau đó áp dụng phương pháp trọng số TF*IDF đối với ma trận TF để tạo ra ma trận trong số document-terms W = [wi,j]NxM wi,j = tfij * log(n/dfi) Trong đó wi,j là trọng số của từ j trong snippet di . Mỗi dòng W[i] trong ma trận W là thể hiện đặc trưng của snippet di thông qua trọng số của mỗi từ. Chú ý: Phải áp dụng phương pháp trọng số TF*IDF (term frequency – inverse document frequency) vì những từ xuất hiện nhiều lần (nhân tố TF) trong tài liệu là góp phần thể hiện nội dung của tài liệu nhiều hơn so với những từ chỉ xuất hiện một vài lần. Tuy nhiên, những từ mà xuất hiện thường xuyên trong toàn tập tài liệu D thì sẽ không có ý nghĩa nhiều trong việc phân biệt nội dung giữa những tài liệu, vì vậy nhân tố idf phải được sử dụng để làm giảm vai trò của từ thường xuyên xuất hiện trong toàn tập tài liệu D. Ví dụ: Cho tập D= {d1, d2, d3, d4, d5, d6) Doc Title d1 Languege modeling approach to information retrieval: the importance of a query term d2 Title language model for information retrieval d3 Two-stage language models for information retrieval d4 Building a web theaurus from web link structure d5 Implicit link analysis for small web search d6 Query type classification for web document retrieval Bảng 1: Tập các snippet và những từ được trích chọn (từ được gạch chân) Document/Term Information Web Query Retrieval Model Language d1 1 0 1 1 0 1 d2 1 0 0 1 1 1 d3 1 0 0 1 1 1 d4 0 1 0 0 0 0 d5 0 1 0 0 0 0 d6 0 1 1 1 0 0 Bảng 2: Ma trận tần số xuất hiện document-terms Document/Term Information Web Query Retrieval Model Language d1 0.301 0 0.4771 0.1761 0 0.301 d2 0.301 0 0 0.1761 0.4771 0.301 d3 0.301 0 0 0.1761 0.4771 0.301 d4 0 0.6021 0 0 0 0 d5 0 0.301 0 0 0 0 d6 0 0.301 0.4771 0.1761 0 0 Bảng 3: Ma trận trọng số document-terms Sinh lớp tolerance Mỗi một từ trong tập D đều có thể có tập các từ tương tự theo quan hệ tolerance (quan hệ cùng xuất hiện trong các snippet lớn hơn một ngưỡng q cho trước). Vậy mỗi một từ trong D sẽ sinh ra một lớp tolerance. Do vậy cần phải thực hiện pha này trước để tối ưu việc tính toán, đảm bảo tính toán xấp xỉ trên của tập các từ trong D được nhanh chóng. Các bước thực hiện: Ma trận cùng tần số xuất hiện (term co-occurrence) có dạng sau: TC = [tcx,y] MxM trong đó, tcx,y là số lần cùng xuất hiện của hai từ x và y trong các snippet của tập D. Lúc này, quan hệ tolerance R giữa 2 từ được định nghĩa như sau: xRy Û tcx,y > q Vậy, độ phức tạp tính toán là O(NxM2) ( trong đó độ phức tính toán của bước 1 là O(NxM), độ phức tính t

Các file đính kèm theo tài liệu này:

  • docnguyenthivietanh1.doc
  • pptbaocao_vietanhoanchinh.ppt
  • docbaocaotomtat2.doc
  • docVí dụ minh hoạ thuật toán.doc