- Phân lớp dựa trên nguyên lý khai phá luật kết hợp:
Có nhiều phương thức đối với sự phân lớp dựa trên luật kết hợp .
ARCS: Khai phá sự kết hợp số lượng và gom cụm của những luật kết hợp .
Phân loại kết hợp : Khai phá độ hỗ trợ cao và độ tin cậy cao trong công thức “cond_set =>y” trong đó y là một nhãn lớp .
CAEP(Phân lớp bằng cách tập hợp lại những mẫu nỗi bậc) : trong đó những mẫu nổi bật (Emerging patterns) : những tập thành phần itemset hỗ trợ gia tăng quan trọng từ một lớp sang lớp khác . Khai phá những mẫu nổi bật dựa trên độ hỗ trợ tối thiểu và tốc độ phát triển .
43 trang |
Chia sẻ: netpro | Lượt xem: 6326 | Lượt tải: 1
Bạn đang xem trước 20 trang tài liệu Đề tài Kỹ thuật phân lớp dữ liệu trong khai phá dữ liệu, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
case labels. Thêm vào đó là những giá trị thiếu (missing value) . C5.0 cho phép những giá trị được coi như là không áp dụng được . Hơn nữa , C5.0 cung cấp những điều kiện dễ dàng để định nghĩa những thuộc tính mới như những hàm của những thuộc tính khác.
Những ứng dụng khai phá dữ liệu gần đây được hình thức hoá với kích thước lớn hơn , với hàng trăm thậm chí hàng ngàn những thuộc tính .C5.0 có thể tự động lọc những thuộc tính , loại bỏ những cái xuất hiện bên lề trước khi một lớp phân loại được xây dựng. Đối với ứng dụng của loại này , sự phân loại có thể dẫn đến những đối tượng nhỏ hơn và sự tiên đoán chính xát hơn và thậm chí thu giảm được thời gian tạo ra tập luật.
C5.0 cũng dễ dàng được sử dụng hơn. Những chọn lựa được đơn giản hóa và mở rộng.- để hỗ trợ sự lấy mẫu và cross-validation , trong lúc đó chương trình C4.5 để tạo ra cây quyết định và tập luật được kết hợp vào một chương trình duy nhất.
Phiên bản trên windows See5 đã xây dựng được một giao diện đồ họa thân thiện và thêm vào một số chức năng hỗ trợ khác.Ví dụ Cross-Reference Window làm cho những đối tượng phân loại dễ hiểu hơn bằng việc liên kết những trường hợp đến những phần liên quan đến việc phân loại.
Phân lớp với GiniIndex(IBM IntelligenMiner) :
Tương tự như đại lượng Gain ở trên IBM đã đưa ra một đại lượng cho việc phân lớp là gini như sau:
Nếu một tập dữ liệu T chứa những mẫu từ n lớp, gini index , gini(T) được định nghĩa như sau :
trong đó pj là tần số liên quan của lớp j trong T.
Nếu một tập hợp dữ liệu T được chia thành 2 tập con T1 và T2 với kích thước tương ứng là N1 và N2 .
gini index của dữ liệu chia cắt chứa những ví dụ từ n lớp , gini index gin(T) được định nghĩa như sau:
Thuộc tính cung cấp giá trị ginisplit(T) nhỏ nhất được chọn để phân chia nút
Thể hiện tri thức theo dạng thức những luật IF-THEN . Trong đó một luật được tạo dựa trên mỗi con đường từ nút gốc đến lá . Mỗi cặp thuộc tính theo một con đường tạo thành một sự kết hợp và nút lá nằm giữ toàn bộ lớp tiên đoán . Những luật tạo ra rất dễ hiểu đối với con người .
Tránh việc quá khít (overfitting) trong việc phân lớp :
Cây được tạo ra có thể quá khít với dữ liệu huấn luyện . Việc quá khít có thể sãy ra trong những trường hợp sau đây :
Quá nhiều những nhánh , một số có thể phản ánh sự dị thường vì những phần tử hỗn loạn (noise) hoặc những phần tử nằm ngoài phân lớp (outlier) .
Kết quả nhận được thiếu chính xát đối với những mẫu chưa thấy.
Có hai cách tiếp cận để tránh quá khít dữ liệu .
Tỉa trước : Dừng sự xây dựng của cây sớm – không chia một node nếu điều này tạo kết quả ở dưới một ngưỡng theo một hệ đánh giá tốt . Một khó khăn trong việc tỉa trước là điều này sẽ tạo ra sự khó khăn trong việc tạo ra một ngưỡng thích hợp .
Tỉa sau : Loại những nhánh từ một cây “ lớn đầy đủ “ - tạo một thứ tự của những cây bị tỉa tăng dần lên trong đó ta sử dụng một tập dữ liệu khác nhau từ dữ liệu huấn luyện để xát định cái nào là “cây được tỉa tốt nhất “ (best pruned tree).
Tiếp cận xát định kích cỡ cây cuối cùng :
Thông thường người ta phân chia tập huấn luyện thành tập dữ liệu huấn luyện (2/3) và dữ liệu thử (1/3) , người ta sử dụng sự đánh giá chéo .
Cũng có một cách khác là sử dụng tất cả dữ liệu để huấn luyện , nhưng áp dụng kiểm tra thống kê để định lượng khi nào mở rộng hoặc tỉa bớt một nút có thể cải thiện toàn bộ sự phân phối .
Một cách thứ ba là sử dụng nguyên tắc mô tả chiều dài tối thiểu : trong đó người ta dừng sự phát triển của cây khi sự mã hóa được tối thiểu .
Sự phân lớp cây quyết định trong cơ sở dữ liệu lớn:
Sự phân lớp là một vấn đề cổ điển được nguyên cứu một cách mở rộng bởi những nhà thống kê và những nhà nguyên cứu máy học .Hướng phát triển hiện nay là của việc phân lớp là phân lớp những tập dữ liệu với hàng tỉ những mẫu thử và hàng trăm thuộc tính với tốc độ vừa phải.
Qui nạp cây quyết định được đánh giá cao trong khai phá dữ liệu lớn vì những nguyên nhân sau :
Tốc độ học tương đối nhanh hơn so với những phương pháp phân loại khác .
Có thể hoán chuyển được thành những luật phân lớp đơn giản và dễ hiểu .
Có thể sử dụng truy vấn SQL để truy xuất cơ sở dữ liệu .
Sự chính xát phân lớp có thể so sánh được với những phương pháp khác .
Những phương pháp qui nạp cây quyết định trong nguyên cứu về Khai phá trên tập dữ liệu lớn :
SLIQ : A Fast Scalable Classifier for Data Mining :
Những giải thuật phân lớp được thiết kế chỉ theo cách cho dữ liệu thường trú trong bộ nhớ . Phương pháp này thảo luận đưa ra việc xây dựng một công cụ phân loại có khả năng leo thang và thể hiện SLIQ ( Superived Learning In Quest ) như một công cụ phân loại mới , SLIQ là một công cụ cây quyết định mà có thể quản lý cả thuộc tính số và thuộc tính xác thực . Nó sử dụng một kỹ thuật sắp xếp trước (pre-sorting) trong giai đoạn phát triển cây (tree-grow).Thủ tục sắp xếp trước này được tính hợp với chiến thuật phát triển cây theo chiều rộng để cho phép sự phân lớp của tập dữ liệu thường trú ở đĩa . SLIQ cũng sử dụng một giải thuật tỉa cây mà chi phí không quá cao với kết quả đạt được khả quan và những cây khá chính xát . Sự kết hợp của những kĩ thuật này cho phép SLIQ leo thang với tập dữ liệu lớn và tập dữ liệu phân lớp mà không để ý đến số lượng của những lớp, những thuộc tính và những record .
Trong phương pháp này thì tập dữ liệu huấn luyện không thể được tổ chức trong bộ nhớ .
Từ SLIQ sang SPRINT : A Scalable Parallel Classifier for DataMining
Phương pháp này thể hiện một giải thuật phân lớp dựa trên cây quyết định có khả năng loại bỏ sự giới hạn của bộ nhớ , thực thi nhanh và có khả năng leo thang . Giải thuật này được thiết kế để dễ dàng cho song song hóa , cho phép nhiều bộ xử lý làm việc với nhau để xây dựng một mô hình nhất quán .
Danh sách lớp trong SLIQ phải chứa trong bộ nhớ
Cổ chai : danh sách lớp có thể lớn
SPRINT : đặt thông tin lớp vào danh sách thuộc tính và không có danh sách lớp nào.
Song song phân lớp : phân chia danh sách những thuộc tính .
PUBLIC :Tích hợp sự phát triển của cây quyết định và tỉa cây :
Phương pháp này để cập một cải tiến của công cụ cây quyết định được cải tiến mà tích hợp giai đoạn tỉa cây với giai đoạn xây dựng ban đầu . Trong PUBLIC , một nút không được mở rộng trong suốt giai đoạn xây dựng , nếu nó được xác định rằng nó sẽ bị tỉa trong suốt giai đoạn tỉa sau . Do đó để tạo sự quyết định cho node này trước khi nó được mở rộng , PUPLIC tính toán một biên dưới trên giá trị tối thiểu cây con được đặt tại nút . Sự ước lượng này sẽ được sử dụng bởi PUBLIC để xát định những nút mà chắc chắn được tỉa và đối với những nút như vậy mà không tiểu tốn trong việc phân chia chúng .
Tích hợp phát triển và tỉa : mỗi nút , kiểm tra chi phí của sự phát triển của những cây con .
RainForest : A Generic Framework :
Phương pháp này trình bày một khung làm việc hợp nhất cho những công cụ tạo cây quyết định mà tách rời những khía cạnh về khả năng leo thang của giải thuật cho việc xây dựng một cây quyết định từ những đặc tính trung tâm mà xát định phẩm chất của cây . Loại giải thuật này dễ dàng hoạt động cụ thể với những giải thuật riêng biệt từ tài liệu nguyên cứu bao gồm C4.5 , CART , CHAID , FACT , ID3 và những mở rộng , SLIQ , SPRINT và QUEST.
Cổ chai của khả năng leo thang : Tính toán thuộc tính giá trị,nhãn lớp (AVC-Group) cho mỗi node .
RainForest đưa ra một tập hợp của những giải thuật cho tính toán nhanh AVC-group .
Qui nạp cây quyết định dữ liệu dựa trên khối :
Qui nạp cây quyết định của dữ liệu dựa trên khối là sự tích hợp của tổng quát hóa với qui nạp cây quyết định ..
Phân lớp nhiều cấp dựa trên khối có hai vấn đề quan trọng đó là phân tích liên quan dựa trên nhiều cấp độ và phân tích thông tin nhận được với chiều và cấp .
Phương pháp phân lớp Bayesian:
Lý thuyết Bayesian cung cấp một tiếp cận theo xác xuất để suy diễn . Nó dựa trên giả thuyết rằng số lượng của khuynh hướng bị chi phối bởi phân bố xác xuất và quyết định tối ưu có thể được tạo bởi sự suy luận về những xác xuất đi liền với dữ liệu được quan sát . Đây là vấn đề quan trọng của máy học bởi vì nó cung cấp một tiếp cận định lượng cho việc xem xét cẩn thận bằng chứng hỗ trợ những giả thuyết thay đổi . Lý thuyết Bayesian cung cấp giải thuật học cơ bản mà vận dụng những xác xuất cũng như là một khung làm việc cho sự phân tích sự hoạt động của những giải thuật mà không thể vận dụng rõ ràng .
Học theo xát suất : Tính xát suất hiện cho giả thuyết , trong số những tiếp cận thực dụng nhất cho các kiểu chắc chắn của những vấn đề học .
Tính tăng dần : mỗi ví dụ huấn luyện có thể gia tăng việc tăng hoặc giảm mà không gian giả thuyết đúng . Kiến thức trước có thể kết hợp với dữ liệu được quan sát .
Tiên đoán xát suất : Tiên đoán nhiều không gian giả thuyết , được đo bởi xát suất của nó .
Tiêu chuẩn : Thậm chí khi phương thức Bayesian khó tính toán , chúng cũng cung cấp một tiêu chuẩn tốt nhất cho việc tạo quyết định .
Định lý Bayesian :
Cho trước một tập huấn luyện D , xát suất posteriori của một giả thuyết h , p(h\D) cho bởi định lý Bayesian :
P(D\h)P(h)
P(h\D) =
P(D)
Giả thuyết tối đa posteriori MAP :
Khó khăn thực tế của phương pháp phân lớp Bayesian ở chỗ nó đòi hỏi kiến thức khởi tạo của nhiều khả năng có thể sãy ra và chi phí tính toán đáng kể .
Phân lớp Naive Bayes:
Giả thuyết đơn giản : những thuộc tính là độc lập theo điều kiện
Chi phí tính toán thu giảm đáng kể , chỉ tính đến sự phân bố lớp.
Với một tập hợp cho trước chúng ta có thể tính toán khả năng sãy ra
Vấn đề phân lớp có thể được thể thức hóa sử dụng xát suất a-posteriori như sau :
P(C|X)= xát suất của mẫu ví dụ x= là lớp của C .
Ý tưởng : gán mẫu X vào lớp nhãn C sao cho P(C|X) là lớn nhất .
Định lý Bayes phát biểu như sau :
P(C|X) = P(X|C).P(C)/P(X) , trong đó :
P(X) là hằng cho tất cả lớp
P(C) = tần suất tương đối của mẫu lớp C
C mà ở đó P(C|X) là lớn nhất = C mà ở đó P(X|C).P(C) là lớn nhất .
Phân lớp Naive Bayesian :
Giả thuyết Naive : thuộc tính là độc lập
P(x1,...,xk|C)=P(x1|C)...P(xk|C)
Nếu thuộc tính thứ i là xát thực :
P(xi |C) được ước lượng như là tần suất tương đối của những mẫu có giá trị xi như là thuộc tính thứ i trong lớp C.
Nếu thuộc tính thứ i là liên tục P(xi |C) được ước lượng thông qua hàm mật độ Gaussian .Việc tính toán là dễ dàng trong cả hai trường hợp .Ví dụ play-tennis : phân lớp X .Cho mẫu chưa được thấy như sau X=
P(X|p).P(p)=P(rain|p).P(hot|p).P(high|p).P(false|p).P(p) = 3/9.2/9.3/9.6/9.9/14=0.010582
P(rain|n).P(hot|n).P(high|n).P(false|n).P(n)=2/5.2/5.4/5.5/14=0.018286
Mẫu X được phân lớp vào lớp n.
Giải thuật Naïve Bayes viết bằng mã giả như sau:
Sự độc lập của giả thuyết:
Những giả thuyết độc lập nhau sẽ giúp cho việc tính toán trở nên dễ dàng . Độ lợi phân lớp tốt nhất đạt được rất ít trong thực tế vì những thuộc tính (biến) thường liên quan với nhau .
Để vượt qua những giới hạn này người ta giải quyết bằng 2 cách:
Dùng mạng Bayesian , đây chính là sự kết hợp của lý luận và quan hệ nhân quả giữa những thuộc tính .
Cây quyết định mà suy luận trên một thuộc tính ở thời điểm xem xét những thuộc tính quan trọng đầu tiên .
Mạng Bayesian Tin cậy ( Bayesian belief network ) :
Bayesian belief network cho phép một tập con của những biến độc lập theo điều kiện .
Trong Bayesian belief người ta sử dụng mô hình đồ thị của quan hệ nhân quả . Có nhiều cách học của Bayesian belief networks như sau :
Cho trước cả cấu trúc mạng và những biến : đây là cách dễ dàng .
Cho trước cấu trúc mạng nhưng chỉ có một vài biến chứ không phải là tất cả .
Cấu trúc mạng là hoàn toàn không được biết .
Phân lớp bằng mạng lạn truyền ngược:
Neural Networks (Mạng Nơtrôn):
Cấu trúc của một neural như sau:
Vector x n chiều được ánh xạ vào biến y dựa trên tích vô hướng và một hàm ánh xạ phi tuyến .
Mạng huấn luyện:
Mục tiêu cơ bản của việc huấn luyện :
Đạt được một một tập hợp của những trọng số mà có thể làm cho hầu hết tất cả những bộ trong tập huấn luyện được phân lớp đúng .
Những bước của quá trình huấn luyện :
Khởi tạo trọng số với những giá trị ngẫu nhiên .
Lần lược đưa mỗi bộ vào trong mạng .
Đối với mỗi đơn vị :
- Tính toán mạng input cho mỗi đơn vị như là một sự kết hợp tuyến tính của tất cả những input đối với đơn vị .
- Tính toán giá trị output sử dụng hàm kích hoạt .
- Tính toán lỗi .
- Cập nhật trọng số và khuynh hướng .
Mạng thu giảm và rút trích luật :
Mạng thu giảm :
Mạng kết nối hoàn toàn sẽ khó nối khớp với nhau .
Với n node input , n hidden node và m output node dẫn đến h(m+N) trọng số .
Thu giảm ở điểm : loại một số liên kết mà không ảnh hưởng phân lớp chính xát của mạng .
Những ích lợi của mạng nơtrôn có thể kể đến như sau:
Tiên đoán chính xát cao .
Hoạt động mạnh , làm việc được ngay khi các mẫu chứa lỗi.
Output có thể là giá trị rời rạc, giá trị thực hoặc vector của nhiều thuộc tính rời rạc hoặc giá trị thực .
Đánh giá nhanh hàm mục tiêu được học .
Yếu điểm :
Thời gian huấn luyện lâu .
Khó có thể hiểu được hàm học ( trọng số).
Khó có thể kết hợp tri thức lĩnh vực.
Phân lớp dựa trên nguyên lý khai phá luật kết hợp:
Có nhiều phương thức đối với sự phân lớp dựa trên luật kết hợp .
ARCS: Khai phá sự kết hợp số lượng và gom cụm của những luật kết hợp .
Phân loại kết hợp : Khai phá độ hỗ trợ cao và độ tin cậy cao trong công thức “cond_set =>y” trong đó y là một nhãn lớp .
CAEP(Phân lớp bằng cách tập hợp lại những mẫu nỗi bậc) : trong đó những mẫu nổi bật (Emerging patterns) : những tập thành phần itemset hỗ trợ gia tăng quan trọng từ một lớp sang lớp khác . Khai phá những mẫu nổi bật dựa trên độ hỗ trợ tối thiểu và tốc độ phát triển .
Những phương thức phân lớp khác:
Những phương thức dựa trên khoảng cách:
Chứa những ví dụ huấn luyện và trì hoãn xử lý cho đến khi một thực thể mới được phân lớp .
Những cách tiếp cận thông thường :
Tiếp cận người láng giềng gần nhất k-nearest neighbor .
Hồi qui trọng lượng cục bộ : bằng cách xây dựng những xấp xỉ cục bộ .
Lập luận dựa trên trường hợp : Người ta sử dụng biểu diễn kí hiệu và tri thức dựa trên suy diễn .
Giải thuật K-Nearest Neighbor :
Tất cả những thực thể tương ứng với những điểm trên không gian n-D . Người láng giềng gần nhất được định nghĩa trong biểu thức của khoảng cách Euclidean .
Hàm mục tiêu có thể được rời rạc hóa hoặc giá trị thực .
Đối với những giá trị rời rạc, k-NN trả về hầu hết giá trị thông thường giữa k ví dụ huấn luyện gần nhất với xq.
Biểu đồ Vonoroi : bề mặt quyết định được qui vào bởi 1-NN đối với một tập điển hình của những ví dụ huấn luyện .
Giải thuật k-NN đối với giá trị liên tục đối với những hàm mục tiêu giá trị liên tục .
Tính toán giá trị trung bình của k láng giềng gần nhất .
Giải thuật khoảng cách trọng lượng người láng giềng gần nhất . Trọng lượng đóng góp của mỗi láng giềng theo khoảng cách của chúng đến điểm truy vấn xq , gán trọng lượng lớn hơn cho láng giềng gần hơn
1
w ≡ ________
d (xq ,x i) 2
Tương tự , đối với những hàm mục tiêu giá trị thực .
Mạnh đối với dữ liệu hỗn loạn bởi trung bình k-nearest neighbor.
Trở ngại của chiều : Khoảng cách giữa những láng giềng có thể bị chi phối bởi những thuộc tính quan trọng . Để vượt qua điều này , kéo dãn trục hoặc loại trừ những thuộc tính ít quan trọng nhất .
Giải thuật Di truyền (Genetic Algorithms):
Giải thuật di truyền : dựa trên một tương tự đối với một sự tiến bộ sinh học . Mỗi luật được biểu diễn bởi một chuỗi dữ liệu bit . Một mẫu khởi tạo được tạo ra bao hàm những luật được tạo một cách ngẩu nhiên .
Dựa trên khái niệm của cái thích hợp nhất tồn tại . Những qui luật phù hợp nhất sẽ được biểu diễn bởi sự phân lớp chính xát của nó trên một tập hợp của những ví dụ huấn luyện .
Sự thích hợp của một luật được biểu diễn bởi độ chính xát sự phân lớp của nó trên tập hợp những ví dụ huấn luyện .
Kết quả được tạo ra bởi sự giao nhau và sự biến đổi .
Tiếp cận tập thô :
Tập thô được sử dụng để xấp xỉ hoặc định nghĩa “thô” những lớp tương đương . Một tập thô cho một lớp C được xấp xỉ bởi 2 tập hợp : một xấp xỉ dưới ( chắc chắn ở trong C ) và một xấp xỉ trên .
Tìm kiếm tập rút gọn của những thuộc tính (đối với đặc tính rút gọn) là NP khó nhưng ma trận phân biệt được sử dụng để thu giảm cường độ tính toán .
Tiếp cận tập mờ :
Logic mờ sử dụng những giá trị thực giữa 0.0 và 1.0 để biểu diễn độ của quan hệ thành viên (ví dụ như là sử dụng đồ thị thành viên mờ ).
Những giá trị thuộc tính được chuyển sang những giá trị mờ . Đối với một ví dụ mới cho trước , nhiều hơn một giá trị mờ có thể được áp dụng .
Mỗi luật có thể áp dụng có thể áp dụng đóng góp một đề cử cho thành viên theo thể loại . Thông thường , những giá trị thực đối với thể loại được tiên đoán được tổng kết .
Phân lớp bằng suy luận dựa trên trường hợp ( case-based reasoning):
Những thực thể được biểu diễn bởi sự mô tả giàu tính tượng trưng (ví dụ như hàm đồ thị) . Kết hợp nhiều trường hợp nhận được , suy luận dựa trên tri thức và vấn đề giải quyết .
Tiên đoán và phân lớp:
Tiên đoán và vấn đề tượng tự như phân loại . Việc tiên đoán được xây dựng như sau :
Đầu tiên là xây dựng mô hình .Tiếp theo là sử dụng mô hình để tiên đoán những giá trị tiếp theo . Phương pháp chính để tiên đoán là phương pháp hồi qui . Có nhiều kiểu hồi qui : hồi qui tuyến tính, hồi qui đa tuyến và hồi không tuyến tính . Tiên đoán khác với phân lớp ở chỗ : Phân lớp đề cập đến tiên đoán loại lớp dữ liệu . Tiên đoán mô hình những hàm giá trị liên tục .
Mô hình tiên đoán : Tiên đoán dữ liệu hoặc cấu trúc tổng quát những mô hình tuyến tính dựa trên cơ sở dữ liệu . Những nét chính của phương pháp bao gồm :
Tối tiểu tổng quát .
Phân tích liên quan thuộc tính .
Xây dựng mô hình tuyến tính tổng quát .
Tiên đoán .
Xát định những yếu tố chính ảnh hưởng đến việc tiên đoán . Phân tích liên quan dữ liệu : đánh giá tính không chắc chắn , phân tích entropy , thẩm định chuyên gia ...
Tiên đoán nhiều cấp : phân tích drill-down và roll-up .
Phân tích hồi qui và mô hình tiên đoán log-linear:
Hồi qui tuyến tính : Y = α +βX .
Hai thông số α , β xát định đường thẳng và được thiết lập bởi sử dụng dữ liệu bằng tay .
Đa hồi qui : Y = b0 + b1X1 + b2X2 .
Nhiều hàm không tuyến tính không hồi qui có thể được chuyển dạng sang những dạng ở trên .
Những mô hình log-linear : bảng nhiều chiều của khả năng kết nối được xấp xỉ bởi một sản phẩm của những bảng thứ tự thấp .
p(a,b,c,d) = αab βacχad δbcd
Hồi qui gia trọng địa phương:
Xây dựng một xấp xỉ tường minh cho f trên một vùng địa phương xung quanh một thực thể truy vấn xq.
Hồi qui tuyến tính gia trọng địa phương : hàm mục tiêu f là hàm xấp xỉ gần xq sử dụng hàm tuyến tính : f(x) = w0 + w1a1(x)+...+Wn an (x) .
Độ chính xát của phân lớp : Ước lượng tần suất lỗi :
Phân chia huấn luyện và kiểm tra : sử dụng hai tập dữ liệu độc lập,tập huấn luyện (2/3) và tập kiểm tra (1/3) . Sử dụng cho tập dữ liệu với số lượng mẫu lớn .
Thẩm định chéo : chia tập dữ liệu thành k mẫu con .Sử dụng k-1 mẫu con như là dữ liệu huấn luyện và một mẫu con như là dữ liệu kiểm tra .
Khai phá dữ lịêu với Microsoft OLE DB
Tại sao phải khai phá dữ liệu với OLE DB .
Tiêu chuẩn công nghiệp là tới hạn của sự phát triển khai phá dữ liệu , việc sử dụng , thao tác giữa các phần , và trao đổi .
OLEDB cho khai phá dữ liệu là một cuộc đổi mới tự nhiên từ OLEDB và OLDB thành OLAP .
Xây dựng những ứng dụng khai phá trên cơ sở dữ liệu quan hệ là đáng kể . Ta cần những giải thuật khai phá dữ liệu tùy biến khác nhau , công việc quan trọng trên phần của những người xây dựng ứng dụng .
Mục tiêu : xóa bỏ gánh nặng của việc phát triển ứng dụng trong cơ sở dữ liệu quan hệ lớn .
Động cơ của OLE DB đối với việc khai phá dữ liệu :
Làm cho phát triển của mô hình khai phá dữ liệu trở nên dễ dàng hơn . Tạo ra những mô hình khai phá dữ liệu . Chứa đựng , bảo quản và làm tươi mô hình dữ liệu được cập nhật .Chương trình sử dụng mô hình trên tập dữ liệu khác . Duyệt qua mô hình .
Cho phép những người phát triển ứng dụng tích hợp để tham gia trong việc xây dựng những giải pháp khai phá dữ liệu .
Những đặc điểm của OLE đối với khai phá dữ liệu :
Độc lập của nhà cung cấp phần mềm .Không đưa ra một mô hình xát định nào cho việc khai phá . Được cấu trúc để cung cấp dữ liệu cho tất cả những mô hình khai phá nổi tiếng .
Tổng quan :
Lõi cơ chế quan hệ thể hiện ở những API dựa trên ngôn ngữ . Server phân tích thể hiện OLE DB OLAP và OLE DB DM . Bảo trì SQL ẩn chứa . Sử dụng lại những khái niệm đang tồn tại .
Những toán tử chính để hỗ trợ dữ liệu mô hình khai phá :
Định nghĩa một mô hình khai phá . Những thuộc tính được tiên đoán . Những thuộc tính được sử dụng để tiên đoán . Giải thuật được sử dụng để xây dựng mô hình . Chuyển đến một mô hình khai phá dữ liệu từ một dữ liệu huấn luyện .Tiên đoán những thuộc tính cho những dữ liệu mới . Duyệt một mô hình khai phá từ việc báo và trực quan hóa .
Data Mining Module là tương tự với một bảng trong SQL:
Tạo một đối tượng data mining module :
CREATE MINING MODEL[model_name]
Chèn vào dữ liệu huấn luyện dữ liệu vào mô hình và huấn luyện nó .
INSERT INTO [model_name]
Sử dụng mô hình khai phá dữ liệu :
SELECT relation_name.[id],[mode_name].[predict_arr]
quan tâm nội dung DMM để tạo tiên đoán và duyệt thống kê chứa bởi mô hình .
Sử dụng DELETE để làm rổng / reset dữ liệu .
Tiên đoán trong cơ sở dữ liệu : tiên đoán kết nối giữa một mô hình và tập dữ liệu (table) .
Khai triển DMM bởi chỉ viết lệnh SQL .
Hai thành phần chính :
Trường hợp và tập trường hợp : dữ liệu đầu vào .
Một bảng hoặc những bảng lồng ( cho dữ liệu phân cấp) .
Mô hình khai phá dữ liệu : một kiểu đặc biệt của bảng .
Một tập hợp những trường hợp là liên quan với một mô hình khai phá dữ liệu và một thông tin thô trong khi tạo một DMM .
Lưu giải thuật khai phá và kết quả tổng quan thay vì của dữ liệu chính nó .
Những toán tử cơ bản : CREATE, INSERT INTO , PREDICTION JOIN , SELECT , DELETE FROM , và DROP .
Biểu diễn bảng logic được lồng nhau :
Sử dụng dịch vụ tạo hình dữ liệu để tạo một tập những hàng phân cấp . Phần của những sản phẩm Microsoft Data Access Component (MDAC) .
Những bảng lồng nhau :
Không cần thiết cho những hệ thống con chứa đựng để hỗ trợ những record lồng nhau . Những trường hợp chỉ được cụ thể hóa như là tập những hàng lồng nhau trước huấn luyện , tiên đoán những mô hình khai phá dữ liệu . Cùng dữ liệu vật lý có thể được sử dụng để tạo những tập trường hợp khác .
Định nghĩa mô hình khai phá dữ liệu :
Việc định nghĩa tên mô hình khai phá dữ liệu bao gồm những giai đoạn sau:
Đặt tên của mô hình .
Thiết lập giải thuật và những thông số đầu vào .
Những cột của caseset và những quan hệ giữa những cột .
“những cột nguồn” và “những cột tiên đoán”.
Ví dụ :
CREATE MINING MODEL [Age Prediction] %Name of Model
(
[Customer ID] LONG KEY, %source column
[Gender] TEXT DISCRETE, %source column
[Age] Double DISCRETIZED() PREDICT, %prediction column
[Product Purchases] TABLE %source column
(
[Product Name] TEXT KEY, %source column
[Quantity] DOUBLE NORMAL CONTINUOUS, %source column
[Product Type] TEXT DISCRETE RELATED TO [Product Name]
%source column
))
USING [Decision_Trees_101] %Mining algorithm used
Column Specifiers :
n KEY ( khóa )
n ATTRIBUTE (thuộc tính)
n RELATION (quan hệ) (RELATED TO clause)
n QUALIFIER (từ hạn định) (OF clause)
n PROBABILITY: [0, 1]
n VARIANCE
n SUPPORT
n PROBABILITY-VARIANCE
n ORDER
n TABLE
Attribute Types :
n DISCRETE
n ORDERED
n CYCLICAL
n CONTINOUS
n DISCRETIZED
n SEQUENCE_TIME
Chuyển đến một mô hình phân tích dữ liệu :
Sử dụng phát biểu INSERT INTO . Tiêu tốn thời gian cho một trường hợp sử dụng mô hình khai phá dữ liệu . Sử dụng phát biểu SHAPE để tạo bảng lồng nhau từ dữ liệu input .Ví dụ:
INSERT INTO [Age Prediction]
(
[Customer ID], [Gender], [Age],
[Product Purchases](SKIP, [Product Name], [Quantity], [Product Type])
)
SHAPE
{SELECT [Customer ID], [Gender], [Age] FROM Customers ORDER BY [Customer ID]}
APPEND
{SELECT [CustID], {product Name], [Quantity], [Product Type] FROM Sales
ORDER BY [CustID]}
RELATE [Customer ID] TO [CustID]
)
AS [Product Purchases]
Sử dụng mô hình dữ liệu để tiên đoán :
Tiên đoán kết nối . Tiên đoán trong tậpdữ liệu D sử dụng mô hình khai phá liệu M . Khác với equi-join . Mô hình khai phá dữ liệu : là một “ truth table”
. Phát biểu SELECT liên quan với PREDICTION JOIN những giá trị xát định tách ra từ DMM .Ví dụ :
SELECT t.[Customer ID], [Age Prediction].[Age]
FROM [Age Prediction]
PRECTION JOIN
(SHAPE
{SELECT [Customer ID], [Gender] FROM Customers ORDER BY [Customer ID]}
APPEND
(
{SELECT [CustID], [Product Name], [Quantity] FROM Sales ORDER BY [CustID]}
RELATE [Customer ID] TO [CustID]
)
AS [Product Purchases]
)
AS t
ON [Age Prediction].[Gender]=t.[Gender] AND
[Age Prediction].[Product Purchases].[Product Name]=t.[Product Purchases].[Product Name] AND
[Age Prediction].[Product Purchases].[Quantity]=t.[Product Purchases].[Quantity]
Duyệt qua mô hình khai phá dữ liệu :
Duyệt qua mô hình khai phá dữ liệu là quá trình trực quan hoá dữ liệu visualization .
Kết luận :
OLE DB cho khai phá dữ liệu là sự tích hợp khai phá dữ liệu và hệ thống cơ sở dữ liệu .
OLE DB cho
Các file đính kèm theo tài liệu này:
- 177.com.doc