Luận văn Vấn đề chất lượng dịch vụ trong mạng thế hệ mới và triển khai ứng dụng trên hạ tầng mạng của công ty SPT

MỤC LỤC

MỤC LỤC.1

DANH MỤC CÁC THUẬT NGỮVIẾT TẮT.6

DANH MỤC CÁC BẢNG.11

DANH MỤC CÁC HÌNH VẼ, ĐỒTHỊ.12

LỜI NÓI ĐẦU.14

CHƯƠNG 1. MẠNG THẾHỆMỚI.16

1.1 Khái niệm.16

1.2 Các đặc điểm của mạng NGN .17

1.3 Kiến trúc dịch vụcủa mạng thếhệmới .18

1.4 Các tham số đánh giá chất lượng mạng .22

1.4.1 Băng thông .23

1.4.2 Trễ .23

1.4.3 Trượt .24

1.4.4 Mất gói.25

CHƯƠNG 2. CHẤT LƯỢNG DỊCH VỤ(QoS).25

2.1 Khái niệm.26

2.2 Các kỹthuật QoS .26

2.2.1 Mô hình dịch vụcốgắng tối đa (Best Effort) .28

2.2.2 Dịch vụtích hợp (Integrated Service) .28

2.2.2.1 Dịch vụ đảm bảo GS (Guaranteed Service).30

2.2.2.2 Dịch vụkiểm soát tải CL (Controlled Load).30

2.2.2.3 Kết luận.30

2.2.3 Mô hình Differentiated Service .31

2.2.3.1 Trường DS của DiffServ.32

2.2.3.2 Per-hop Behavior trong DiffServ.32

2.2.3.3 Các cơchếDiffServ.36

2.2.3.4 Ưu nhược điểm của mô hình DiffServ.37

2.2.3.5 Kết luận vềDiffServ.38

2.2.4 So sánh 2 mô hình kiến trúc QoS chính .39

2.3 Các giao thức báo hiệu trong kỹthuật QoS.39

2.3.1 Giao thức dành sẵn tài nguyên .40

2.3.2 Mô hình RSVP end-to-end .42

CHƯƠNG 3. PHÂN LOẠI, PHÂN MẢNH.

VÀ NÉN GÓI DỮLIỆU TRONG KỸTHUẬT QoS.44

3.1 Phân loại gói dữliệu.44

3.1.1 Quyền ưu tiên IP .45

3.1.2 Định tuyến chính sách (PBR) .47

3.1.2.1 Đặc điểm của PBR.47

3.1.2.2 Nguyên tắc hoạt động.47

3.2 Phân mảnh gói dữliệu (MLP).48

3.2.1 Các đặc tính phân mảnh dữliệu.48

3.2.2 Nguyên lý hoạt động.49

3.3 Các giải thuật nén tải tin.50

3.3.1 Nguyên tắc hoạt động.50

3.3.2 Nén tiêu đề.52

3.3.2.1 Nén tiêu đềTCP.53

3.3.2.2 Nén tiêu đềgiao thức thời gian thực (RTP).53

CHƯƠNG 4. KỸTHUẬT QoS TRONG ĐIỀU KHIỂN TẮC NGHẼN.56

4.1 Tránh tắc nghẽn.56

4.1.1 Phương pháp bỏ đuôi.57

4.1.2 Phương pháp loại bỏngẫu nhiên.58

4.1.3 Phương pháp loại bỏcân bằng ngẫu nhiên.59

4.1.4 Tốc độtruy nhập cam kết.61

4.1.4.1 Cơchếhoạt động.61

4.1.4.2 Các chức năng của CAR.62

4.1.4.3 Mô hình chiếc thùng và thẻbài.64

4.1.5 Sửa dạng lưu lượng (GTS).65

4.1.5.1 Đặc điểm của GTS.65

4.1.5.2 Cơchếhoạt động của GTS.66

4.1.5.3 Kết luận.67

4.2 Điều khiển tắc nghẽn. 68

4.2.1 Hàng đợi vào trước ra trước (FIFO).69

4.2.1.1 Các ưu nhược điểm của hàng đợi FIFO.69

4.2.1.2 Cấu hình FIFO.70

4.2.2 Hàng đợi tuần tự(CQ).71

4.2.2.1 Cơchếhoạt động.71

4.2.2.2 Những ưu nhược điểm của hàng đợi CQ.75

4.2.2.3 Cấu hình thực thi hàng đợi CQ.75

4.2.3 Hàng đợi ưu tiên (PQ).77

4.2.3.1 Cơchếhoạt động.77

4.2.3.2 Những ưu nhược điểm của hàng đợi PQ.78

4.2.3.3 Cấu hình thực thi hàng đợi ưu tiên.78

4.2.3.4 Kết luận.80

4.2.4 Hàng đợi cân bằng trọng số(WPQ).81

4.2.4.1 Cơchếhoạt động.81

4.2.4.2 Hàng đợi cân bằng trọng sốphân loại lưu lượng.82

4.2.4.3 Hàng đợi cân bằng trọng sốphân lớp lưu lượng.84

4.2.4.4 Hàng đợi cân bằng trọng sốtốc độcao.85

4.2.4.5 Các ưu nhược điểm của hàng đợi WFQ.87

4.2.4.6 Cấu hình thực thi WFQ.87

CHƯƠNG 5. KỸTHUẬT QoS TRONG MẠNG IP/MPLS.89

5.1 Cơsở.89

5.2 Định nghĩa chuyển mạch nhãn (MPLS).90

5.2.1 Chuyển mạch nhãn là gì?.90

5.2.2 Ưu điểm của kỹthuật MPLS.90

5.3 Kiến trúc MPLS.91

5.3.1 Cấu trúc khối.91

5.3.2 Một sốkhái niệm trong chuyển mạch nhãn.92

5.3.2.1 Lớp chuyển tiếp tương đương (FEC).92

5.3.2.2 Router chuyển mạch nhãn (LSR).92

5.3.2.3 Giao thức phân phối nhãn.94

5.3.2.4 Tuyến đường chuyển mạch nhãn.95

5.4 Thực hiện cơchếQoS trong mạng MPLS.95

5.4.1 Cấu trúc trường MPLS EXP trong gói IP được gán nhãn.96

5.4.2 Gán nhãn tại biên mạng.98

5.4.3 Chuyển tiếp gói MPLS.99

5.5 Kết luận.99

CHƯƠNG 6. PHƯƠNG ÁN TRIỂN KHAI MPLS QoS .

TRÊN HẠTẦNG MẠNG CỦA CÔNG TY SPT .100

6.1 Hạtầng mạng IP của công ty SPT.100

6.2 Phương án triển khai.101

6.2.1 Chia sẻbăng thông kênh liên tỉnh.101

6.2.1.1 Chính sách định tuyến.104

6.2.1.2 Địa chỉIP cho các router.105

6.2.1.3 QoS và phân lớp dịch vụ(CoS).106

6.2.2 Tích hợp dịch vụ.106

6.3 Cấu hình triển khai MPLS QoS trên mạng SPT.107

6.4 Kết luận.109

KẾT LUẬN VÀ KIẾN NGHỊ.110

TÀI LIỆU THAM KHẢO.112

pdf113 trang | Chia sẻ: lethao | Lượt xem: 1690 | Lượt tải: 1download
Bạn đang xem trước 20 trang tài liệu Luận văn Vấn đề chất lượng dịch vụ trong mạng thế hệ mới và triển khai ứng dụng trên hạ tầng mạng của công ty SPT, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
g đánh dấu được sử dụng để đánh dấu gói đó bằng cách thiết lập các bit trong trường IP Precedence hoặc trường DSCP (Differentiated Service Code Point). 45 3.1.1 Quyền ưu tiên IP Trong mạng IP các gói được lưu chuyển từ nguồn đến đích với mức ưu tiên khác nhau. Để xác định IP Prececdence cho các gói tin người ta sử dụng 3 bits ToS, được mô tả như hình vẽ 3.1 Hình 3.1 Mô tả trường ToS trong gói IP Trên cơ sở đó thiết lập các lớp dịch vụ khác nhau cho các gói tin. Với các lớp dịch vụ tùy theo các yêu cầu cụ thể mà thực hiện các phương pháp cấu hình tính năng QoS khác nhau để quản lý tắc nghẽn hay phân phối băng thông. Chú ý rằng IP Precedence không phải là phương thức hàng đợi tuy nhiên các phương thức hàng đợi như WFQ (Weighted Fair Queuing) hay WRED (Weighted random early Drop/Detect) có thể sử dụng IP Precedence để thiết lập thứ tự ưu tiên cho các gói IP. Bên cạnh đó thông qua việc thiết lập các mức ưu tiên cho các lưu lượng dữ liệu đầu vào và tổ hợp với các đặc tính hàng đợi QoS để tạo ra các dịch vụ khác nhau. Chúng ta cũng có thể sử dụng các đặc tính như định tuyến chính sách (PBR - Policy-based routing) và tốc độ truy cập cam kết (CAR - Committed Access Rate), để đặt thứ tự ưu tiên dựa trên mở rộng phân loại danh sách truy nhập. Ví dụ như chúng ta có thể gán thứ tự ưu tiên dựa trên ứng dụng của người sử dùng hay mạng nguồn và mạng đích. 46 Như đã nói ở trên việc gán thứ tự ưu tiên cho các gói thông qua tổ hợp 3 bits ToS trong địa chỉ mào đầu IP để tạo ra các lớp dịch vụ khác nhau. Về lý thuyết với 3 bits ToS có thể phân chia thành 8 loại CoS khác nhau. Tuy nhiên chỉ phân 6 lớp dịch vụ tương ứng với 6 giá trị ToS, 2 giá trị còn lại được dành cho sử dụng trong thông tin nội bộ mạng. Giá trị IP Precedence tương ứng với 3 bits ToS được quy định trong bảng 3-1 IP precedence value IP precedence name 0 Routine 1 Priority 2 Immediate 3 Flash 4 Flash-override 5 Critical 6 Internet 7 Network Bảng 3-1 Giá trị IP Precedence tương ứng với 3 bits ToS Trong chế độ mặc định các phần mềm thường không thiết lập các gía trị của IP Precedence. Như vậy để có thể sử dụng các phần tử mạng cần thực hiện gán giá trị IP Precedence trong trường tiêu đề (header). Chú ý rằng các gói đến từ các mạng khác có thể đã được gán giá trị ưu tiên do đó nên thực hiện thiết lập lại giá trị ưu tiên cho tất cả các gói được gửi tới. Bằng cách điều khiển giá trị IP Precedence chúng ta có thể ngăn chặn các người dùng không mong muốn hay lựa chọn các dịch vụ thích hợp hơn. 3.1.2 Định tuyến chính sách (PBR) 47 PBR (Policy-based routing) cung cấp cơ chế định tuyến linh hoạt cho việc định tuyến các gói tin dựa trên chính sách định tuyến cho các luồng lưu lượng. PBR làm tăng khả năng điều khiển định tuyến bằng cách mở rộng hay bổ sung các đặc tính của các giao thức định tuyến. Bên cạnh đó PBR cho phép thiết lập các giá trị IP Precedence, ưu tiên cho loại dữ liệu nào đó trên tuyến dành riêng. 3.1.2.1 Đặc điểm của PBR Chúng ta có thể sử dụng PBR như một phương án định tuyến. Ví dụ như chúng ta có thể cho phép hay từ chối các luồng dữ liệu dựa trên cơ sở nhận dạng một dạng đặc biệt của điểm kết cuối, một giao thức ứng dụng hay dựa trên cơ sở kích cỡ của các gói tin. Nói chung PBR cung cấp các đặc tính sau: ƒ Phân loại lưu lượng dựa trên cơ sở mở rộng danh sách truy nhập (ACL – Access List), sau đó các ACL thiết lập tiêu chuẩn thích hợp. ƒ Thiết lập giá trị IP Precedence, trên cơ sở đó thành lập các lớp dịch vụ khác nhau trên mạng. ƒ Định tuyến các gói tin tới tuyến xác định. Định tuyến chính sách có thể dựa trên địa chỉ IP, các cổng (port), các giao thức hay kích cỡ của các gói tin. Đối với các bài toán định tuyến đơn giản ta có thể chỉ cần sử dụng một trong các đặc tính ở trên tuy nhiên với các phương án định tuyến phức tạp chúng ta cũng có thể sử dụng tất cả các đặc tính đó. 3.1.2.2 Nguyên tắc hoạt động Mỗi một PBR được xây dựng trên cơ sở thiết lập bảng định tuyến, các gói tin được chuyển đến trên một giao diện mà có sử dụng cơ chế PBR sẽ được chuyển tới bảng định tuyến từ đó xác định cơ chế chuyển tiếp đến đầu ra. Bảng định tuyến được xây dựng từ các trạng thái, các trạng thái này có thể 48 được xem như quyết định chấp nhận hay từ chối. Cụ thể chúng được quy định như sau: ƒ Nếu các gói tin không phù hợp với bất cứ kỳ trạng thái nào của bảng định tuyến thì tất cả các nguyên tắc định tuyến sẽ được áp dụng. ƒ Nếu trạng thái từ chối thì các gói tin sẽ được gửi trở lại và cơ chế định tuyến dựa trên cơ sở trạm đích (destination-based routting) sẽ được áp dụng. 3.2 Phân mảnh gói dữ liệu ( MLP - Multiling PPP) Đối với các lưu lượng mà có sự tương tác qua lại như Telnet và VoIP dễ làm tăng trễ khi mạng xử lý các gói có kích cỡ lớn như lưu chuyển các gói (FTP) LAN-to-LAN qua mạng WAN. Các gói bị trễ là rất đáng kể khi mà các gói có kích cỡ lớn này được cùng xếp hàng trong một hàng đợi sẽ dễ gây tắc nghẽn. Để giải quyết vấn đề này một phương thức phân mảnh được áp dụng nhằm chia chúng thành các gói có kích cơ nhỏ hơn sau đó mới được sắp xếp vào hàng đợi. 3.2.1 Các đặc tính phân mảnh dữ liệu Như đã biết tiêu chuẩn trễ cho phép truyền các gói thời gian thực đặc biệt là các gói thoại khoảng 150 – 200ms. Với các kỹ thuật truyền bản tin dựa trên nền IP khó có thể đáp ứng các dịch vụ thoại do các vấn đề giới hạn băng thông, đặc biệt là các yêu cầu khắt khe độ trễ thoại cho phép khoảng 150ms. ƒ Sự phân mảnh (LFI - Link Fragmentation and Interleaving) làm giảm thiểu thời gian trễ trên các liên kết tốc độ thấp bằng cách “chặt” các gói tin cỡ lớn sau đó chèn các gói tin đòi hỏi trễ nhỏ để truyền đi. ƒ LFI cung cấp công cụ cho phép, cắt, tổ hợp lại, sắp xếp bản tin thông qua nhiều liên kết dữ liệu logic. Các gói cỡ lớn được đóng gói đa liên kết và phân mảnh thành các gói có kích cỡ nhỏ hơn mà đủ thỏa mãn 49 các yêu cầu về trễ của lưu lượng có độ nhạy trễ. Các gói tin có độ nhạy trễ thấp sẽ không được đóng gói đa liên kết nhưng được chèn giữa các bản tin được phân mảnh. ƒ MLP (Multiling PPP) cho phép các gói phân mảnh được gửi tới cùng một trạm đầu xa tại cùng thời điểm thông qua nhiều liên kết điểm điểm. Tải trọng có thể được tính toán ở đầu vào, đầu ra hoặc cả hai để xác định lưu lượng giữa các trạm xác định. MLP có thể phân phối băng thông theo yêu cầu để giảm thiểu trễ truyền dẫn trên các liên kết WAN. 3.2.2 Nguyên lý hoạt động Nguyên lý hoạt động của LFI được mô tả trong hình 3.2 Hình 3.2 Nguyên lý hoạt động của LFI Lưu lượng đến giao diện bao gồm các gói IP voice và các gói cỡ lớn, Khi chuyển đến giao diện đầu vào các gói sẽ được sắp xếp vào hàng đợi dựa trên đặc tính phân loại của gói mỗi gói. Sau khi đã được xếp vào hàng đợi các gói lớn sẽ bị phân mảnh thành các gói nhỏ hơn và chuẩn bị xen kẽ với các gói thoại IP, các gói này sẽ được gửi đi theo lịch trình của cơ chế hàng đợi được cấu hình. Chú ý để đảm bảo đúng thứ tự của các gói tin khi được truyền và thiết lập 50 lại, LFI bổ sung các tiêu đề đa liên kết vào các gói phân mảnh và sắp xếp chúng vào hàng đợi để gửi đi. 3.3 Các giải thuật nén tải tin Cùng với việc phân loại, phân mảnh và chèn gói tin, QoS hỗ trợ 3 phương thức nén tải tin khác nhau được sử dụng trên nền giao thức lớp 2, nhằm giảm kích cỡ gói tin. Hiệu quả sử dụng của các giải thuật này cũng rất khác nhau tuy nhiên rất hiệu dụng trong việc tiết kiệm tài nguyên, đặc biệt hiệu quả trong việc sử dụng CPU cho router. Các giải thuật bao gồm: ƒ STAC hoặc Stacker (STAC Electronics hoặc Hi/fn, Inc.) ƒ MPPC (Microsoft Point – to – point Compression) ƒ Predictor (Public domain algorithm). 3.3.1 Nguyên tắc hoạt động Hai giải thuật STAC hay Stacker và MPPC được xây dựng dựa trên nền tảng giải thuật nén LZ (Lempel – Ziv). Giải thuật LZ (thỉnh thoảng còn được gọi là LZW) tìm kiếm trong byte truyền dữ liệu những chuỗi dư thừa và thay thế bằng các Token ngắn hơn (Các Token này được xây dựng từ trước và lập nên một thư viện). Thư viện này được xây dụng trong thời gian thực (real time), và không cần thiết thay đổi thư viện bởi vì thư viện này được xây dựng lại từ thu nhận dữ liệu trạm đầu xa. Cả hai giải thuật này cho kết quả nén rất tốt tuy nhiên chúng đòi hỏi tần suất CPU (Central Processing Unit) làm việc cao. Giải thuật Predictor dựa trên việc đoán trước thứ tự byte tiếp theo trong luồng dữ liệu thông qua thư viện đơn giản, thư viện này được xây dựng lại từ trạm gửi hoặc dữ liệu nén và không cần thay đổi trong mỗi chặng. Đây là một giải thuật đơn giản, rất nhanh và tần suất CPU làm việc không cao tuy nhiên tỉ lệ nén là tương đối thấp. 51 Quá trình thực hiện thuật toán nén được minh họa trong hình 3.3 FH cIPFH IP Hàng đợi Đầu raBộ chuyển tiếp Thuật toán nén CPU thực hiện thuật toán nén Kích thước các gói giảm, làm giảm thời gian truyền và nhiều gói có thể được truyền hơn Hình 3.3 Minh họa quá trình thực hiện thuật toán nén STAC, MPPC và Predictor là những thuật toán thường được sử dụng thực hiện nén tải tin tại lớp 2 trên các liên kết point – to – point giữa các Router. STAC và MPPC đòi hỏi tần suất hoạt động của CPU cao nhưng có hiệu quả nén lớn (trong đó Stacker cho phép khả năng điều chỉnh). Tuy nhiên hai giải thuật này thường phát sinh trễ nên hay được sử dụng trên các liên kết tốc độ thấp. Predictor được xem như là khá đơn giản nó có thể triển khai trên các liên kết tốc độ cao, trễ và tần suất sử dụng CPU thấp tuy nhiên đòi hỏi bộ nhớ lớn và hiệu quả nén là thấp hơn so với 2 thủ tục kia. Phạm vi sử dụng của các giải thuật được mô tả theo bảng 3-2 Giải thuật Công nghệ STAC Predictor MPPC Ghi chú PPP a∗ a a Frame Relay a∗ r r ∗ Cũng được cung cấp bởi các Module nén phần cứng. HDLC a r r LAPB a a r X.25 a r r Bảng 3-2 Phạm vi sử dụng của các giải thuật nén 52 3.3.2 Nén tiêu đề Tất các phương thức nén đều cùng chung một mục đích đó là hạn chế dư thừa khi gửi dữ liệu trên môi trường truyền dẫn. Các trường thông tin tiêu đề của các gói trong cùng một luồng không thay đổi nhiều trong suốt quá trình truyền, bởi vậy việc các thông tin này thực sự gây lãng phí băng thông. Như vậy một vấn đề đặt ra là cần nén tiêu đề này để hạn chế băng thông. Nén header là cách mà không truyền lặp lại thông tin tiêu đề của các gói trong suốt một phiên giao tiếp. Chú ý rằng nén tiêu đề thực hiện trên cơ sở liên kết link – by – link, và không thể thực hiện qua nhiều router, bởi vì các router cần đầy đủ thông tin trường tiêu đề lớp 3 để có thể định tuyến tới hop kế tiếp. Nén tiêu đề được thực hiện trên các giao tiếp ở các kết nối lớp truyền dẫn. Khi các gói tin được chuyển đến thuật toán nén tiêu đề sẽ nén tiêu đề lớp 3 và lớp 4 vào một khung và thay thế chúng bởi 1 session. các gói sẽ được gửi tới đầu ra hàng đợi và được truyền tới trạm đầu xa. Tại đầu xa quá trình giải nén được thực hiện và chuyển tiếp tới quá trình xử lý tiếp theo. Với việc nén tiêu đề các khung lớp 2 sẽ nhỏ đi từ đó thời gian truyền cũng giảm đi do đó giảm tổng trễ. Thuật toán nén tiêu đề dược minh họa như 3.4 Tải tincHFHTải tinL4 (L5)IPFH Hàng đợi Đầu raBộ chuyển tiếp Thuật toán nén tiêu đề Thuật toán nén tiêu đề giữ đường truyền không thay đổi Nén IP và các tiêu đề lớp cao hơn Hình 3.4 Minh họa thuật toán nén tiêu đề 53 Có 2 phương thức nén tiêu đề đó là: ƒ Nén tiêu đề TCP ƒ Nén tiêu đề RTP 3.3.2.1 Nén tiêu đề TCP Phần lớn các ứng dụng Internet sử dụng TCP như một giao thức truyền tải và đa phần các thông tin tiêu đề TCP là cố định hoặc có thể đoán trước được thông qua một phiên. Với việc nén TCP header (bao gồm IP 20 byte và TCP 20 byte header) có thể làm giảm tổng số cần truyền 40 byte còn 3-5 byte. Hiệu quả nén TCP minh họa theo như hình 3.5 Hình 3.5 Minh họa hiệu quả nén TCP Hiệu quả nén tiêu đề TCP được mô tả trong bảng 3-3 Kích cỡ gói IP Không nén tiêu đề Thời gian trễ (trên 64 kbps) Nén tiêu đề Thời gian trễ (trên 64 kbps) 10 82% 7 ms 50% 2 ms 50 48% 12 ms 17% 7 ms 100 32% 18 ms 9% 13 ms 500 8% 67 ms 2% 62 ms 1500 3% 189 ms 1% 184 ms Bảng 3-3 Hiệu quả nén tiêu đề TCP 3.3.2.2 Nén tiêu đề giao thức thời gian thực (RTP) Real-Time Protocol (RTP) là giao thức chuẩn internet được sử dụng truyền 54 tải các dữ liệu thời gian thực RTP. Nó cung cấp các chức năng mạng truyền dẫn đầu cuối đến đầu cuối phục vụ các ứng dụng như thoại, video hoặc dữ liệu mô phỏng thông qua dịch vụ mạng đơn nhóm (unicast) hay đa nhóm (multicast). RTP bao gồm 2 phần tải tin và tiêu đề (header). Phần tải tin của RTP là một giao thức nhỏ mà cung cấp khôi phục lại, phát hiện lỗi và nhận dạng nội dung. Phần tiêu đề của RTP là tương đối lớn, bao gồm IP header (IPH), User Datagram Protocol (UDP) header, tạo nên IP/UDP/RTP header. Để giảm thiểu lãng phí băng thông không cần thiết, nén RTP header là một biến pháp hữu hiệu để tiết kiệm tài nguyên. cRTP nén IP/UDP/RTP header trong gói tin RTP từ 40 bytes xuống còn xấp xỉ 2 - 5 byte. việc giải nén có thể khôi phục lại trường tiêu đề mà không gây mất mát thông tin. Cơ chế nén RTP được mô tả như hình vẽ 3.6 VOIP Các gói Tin đến Hàng Đợi Tx Các gói tin ra Hàng đợi được cấu hình Nén RTP RTP các lưu lượng (video, Audio,...) Không nén RTP Nhận dạng lưu lượng RTP Nén IPHUDP IP DataRTP 12 8 12 IP Data 5 20 bytes ~ 240% ~ 13% ~ 2.3% 256 bytes 1500 bytes SQL FPT Hiệu quả Tải tin Kích thước gói giảm * * ~ giảm 5ms đối với giao diện 64kbps Phân lớp Hình 3.6 Cơ chế nén tiêu đề RTP 55 cRTP là cơ chế nén hop-by-hop tương tự như nén tiêu đề TCP. cRTP làm giảm chiều dài của tiêu đề do đó nó làm giảm được độ trễ. cRTP đặc biệt hữu ích đói với tải tin có cỡ gói nhỏ ví như thoại VoIP có cỡ gói 20 bytes sử dụng nén cRTP có thể làm giảm cỡ gói xấp xỉ 240%. Nó cũng rất hữu hiệu trong các ứng dụng truyền tải cả lưu thoại và backbone đa hướng trên các liên kết tốc độ thấp. Không nên sử dụng cRTP trên bất cứ liên kết tốc độ cao nào (lớn hơn E1). Chỉ nên sử dụng cRTP trên giao tiếp WAN tại đó băng thông xác định và lưu lượng chủ yếu là dữ liệu RTP. Trên các giao tiếp serial sử dụng đóng gói Frame Relay, HDLC hay PPP đều hỗ trợ tính năng với cRTP. Bên cạnh đó cRTP cũng được hỗ trợ trên các giao tiếp ISDN. Kết luận: Phương thức phân loại, phân mảnh và nén gói dữ liệu giúp giảm kích thước các gói tin và sắp xếp chúng theo thứ tự ưu tiên khi qua mạng. Điều này là hết sức quan trọng, vì các gói tin sẽ trở nên linh hoạt hơn rất nhiều khi tìm đường qua mạng, làm giảm trễ chuyển tiếp và xử lý, trong trường hợp xảy ra tắc nghẽn nó vẫn đảm bảo cho các gói có quyền ưu tiên cao hơn (như thoại) và không bị các gói có kích thước lớn làm tràn bộ đệm. Tuy nhiên các phương pháp này lại làm phát sinh thêm trễ xử lý của CPU. 56 CHƯƠNG 4 KỸ THUẬT QoS TRONG ĐIỀU KHIỂN TẮC NGHẼN Nói đến các kỹ thuật QoS người ta người nhắc nhiều đến cơ chế hàng đợi. Ở trạng thái bình thường khi không có tắc nghẽn xảy ra các gói tin sẽ được gửi đi ngay khi chúng được chuyển tới (đây còn gọi là quá trình bypass hệ thống hàng đợi phần mềm). Trong trường hợp xảy ra tắc nghẽn trên một giao diện nào đó, nếu như không áp dụng các kỹ thuật điều khiển tắc nghẽn, các gói tin đến nhanh hơn có thể được gửi đi trước kết hợp với thời gian tắc nghẽn kéo dài có thể phát sinh rớt gói, ảnh hưởng đến chất lượng dịch vụ. Trong một số trường hợp hiện tượng tắc nghẽn kéo dài, khả năng xử lý của CPU bị quá tải rất dễ dẫn đến hiện tượng “treo” mạng, hoặc các gói bị loại bỏ nhiều gây ảnh hưởng đến chất lượng dịch vụ, do đó ngoài các cơ chế điều khiển tắc nghẽn, các cơ chế tránh tắc nghẽn cũng cần được áp dụng trong các mạng hội tụ. Tuy nhiên khi các dụng các kỹ thuật QoS này cũng làm phát sinh trễ mạng. Trong chương này tác giả cũng giới thiệu một số lệnh cấu hình trên các thiết bị của hãng Cisco để minh họa cho các cơ chế hàng đợi. 4.1 Tránh tắc nghẽn Tránh tắc nghẽn là kỹ thuật giám sát tải trọng lưu lượng mạng nhằm tiên đoán trước và ngăn chặn nghẽn mạch trước khi nó xảy ra trong mạng có “hiệu ứng nút cổ trai” (bottlenect) thông qua biện pháp làm rớt gói. Có các phương pháp tránh tắc nghẽn như sau: ƒ Phương pháp bỏ đuôi (Tail drop). ƒ Phương pháp loại bỏ ngẫu nhiên (RED). ƒ Phương pháp loại bỏ cân bằng ngẫu nhiên (WRED - Weighted Random Early Detection) ƒ Tốc độ truy nhập cam kết. 57 ƒ Sử dạng lưu lượng. 4.1.1 Phương pháp bỏ đuôi (Tail drop) Phương pháp bỏ đuôi là kỹ thuật kinh điển cho việc quản lý chiều dài hàng đợi của router, ta đặt một chiều dài cực đại (theo gói) cho mỗi hàng đợi, chấp nhận các gói vào hàng đợi cho đến khi đạt được chiều dài cực đại của hàng đợi (thường gọi là đầy hàng đợi), sau đó bỏ những gói tin đến tiếp sau đó cho đến khi chiều dài hàng đợi giảm xuống do một gói tin trong hàng đợi được truyền đi. Phương pháp bỏ đuôi rất đơn giản, nhưng nó có hai hạn chế đáng kể. Thứ nhất, trong một vài trường hợp, nó cho phép một kết nối đơn hoặc một một vài luồng để chiếm giữ khoảng trống hàng đợi, ngăn cản những kết nối khác vào hàng đợi. Hiện tượng này thường là kết quả của sự đồng bộ hoặc các kết quả định thời khác. Thứ hai, phương pháp bỏ đuôi cho phép hàng đợi duy trì trạng thái đầy (hoặc gần đầy) trong một khoảng thời gian dài, sau đó nó sẽ thông báo nghẽn nếu như hàng đợi bị đầy. Sự giảm kích thước hàng đợi ở trạng thái ổn định có ý nghĩa quan trọng trong quản lý hàng đợi, bởi vì mặc dù TCP (Transmission Control Protocol) ấn định một kích thước cửa sổ của luồng thì các gói vẫn thường xuất hiện tại các router dưới dạng cụm (nhiều gói cùng đến router trong một khoảng thời gian ngắn). Nếu như hàng đợi đầy hoặc gần đầy thì sẽ dẫn đến có thể mất nhiều gói. Điều này có thể dẫn đến việc đồng bộ toàn thể sự điều tiết (throttling) các luồng để giảm tổng thông lượng. Vấn đề của bộ đệm ở trong mạng là nhận những cụm dữ liệu và truyền chúng trong khi các cụm tiếp theo chưa kịp đến. Điều này là cần thiết trong việc truyền dữ liệu kiểu cụm. Giới hạn hàng đợi không phản ánh hàng đợi ở trạng thái ổn định mà ta muốn duy trì trong mạng, thay vào đó nó phản ánh kích thước của các cụm mà chúng ta muốn nhận. 58 Trong mạng NGN hay mạng ứng dụng trên nền IP (Internet Protocol), việc loại bỏ gói là một cơ chế quan trọng của việc thông báo tắc nghẽn đến các trạm (node) đầu cuối. Giải pháp về vấn đề đầy hàng đợi cho các router sẽ làm cho các node đầu cuối đáp ứng được tắc nghẽn trước khi tràn hàng đợi. Việc giải quyết trước này được gọi là quản lý hàng đợi động. 4.1.2 Phương pháp loại bỏ ngẫu nhiên (RED) RED (Random Early Detection) được tìm ra bởi Sally Floyd và Van Jacobson vào đầu những năm 90 của thập kỷ 20. RED là một phương thức để báo hiệu tắc nghẽn. RED điều khiển cỡ hàng đợi trung bình bằng cách báo hiệu cho 1 trạm giảm tốc độ hay ngừng truyền dữ liệu thông qua việc loại bỏ một phần lưu lượng của trạm đó. Khả năng loại bỏ gói trong cơ chế RED có thể được mô tả ở hình 4.1 Hình 4.1 Thuật toán RED Khi quá trình tắc nghẽn xẩy ra RED bắt đầu làm rớt gói tại tốc độ mà đã được thiết lập trên giao diện đó. Khả năng rớt gói dựa trên cơ sở ngưỡng max, min và “mark probability denominator” . Khi hàng đợi trung bình vợt quá giới hạn min thì quá trình rớt gói bắt đầu xẩy ra. Tốc độ mất gói tăng tuyến tính với tốc độ tăng của hàng minth maxth avg Pmax 1 Drop probability 59 đợi và nó tăng cho tới khi đạt tới ngưỡng tối đa (max). Khi vượt quá ngưỡng này tất cả các gói sẽ bị rớt. Giá trị nghưỡng tối thiểu nên gán đủ lớn để tận dụng tối đa liên kết. Khi giá trị này đặt quá nhỏ có thể phát sinh rớt gói không cần thiết. 4.1.3 Phương pháp loại bỏ cân bằng ngẫu nhiên (WRED) Thuật toán RED không phải lúc nào cũng đảm bảo cho các luồng chia sẻ băng thông một cách cân đối nhau. Trong thực tế, RED không ưu tiên đối với các luồng TCP tốc độ thấp. Điều này là bởi vì RED bỏ ngẫu nhiên các gói khi ngưỡng bị vượt quá. WRED (Weighted Random Early Detection) là phương pháp tránh tắc nghẽn dựa trên việc tổ hợp các thuộc tính của thuật toán RED và ưu tiên IP. WRED có thể lựa chọn loại bỏ lưu lượng có mức ưu tiên thấp khi trên giao diện bắt đầu xẩy ra quá trình tắc nghẽn và cung cấp các đặc tính tiêu chuẩn khác nhau cho các lớp dịch vụ khác nhau. Với các giao diện được cấu hình sử dụng đặc tính giao thức dành sẵn tài nguyên (RSVP), khi quá trình nghẽn xẩy ra WRED ưu tiên các luồng RSVP hơn là các luồng dữ liệu khác trong quá trình loại bỏ gói để tránh tắc nghẽn. Cũng giống như RED trong cơ chế của mình WRED loại bỏ gói một cách ngẫu nhiên, từ đó thông báo tới trạm gốc giảm tốc độ truyền dẫn. Nếu trạm gốc sử dụng TCP, nó sẽ làm giảm tốc độ của chính các gói đó cho tới khi tất cả các gói có thể đến được đích. WRED làm rớt gói dựa trên giá trị ưu tiên IP được gán cho mỗi gói. Các gói có giá trị ưu tiên thấp hơn có khả năng bị làm rớt cao. WRED khắc phục các điểm yếu của cơ chế Tail drop khi đầu ra giao diện có nguy cơ bị tắc nghẽn nó sẽ thực hiện lựa chọn làm mất một số gói thay vì chờ cho tới khi các hàng đợi được làm đầy mới thực hiện quá trình cắt gói. WRED tránh làm mất một lượng lớn các gói trong tại một thời điểm từ đó nó cho phép các đường truyền được sử dụng hữu ích tại mọi thời điểm. 60 WRED tránh được các vấn đề về sự đồng bộ xẩy ra khi sử dụng Tail drop để tránh tắc nghẽn. Sự đồng bộ toàn bộ là quá trình xẩy ra khi nhiều trạm TCP giảm tốc độ truyền dẫn để ngăn cản quá trình mất gói và cùng tăng tốc độ truyền dẫn trở lại khi khả năng tắc nghẽn được giảm đi. Chú ý rằng WRED chỉ hữu ích khi phần lớn lưu lượng là dữ liệu TCP/IP, khi đó các gói bị rớt sẽ phát sinh thông báo nghẽn mạch để từ đó trạm phát giảm tốc độ truyền dẫn của mình. Đối với các gói tin được đóng gói theo một giao thức khác có thể trạm gửi không phát hiện quá trình mất gói xẩy ra, như vậy có thể không ngăn chặn được quá trình nghẽn mạch. Với các dữ liệu mà không thuộc dạng gói IP, WRED coi đó như là dữ liệu có mức ưu tiên thấp nhất, Precedence 0, bởi vậy khả năng bị mất gói của nó là cao hơn các dữ liệu IP. Cơ chế làm việc của WRED được minh trong hình 4.2 Các gói tin đến Hàng đợi Tx Các gói tin ra Kiểm tra loại bỏ dựa trên: Kích thước của bộ nhớ đệm, IP precedence hoặc RSVP Bộ đệm Lập lịch FIFO Kiểm tra loại bỏ Phân lớp Hình 4.2 Cơ chế hoạt động của WRED Router sẽ tự động tính toán các thông số của WRED để xác định cỡ hàng đợi trung bình. Cỡ hàng đợi trung bình được tính trên cơ sở cỡ hàng đợi trung bình trước và cỡ hàng đợi hiện tại. Giá trị của nó được tính theo công thức (5.1) average = (old_average * (1 – 2-n)) + (current_queue_size * 2-n) (5.1) 61 Trong đó: n: là hệ số trọng số và có thể cấu hình được. average: Cỡ hàng đợi trung bình old_average: Cỡ hàng đợi trung bình trước đó current_queue_size: Kích thước hàng đợi hiện tại Chúng ta nên chọn hệ số trọng số cho phù hợp nếu n quá lớn WRED sẽ không tác động để chống tắc nghẽn, các gói tin sẽ được gửi hoặc bị rớt như thể là không được cấu hình WRED, tuy nhiên việc lựa chọn n quá nhỏ WRED sẽ phản ứng mãnh liệu với sự bùng nổ lưu lượng tạm thời và có thể làm mất gói trong khi không thực sự cần thiết. 4.1.4 Tốc độ truy nhập cam kết (CAR) CAR là một cơ cấu giám sát tốc độ cho phép người quản trị mạng đưa ra các biện pháp xử lý để kiểm soát lưu lượng. Do CAR là một cơ chế kiểm soát chứ không phải là cơ chế hàng đợi vì vậy nó không có bộ đệm (buffer) và nó cũng không làm phát sinh trễ có thể cho phép truyền tốc độ cao. 4.1.4.1 Cơ chế hoạt động Khi dữ liệu được gửi đến một giao tiếp, CAR thực hiện việc kiểm tra lưu lượng sau đó so sánh tốc độ của lưu lượng với thông số thùng token “token bucket” và đưa ra hành động tương ứng dựa trên cơ sở kết quả so sánh đó. Ví dụ CAR sẽ làm rớt gói, sửa lại quyền ưu tiên IP hay cài khởi tạo lại các bit ToS. Người quản trị mạng cũng có thể cấu hình CAR để truyền gói, loại bỏ gói hoặc thiết lập quyền ưu tiên (xem hình 4.3). 62 Bộ đo (Meter) Bộ phân lớp (Classifier) Bộ đánh dấu (Marker) Bộ rớt gói (Dropper) Chuyển tiếp gói (Forwarding) Bộ đo (Meter) Bộ phân lớp (Classifier) Bộ đánh dấu (Marker) Bộ rớt gói (Dropper) Hàng đợi (Queuing) Hướng vào (Inbound) Hướng ra (Outbound) Hình 4.3 Sơ đồ khối của CAR Lưu lượng chuyển đến đòi hỏi phải được nhận dạng phù hợp với các đặc tính về tốc độ giới hạn, quyền ưu tiên hoặc cả hai. Cơ sở của việc định nghĩa tốc độ giới hạn dựa trên 3 thông số sau: ƒ Tốc độ trung bình, được xác định là tốc độ truyền dẫn trong một thời gian dài. Đó là lưu lượng luôn dưới mức tốc độ giới hạn cho phép. ƒ Cỡ khối trung bình, xác định lưu lượng lớn cỡ nào trước khi một vài phần lưu lượng vượt quá tốc độ giới h

Các file đính kèm theo tài liệu này:

  • pdfVấn đề chất lượng dịch vụ trong mạng thế hệ mới và triển khai ứng dụng trên hạ tầng mạng của công ty spt.pdf
Tài liệu liên quan