Đề tài Tìm hiểu giải pháp ảo hóa của Vmware và triển khai Data Center trên nền Esx Server

MỤC LỤC TRANG

CHƯƠNG I : TỔNG QUAN 1

1. CƠ SỞ CỦA LUẬN VĂN 1

1.1 . Ảo hóa "chạm ngõ" thị trường Việt Nam 1

1.2. Tình hình phát triển công nghệ ảo hóa ở các nước khác 1

1.3. Tình hình phát triển công nghệ ảo hóa tại Việt Nam 2

2. MỤC TIÊU CỦA LUẬN VĂN 2

3. ĐỐI TƯỢNG VÀ PHẠM VI NGHIÊN CỨU 2

CHƯƠNG II : GIỚI THIỆU VỀ ẢO HÓA 3

1. GIỚI THIỆU VỀ ẢO HÓA 3

2. ĐIỆN TOÁN ĐÁM MÂY 4

3. ẢO HÓA LÀ GÌ ? 6

4. LỊCH SỬ ẢO HÓA 7

5. TẠI SAO ẢO HÓA LẠI QUAN TRỌNG ĐỐI VỚI DOANH NGHIỆP ? 7

5.1 Bốn lý do để ứng dụng ảo hóa 7

5.1.1 Tối ưu hóa công suất sử dụng phần cứng: 7

5.1.2 Nhu cầu ảo hóa dữ liệu: 8

5.1.3 Ứng dụng công nghệ xanh để đạt hiệu quả sử dụng năng lượng tốt hơn: 9

5.1.4 Chi phí quản lý hệ thống rất lớn và ngày càng tăng 10

6. TÌNH HÌNH ẢO HOÁ Ở VIỆT NAM VÀ TRÊN THẾ GIỚI 11

6.1 Tình hình ảo hoá ở Việt Nam 11

6.2 Tình hình ảo hoá ở Nước ngoài 12

7. ẢO HÓA HOẠT ĐỘNG NHƯ THẾ NÀO ? 12

8. PHÂN LOẠI ẢO HÓA 14

8.1 Ảo hoá server 14

8.2 Ảo hoá Storage 15

8.3 Ảo hoá Network 16

8.4 Ảo hoá Application 17

8.5 Các môi trường ảo hóa 19

9. VMWARE GIẢI PHÁP CHO CLOUD COMPUTING 20

9.1 Virtualization & Cloud 20

9.2 VMWARE's Approach 20

CHƯƠNG III: GIỚI THIỆU VÀ TÌM HIỂU VỀ ESX SERVER 22

1. SƠ LƯỢC VỀ CẤU TRÚC ESX SERVER 22

2. SO SÁNH GIỮA COSOLE OPERATING SYSTEM VÀ VMKERNEL 24

2.1. Tổng quan 24

2.2 Console Operating system 24

2.3 VMkernel 26

2.4 The ESX boot process 26

2.5 LILO 27

2.6 Console operating system 27

2.7 INIT 27

2.8 etc/rc.d/rc3.d 28

2.9 S00vmkstart 28

2.10 S10network 29

2.11 S12syslog 29

2.12 S56xinetd 29

2.13 S90VMware 29

2.14 S91httpd.VMWARE 30

2.15 Tại sao ta cần biết quá trình khởi động ? 31

3. ẢO HÓA PHẦN CỨNG 31

3.1. System devices 31

3.2. Processor 32

3.3. Network 32

3.3.1. Vlance 33

3.4. SCSI 34

3.5. Hardware allocation 35

3.5.1. Virtual 35

3.5.2. Console 36

3.5.3. Shared resource 36

3.5.4. Modifying these configurations 37

3.5.4.1. MUI 37

3.5.4.2. Console operating system 38

3.6. Bốn tài nguyên cốt lõi của hệ thống 40

3.6.1. Processor 40

3.6.2. Hyper-threading 41

3.6.3. Symmetrical multi-processing (smp hoặc là virtual-smp) 44

3.6.4. Memory 45

3.6.5. Numa 46

3.6.6. Network 48

3.6.7. Console nic configuration 49

3.6.8. Vmnic configuration 50

3.6.9. Virtual switch 50

3.6.10. Virtual network (vmnet) configuration 51

3.6.11. Storage 53

3.6.12. Virtual disk files for vms 53

3.6.13. VMFS 54

3.6.14. Local storage 55

3.6.14.1 Advantages of using local storage 56

3.6.14.2 Disandvantages of using local storage 56

3.6.15. SAN Storage 56

3.6.15.1 Advantages of using san storage 57

3.6.15.2 Disadvantages of using san storage 57

3.6.16. Other pluggable devices 57

3.6.17. SCSI 58

3.6.17.1 Console operating system scsi device access 58

3.6.17.2 Virtual guest scsi device access 58

3.6.18. PCI 59

3.6.19. USB/firewire 59

3.6.20. Pararel/serial 60

3.6.21.1 Configuring parallrel ports 60

3.6.21.2 Configuring serial port 61

3.7 Resource sharing 62

3.7.1 Processor 62

3.7.2 Processor share allocation 63

3.7.3 Specifying min/max percentages 64

3.7.4 Combination of min/max and share allocation 65

3.7.5 Affinity 67

3.8 Memory 67

3.8.1 Transparent page sharing 68

3.8.2 Ballooning 68

3.8.3 Paging 69

3.9 Network 70

3.10 Disk 71

4. VMWAREESX IMPLEMENTATION 72

4.1 ESX Server Hardware 72

4.1.1 ESX Server Memory Usage 73

4.1.1.1 Operating Systems Being Hosted 73

4.1.1.2 Console OS Memory Requirements 74

4.1.2 ESX Server Hard Drive Usage 74

4.1.2.1 Local VMWARE Partitions 78

4.1.3 ESX Server Network Connectivity 79

4.1.3.1 Console NIC Configuration 80

4.1.3.2 Virtual NIC (VMNIC) Configuration 80

5. HƯỚNG DẪN CÀI ĐẶT ESX 4.0 81

5.1 System requirements 81

5.2 Processor (64-bit) 81

5.3 RAM 81

5.4 Network adapters 81

5.5 SCSI adapter, fibre channel adapter, or internal raid controller 81

5.6 Installation and storage 82

5.7 Recommendations for enhanced ESX performance 83

5.8 Tested software and firmware for creating ESX installation media 84

5.8.1 Danh sách thử nghiệm và kết hợp cho việc ghi các file ISO vào DVD để phục vụ cho việc cài đặt ESX. 84

5.8.2 Danh sách thử nghiệm và kết hợp 84

5.9 vCenter server and the vSphere Client hardware requirements 85

5.9.1 Minimum requirements for vcenter server 85

5.9.2 Minimum requirements for the vsphere client 86

5.10 32 bit or 64-bit operating system for vcenter server 86

5.10.1 Recommendations for optimal performance 86

5.10.2 Requirements for installing vcenter server on a custom drive 87

5.11 vCenter server software requirements 87

5.12 vSphere client software requirements 88

5.13 Support for 64-bit guest operating systems 88

5.14 Requirements for creating virtual machines 88

5.15 Required ports 89

5.16 Rupported remote management firmware versions 90

5.17 Hướng đãn cài đặt ESX 91

5.18 Những điều kiện để cài đặtESX 91

5.19 Thông tin về ESX console.vmdk 92

5.20 Các tùy chọn cho việc truy cập cài dặt, installation media, booting installer và running installer. 92

5.21 Các tùy chọn cài dặt ESX 93

5.19 InstallingVMWAREESX 95

5.19.1 Install ESX using the graphical mode 96

5.19.2 Install ESX using the text mode 102

5.20 ESX partitioning 107

5.21 required partitions 108

5.23 Post-installation considerations for ESX 110

5.23.1 Download the vsphere client 110

5.23.2 Licensing the host 111

5.23.3 Set an ESX/ESXi host to evaluation mode 111

CHƯƠNG IV: TRIỂN KHAI HỆ THỐNG DATACENTER 112

1. MÔ HÌNH TRIỂN KHAI HỆ THỐNG 112

2.TRIỂN KHAI ESX VÀ DNS SERVER 113

2.1.Cài đặt và cấu hình DNS 113

2.2 Cài đặt ESX4.0: 114

3. TRIỂN KHAI VSPHERE CLIENT 128

3.1 Cài đặt vSphere Client: 128

3.2. Tạo VM mới trên ESX 131

4.TRIỂN KHAI VCENTER SERVER 146

4.1 Cài đặt vCenter server 146

4.2.Làm việc với vCenter: 151

4.2.1 Connect vào vCenter: 151

4.2.2 Tạo datacenter, cluster, và add host vào Cluster 153

5.TRIỂN KHAI SAN 160

5.1.Cài đặt Openfiler 160

5.2Cấu hình Openfiler 171

6.CẤU HÌNH ĐỂ ESX CÓ THỂ SỬ DỤNG Ổ ĐĨA LUN VÀ TRIỂN KHAI VMOTION 179

6.1.Cấu hình dvSwitch 179

6.2 Cấu hình cho ESX để có thể sử dụng ổ đĩa SAN 190

HƯỚNG MỞ RỘNG CỦA LUẬN VĂN 201

KẾT LUẬN 201

TÀI LIỆU THAM KHẢO 202

PHỤ LỤC : SO SÁNH GIỮA ESX 4 CỦA VMWARE VÀ HYPER-V CỦA MICROSOFT: 203

 

 

doc223 trang | Chia sẻ: netpro | Lượt xem: 6690 | Lượt tải: 1download
Bạn đang xem trước 20 trang tài liệu Đề tài Tìm hiểu giải pháp ảo hóa của Vmware và triển khai Data Center trên nền Esx Server, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
việc lưu trữ tại cục bộ ( tùy thuộc vào cấu hình của SAN ) Other pluggable devices Ngoài bốn tài nguyên cốt lõi, ESX cũng có một số phần cứng khác như “pluggable”. Các thành phần này có thể dễ dàng thêm hoặc bỏ khỏi phần cứng vật lý thông qua các kết nối từ bên ngoài vào. Trong khi COS có thể phát hiện và vận hành rất tốt các thiết bị này thì một phần lớn trong số chúng sẽ không hoạt động trên các Guest OS đang chạy trên máy chủ lưu trữ. Điều này là do có một số trình điều khiển đặc biệt chưa được viết và biên dịch vào trong VMkernel. Việc bổ xung và hỗ trợ thêm nhiều trình điều khiển cho nhiều phần cứng thì chi phí ảo hóa sẽ thấp hơn sẽ mang tính cạnh tranh hơn. SCSI SCSI là một trong các chuẩn thiết bị tương thích với cả COS và cả các Guest OS đang chạy trên máy chủ lưu trữ. VMkernel cung cấp sự hỗ trợ pass-through cho các thiết bị SCSI nó có thể thêm vào các tape-backup và các ổ cứng vật lý. Console operating system scsi device access Như ta đã thấy những phần đề cập trước đó trong chương này, có ba cách khác nhau để cấu hình các thiết bị cho việc truy cập vào các Host và Guest (dành riêng cho các COS, dành riêng cho các VMkernel hoặc là chia sẽ giữa 2 cái ). Bằng cách chọn lựa một bộ điều khiển SCSI đó có thể là một đĩa cứng vật lý cụ thể nào đó hoặc là một thiết bị tape-backup kết nối vào các service thông qua cổng console và ta chỉ có thể truy cập vào thiết bị này thông qua COS. Điều quan trọng cần phải nhớ nữa là việc chọn lựa các thiết lập cho bộ điều khiển SCSI sẽ không bao gồm các thiết bị đi kèm theo nó. Nếu việc điều khiển chỉ dành cho duy nhất một service console thì tất cả các thiết bị đi kèm theo nó chỉ có thể truy cập thông qua COS. Trong trường hợp thiết bị cần cấu hình là một ổ cứng vật lý thì ta có thể cấu hình cho phân vùng ext3 để bổ xung cho không gian lưu trữ của máy chủ. Virtual guest scsi device access Ngoài việc hỗ trợ cho việc cấu hình các thiết bị SCSI của COS, ESX cũng hỗ trợ cho phép ta bỏ qua các thiết bị SCSI trực tiếp thông qua Guest OS. Do việc hạn chế về mặt kiến trúc của SCSI, mỗi thiết bị SCSI chỉ có thể được cấu hình trên một Guest tại một thời điểm. Để cấu hình một Guest truy cập vào tài nguyên của một thiết bị SCSI nào đó của máy chủ lưu trữ thì các adapter SCSI yêu cầu các thiết bị khác kết nối đến phải được cấu hình cho việc truy cập trên mỗi máy ảo hoặc là chia sẻ truy cập. Theo khuyến cáo của VMWARE thì nên cấu hình cho thiết bị SCSI chính là cho nó quyền truy cập chia sẻ. Cấu hình cho một Guest sử dụng một thiết bị SCSI kèm theo có thể thực hiện bằng cách sử dụng nút “ Add hardware ” cho các máy ảo đích. Sau khi chọn đính kèm một “ Generic SCSI Device ” một danh sách các thiệt bị tương thích với nó sẽ được liệt kê ra. Sau khi ta chọn một thiết bị từ trong danh sách này thì nó sẽ trở thành một thiết bị sẵn có của một máy ảo khi máy ảo này được cấp trở lại. Nên nhớ phần cứng chỉ có thể được cấu hình khi và chỉ khi máy ảo đã được tắt. PCI PCI là một thiết bị nằm trong ESX và được hỗ trợ một cách rất hạn chế. Bởi khi xem hướng dẫn về các thiết bị I/O tương thích trên ESX ta chỉ thấy được có Network, SCSI, Fiber Adapters. Thiết bị phổ biến sau PCI card là Card Brouktrout Fax cũng không được hỗ trợ. Lý do chính của việc này là do việc Driver có hỗ trợ hay không. Không chỉ có cấp độ Linux mới yêu cầu trình điều khiển.hầu hết các trình điều khiển của ESX cũng cần phải được ghi đúng để có thể cho phép các Guest truy cập đến các tài nguyên. USB/firewire ESX có hỗ trợ các thiết bị USB nhưng chỉ hỗ trợ ở cấp độ COS. Hiện tại đã có một số chức năng giúp cho các thiết bị USB có thể pass-through đến các Guest OS. Đối với chức này thì các thiết bị về mạng được giao tiếp qua cổng USB thì được đánh giá khá tốt trong cộng động VMWARE và nó tương thích với tất cả các Guest OS. COS và VMkernel thì không hỗ trợ Firewire. Pararel/serial Máy ảo chạy trong ESX có thể được cho phép truy cập trực tiếp đến cổng parallrel và serial port của hệ điều hành máy chủ. Có một số giới hạn cần phải biết trước khi thử cấu hình bằng ánh xạ (mapping ). Thứ nhất, một Guest chỉ có thể được truy cập vào một cổng duy nhất tại một thời điểm. Mỗi Guest chỉ có thể truy cập một cổng parallrel và hai cổng Serial. Thứ 2 không thể cấu hình các thiết bị này bằng MUI. Cách duy nhất để cấu hình chúng là chỉnh sửa các tập tin cấu hình bằng COS. VMWARE cung cấp sự hỗ trợ cho các serial modem mở rộng và các parallrel dongles mở rộng cho các ứng dụng nhất định. Configuring parallrel ports Cổng parallrel sẽ khó cấu hình hơn cổng serial bởi vì trước tiên ta phải cấu hình đúng COS để nó có thể nhận ra Pararell port vì nó không được kích hoạt mặc định. Trước khi thử cấu hình cổng parallrel ta phải đảm bảo được rằng cổng đó được cài đặt đúng trong BIOS. Ta phải chắc chắn rằng chế độ parallrel port trong BIOS phải được thiết lập cho PS/2 hoặc Bi-directional. Dưới đây là một điển hình cài đặt trong hầu hết các system. Khi hoàn chỉnh ta phải thêm ba dòng cuối vào file / etc / rc.d / rc.local : /sbin/insmod parport /sbin/insmod parport_pc /sbin/insmod ppdev Những dòng này sẽ tải các trình điều khiển vào COS khi được yêu cầu cho việc sử dụng các cổng parallrel. Các thiết lập này sẽ có hiệu lực ngay khi khởi động lại. Ta có thể yêu cầu nó có hiệu lực ngay tức thì bằng cách cho thêm 3 dòng vào mỗi câu lệnh. Một khi các trình điều khiển đã được nạp đúng (có thể xác minh bằng dòng lênh “insmod”) ta có thể chỉnh sửa các file vmxGuest cần thiết để truy cập vào các cổng parallrel. Shutdown Guest và thêm những dòng sau vào tập tin vmx của nó: parallel0.present = “true” parallel0.fileName = “/dev/parport0” parallel0.bidirectional = “true” parallel0.startConnected = “true” Khi hệ thống được PowerOn, nó sẽ có quyền truy cập vào các cổng parallrel của hệ thống. Configuring serial port Cấu hình các port serial rất giống với việc cấu hình các parallrel port. Sự khác biệt chính là COS đã được cấu hình cho việc truy cập. Sau khi PowerOff máy ảo thì thêm những dòng sau đây vào file vmx của nó: serial0.present = “true” serial0.fileType = “device” serial0.fileName = “/dev/ttyS0” serial0.startConnected = “true” Khi máy ảo được power on,thì các cổng serial được mapping sẽ được gán cho nó với cái tên COM1 với các Guest OS. Để cấu hình một cổng thứ 2 thì dùng những dòng như ở trên. Cổng thứ 2 sau khi được cấu hình sẽ được gán là cổng COM2. Resource sharing Lợi ích của việc sử dụng ESX hơn bất kỳ sản phẩm nào khác là việc cho phép hệ thống tự động chia sẻ tài nguyên. Kể từ khi VMkernel được chạy trên ở phần top của việc điều khiển phần cứng, họ đã đưa ra mức độ linh hoạt cao cho việc chia sẽ tài nguyên trên nhiều Guest. VMWARE cũng cung cấp cho ta một số cách cấu hình chia sẻ tài nguyên trên một nền tảng cực kỳ linh động. Ở đây đề cập đến việc sử dụng tối đa bốn tài nguyên cốt lõi mà ESX cho phép: Processor VMkernel được thiết kế để có thể tương tác với các bộ vi xử lý ở mức độ cao nhất, nó cho phép ESX chuyển các tài nguyên của tầng trên (vô hình) để chạy các máy ảo. Nếu bạn có 3 máy ảo đang chạy ở chế độ chờ giống như một máy đang xử lý tài liệu vậy. ESX sẽ tạm thời chuyển các tài nguyên cho các máy chủ để phục vụ cho nhu cầu trước mắt. Nếu quá trình xử lý xảy ra trên một máy chủ đang có nhu cầu xử lý ít thì các tài nguyên cần thiết ban đầu sẽ được trả lại cho các máy ảo để có thể chạy các ứng dụng mới với hiệu quả cao. Nói chung, có một nguyên tắc nhỏ là chỉ nên phân bổ 4 bộ vi xử lý ảo trên một bộ vi xử lý vật lý, cũng có một số trường hợp phân bổ đến 5 hoặc 6 bộ vi xử lý ảo nhưng khuyến cáo vẫn là 4 đó là điều cần biết khi thiết lập bộ vi xử lý cho mỗi máy ảo. ESX không có một giới hạn về hard coded nào của 80 bộ vi xử lý ảo có thể được gán cho bất kỳ máy chủ lưu trữ duy nhất nào. Với những hệ thống lớn hơn có từ 8 đến 16 host thì hạn chế này cần được quan tâm trong suốt quá trình thiết kế xử lý. Điều này có thể được chia nhỏ thành bất kỳ con số nào của việc pha trộn giữa single hoặc là Dual Processcor đối với các máy ảo. ESX cũng cung cấp một số cơ chế tự điều chỉnh cho bộ xử lý được chỉ định. Điều này có thể hữu ích khi một hệ thống đòi hỏi sự ưu tiên cao hơn so với một số hệ thống khác. Chẳng hạn như một máy chủ cơ sở dữ liệu xử lý các giao dịch giữa các ứng dụng trên cùng một máy chủ lưu trữ. Processor share allocation Một trong những cách dễ dàng nhất để chỉnh sữa việc phân bổ các processor trong ESX là sử dụng shares. Shares là một cơ chế để có thể phân bổ nguồn tài nguyên một cách tương đối đến các máy ảo chạy trong cùng một máy chủ cụ thể nào đó và nó cũng được sử dụng trong một số trường hợp khác. Sử dụng phương pháp này ta có thể gán quyền ưu tiên cho các Guest khi một Host bị hạn chế về các chu trình xử lý. Khi ta thêm nhiều Server ảo vào trong một Host thì tổng số shares sẽ tăng lên và tỷ lệ phần trăm của tổng số shares sẽ của một Guest đặc biệt nào đó sẽ giảm xuống. Một máy chủ có đến 1000 shares cùng lúc thì sẽ được ưu tiên hơn về CPU so với một máy chủ chỉ có 500 shares. Nhược điểm của phương pháp này là với mỗi Guest ảo được tạo ra thì việc phân bổ cho các máy hiện đang hoạt động sẽ giảm và sẽ giảm hiệu suất hoạt động của chúng khi hệ thống máy chủ lưu trữ nhỏ nhưng phải tải nặng. Hình : Processor share allocation Một thực tế cần lưu ý là các giá trị share sẽ không hoạt động cùng với ESX cho đến khi hệ thống có đủ khả năng để xử lý và các nguồn tài nguyên sẵn có được sử dụng và VMkernel sẽ đưa các nguồn tài nguyên này đến các Guest nếu được yêu cầu. Một trong những lợi ích mang lại là nó tối ưu hóa phần cứng cho máy chủ ESX. Specifying min/max percentages Trong ESX ta có thể chỉ định tỷ lệ phần trăm giá trị tối thiểu và/hoặc tối đa cho các nguồn tài nguyên xử lý của một máy ảo. Bằng cách đặt tỷ lệ phần trăm tối thiểu, ta sẽ quy định cho các máy ảo không được xuống dưới mức phần trăm tối thiểu mà ta đã quy định của một bộ xử lý máy chủ duy nhất. Điều nãy sẽ rất hữu ích nếu một ứng dụng với bộ xử lý chuyên sâu đòi hỏi một ít tài nguyên để có thể chạy với hiệu suất ổn định. Khi gán các giá trị này, ta phải cẩn thận trong việc phân bổ tài nguyên. Nếu ta quy định 8 máy ảo chạy với hiệu suất tối thiểu là 30% trong cùng một máy chủ với bộ xử lý kép, thì ta chỉ có thể bật được 6 máy mà thôi, giống như 3 máy chủ trên mỗi bộ vi xử lý sẽ sử dụng hết 90% tài nguyên có sẵn. Giá trị tối đa thì ngược với giá trị thấp nhất (Minimum và\hoặc Maximum) Nó sẽ quy định mức tối đa cho phép trên mỗi máy ảo. Điều này được sử dụng trong một số tình huống. Ví dụ như một ứng dụng sử dụng quá nhiều nguồn tài nguyên mà một máy chủ có thể dành cho nó. Bằng cách thiết lập giá trị này, ta sẽ cho ESX biết được tỷ lệ phần trăm được phân bố của một CPU cấp cho một máy ảo và sẽ được bảo vệ khỏi sự tác động đến từ các máy ảo khác chạy trên cùng một Host. Nếu ta đang sử dụng tùy chọn SMP ảo thì ta có thể gán một giá trị lên đến 200% - sự kết hợp của tỷ lệ phần trăm tối đa được gán trên mỗi CPU. Ví dụ: với một giá trị 140% thì mỗi CPU gán cho máy ảo chỉ có thể sử dụng đến 70% mà thôi. Gán một giá trị maximum cho một Guest OS chưa ổn định sẽ ngăn không cho nó tiêu thụ vượt định mức đối với các tài nguyên. Điều này mang lại một môi trường hoạt động ổn định hơn trong một hệ thống. Việc thiết lập các giá trị Minimum hoặc là Maximum là hoàn toàn độc lập với nhau. Ta có thể chọn Minimum hoặc Maximum hoặc cũng có thể là cả hai nếu cần thiết. Không cần phải cài đặt bất kỳ giá trị nào cho phép VMWARE có toàn quyền kiểm soát việc phân bố bộ xử lý cho các máy ảo. Combination of min/max and share allocation Một trong những cách phân bổ tài nguyên hay nhất của các Guest thì việc sử dụng sự kết hợp chia sẽ về thông số kỹ thuật giữa min/max. Trước khi đi vào phần lý thuyết này chúng ta cần phải cân nhắc và phân tích thật kỹ trước khi thay đổi bất cứ giá trị nào hay việc cài đặt không đúng có thể ảnh hưởng đến tính toàn vẹn của hệ thống. Ví dụ như hình bên dưới: Mặc dù Guest 1 có tỷ lệ tối thiểu thấp hơn nhưng nó sẽ được ưu tiên từ việc chia sẻ các tài nguyên chưa sử dụng với một tỷ lệ 4:01 trên Guest 2 và 2:01 trên Guest 3. Điều này sẽ rất hữu ích nếu Guest 1 được cấp một nguồn tài nguyên hệ thống lớn hơn Guest 2 và 3 khi việc bổ sung chia sẽ (share) đã sẵn sàng. Với Guest 2 và 3 có tỉ lệ phần trăm minimum CPU cao và với một chu kỳ làm việc đã sẵn sàng thì nó sẽ giúp nâng cao hiệu suất làm việc trên Guest 1 trong suốt thời gian nó luôn hoạt động ở mức cao nhất. Cho đến khi có sự kết hợp giữa các bộ vi xử lý thì hệ thống sẽ chạy ở mức maximum mà nó cho phép. Sau khi tài nguyên có phần bị hạn chế, ESX sẽ bắt đầu loại bỏ chu trình đó từ Guest với giá trị share thấp nhất có thể nhằm mang đến cho chúng sự cân bằng tốt nhất về hiệu suất dựa trên phần tủy chỉnh cấu hình. Dựa trên biểu đồ trên, rõ ràng Guest 1 có ảnh hưởng nhất trong chu trình làm việc này dó nó có tỷ lệ phần trăm Maximum CPU thấp nhất và giá trị chia sẽ cao nhất. Các thiết lập này chỉ được thực hiện sau khi đã phân tích kỹ càng khả năng sử dụng tài nguyên của từng máy ảo trên hệ thống. Trong mô hình đơn giản chỉ có 3 máy ảo nhưng đã cho thấy sự khó khăn trong kiểu quản lý tài nguyên như thế này. Affinity Ngoài việc thiết lập các quy định mức sử dụng tài nguyên Maximum/Minimum đã được đề cập ở trên thì ta cũng có thể chỉ định bộ vi xử lý vật lý cho các máy ảo sử dụng. Điều này cho phép ta điều khiển hoàn toàn bộ xử lý của máy ảo. Ta có thể định mức sử dụng tối thiểu cho mỗi máy ảo trong việc sử dụng bộ xử lý và còn được ưu tiên trong việc tiếp nhận bổ xung, ta cũng có thể chỉ định việc xử lý chính xác trong việc cung cấp các nguồn tài nguyên. Sử dụng phương pháp này ta sẽ có toàn quyền điều khiển các kiến trúc hạ tầng, đảm bảo rằng mỗi máy ảo sẽ có một nguồn tài nguyên ổn định và sẽ không cạnh tranh với các ứng dụng quan trọng khác. Affinity Processor sẽ không giới hạn một quy định cụ thể nào cho bất kỳ một bộ vi xử lý duy nhất nào. Bằng cách chỉ định một nhóm bộ vi xử lý, ta có thể nói ESX được phép phân bổ các tài nguyên chỉ từ một bộ vi xử lý được lựa chọn trước đó và các bộ vi xử lý còn lại thì không thể truy cập vào các máy ảo. Memory Giống như các nguồn tài nguyên đang được xử lý khác, ESX có khả năng tự động tối ưu hóa hiệu suất bởi một số kỹ thuật: Transparent page sharing, Ballooning và Swapping. Kỹ thuật này cho phép bộ nhớ của Host có thể được chỉ định vượt mức, có nghĩa là ta có thể gán bộ nhớ nhiều hơn cho một máy ảo được chưa trong một Host vật lý. Các kỹ sư của VMWARE khuyến cáo nên sử dụng giải pháp Transparent page sharing và Ballooning cho các system production, còn Swapping có thể được sử dụng cho việc phát triển và tối ưu hóa các Host và cho phép lưu trữ được nhiều Guest hơn. Transparent page sharing Khi một Guest OS được load, sẽ có một số page trong không gian bộ nhớ sẽ nằm ở trạng thái tĩnh và có chứa một số page thông dụng mà ta có thể tìm thấy trên một số hệ điều hành tương tự. Cũng giống như nói về các ứng dụng chạy trên hệ điều hành. Các bảng transparent page cung cấp một cơ chế để chia sẽ không gian bộ nhớ này trong một số hệ điều hành ảo. Bằng cách mapping một số page ảo giống với các page vật lý, các Guest sử dụng các page giống nhau trong một không gian bộ nhớ page của máy và có thể chia sẽ các tài nguyên này với nhau. Điều này cho phép hệ thống có thể tối ưu bộ nhớ cho các chỉ định vượt mức mà không hề ảnh hưởng đến bất kỳ Guest nào. Ballooning Khi việc cấp phát bộ nhớ có hiệu lực, VMWARE cung cấp một cơ chế để ngăn chặn các máy ảo không được sử dụng các tài nguyên bộ nhớ đã được tích trữ. Điều này có thể thực hiện bằng cách sử dụng một quá trình gọi là khôi phục bộ nhớ gọi là “ Ballooning ”. Ballooning là một thành phần của driver vmmemctl trên hệ điều hành ảo dùng để giao tiếp với VMkernel. Driver này mô phỏng sự tăng lên hoặc giảm xuống của bộ nhớ trên Guest OS và thúc đẩy các page trong không gian bộ nhớ chuyển đổi để đặt nó vào các tập tin chuyển đổi tại cục bộ. Driver này có một chút khác biệt với phương thức chuyển đổi tập tin của VMWARE giống như việc nó buộc hệ điều hành phải xác định rõ bộ nhớ đó là những gì nó làm đối với các page. Một khi bộ nhớ đã là một page trên Guest OS thì những phần còn trống của bộ nhớ vật lý sẽ được phân bổ đến các Guest khác. Khi các máy chủ lưu trữ ESX cảm thấy nhu cầu bộ nhớ đã giảm thì nó sẽ hướng dẫn vmmemctlnhằm “ deflate ” các balloon và giảm áp lực lên các hệ điều hành đối với các page memory. Nếu trình điều khiển vmmemctlkhông được cài đặt hoặc chạy trực tiếp trên Guest, VMWARE sẽ có một chuẩn nhằm trao đổi và sử dụng các tập tin đó. Số lượng bộ nhớ được khai thác từ một Guest có thể được cấu hình bằng cách sửa đổi các tùy chọn cao cấp trong: " Sched.mem.maxmemctl " Paging ESX có tập tin ứng dụng trao đổi riêng. File này độc lập với cả COS lẫn các File page cài đặt trong phạm vi Guest OS ảo. VMWARE có một khuyến nghị rằng khi thiết lập khả năng trao đổi các tập tin thì phải thiết lập làm sao cho tổng số lượng bộ nhớ phải được phân bổ đến cho tất cả các máy ảo. Điều này cho phép phân bổ tài nguyên lên đến 100% bằng cách sử dụng paging. Mặc dù điều này không được khuyến khích giống như việc một số lượng lớn các paging của dữ liệu đòi hỏi phải bổ xung tài nguyên CPU và nó có xu hướng tác động một cách tiêu cực lên trên Host. Khi một hệ thống ESX được chỉ định vượt mức, nó sẽ có một danh sách bộ nhớ của Guest nào thường xuyên được sử dụng và đưa chúng vào các tập tin chuyển đổi. Nếu VMWARE đòi hỏi tài nguyên thì nó sẽ lấy bộ nhớ từ nơi trao đổi và mang nó trở lại vào bộ nhớ cục bộ. Nó có thể hữu ích trong một môi trường phát triển, nơi diễn ra paging sẽ có ít tác động hơn đến các giải pháp nhưng không nên đưa nó vào giải pháp cho một system production. Network Mỗi một máy ảo được cấu hình trong môi trường chia sẽ ESX và kết hợp với băng thông của virtual switch. Trong cấu hình mặc định của nó, ESX đưa ra sự hạn chế về mặt cân bằng tải trên mỗi kết nối vật lý của virtual switch. Nếu ta chỉ có một bộ chuyển đổi vật lý để tạo ra một virtual switch thì ta sẽ không thể đạt được bất kỳ một lợi ích nào từ việc cân bằng tải. Mỗi một NIC ảo gán cho một máy ảo sẽ được gán cho một địa chỉa MAC ảo. ESX cung cấp một phương pháp duy nhất cho việc điều chỉnh băng thông mạng. VMWARE cung cấp các module nfshaperđể VMkernel có thể kiểm soát băng thông bên ngoài dựa trên cơ sở cho mỗi Guest. Module này chỉ giới hạn băng thông đi ra ngoài chứ không kiểm soát lưu lượng nhận bởi hệ thống. Do module này chưa được phổ biến lắm nên ta vẫn phải cấu hình dung lượng băng thông ra ngoài trên mỗi máy ảo mà ta muốn điều tiết. Điều này thật sự hữu ích nếu như một số giới hạn của bộ chuyển đổi vật lý trong một hệ thống được cấu hình với độ truyền thông tin trên băng thông thấp. Một máy chủ đòi hỏi nhiều băng thông mạng thì nó sẽ sử dụng tất cả các tài nguyên đã được cấp và hạn chế các Guest truy cập vào nguồn tài nguyên mạng khi nó cần. Module nfshaper có thể được cấu hình bằng cách dụng MUI. Sau khi đăng nhập vào MUI, mở properties của Guest lên, chuyển đến tab “ Network ”. Trong cột bên phải, bấm vào nút Edit sẽ có một số tùy chọn sau: Enable traffic shaping: Lựa chọn này cho phép vô hiệu hóa module nfshaper. Average Bandwidth: Điều này cho phép duy trì băng thông ở mức ổn định cho các Guest. Nên nhớ điều này chỉ giới hạn băng thông đi ra ngoài, chứ không kiểm soát thông tin mà Guest nhận vào trong. Peak bandwidth:Lựa chọn này quy định băng thông tối đa có thể đi qua bởi các module nfshaper. Băng thông vào lúc cao điểm thường được cấu hình để tăng gấp đôi giá trị trung bình của băng thông. Brust size:Là số lượng dữ liệu của hệ thống phải gửi trong khi vấp phải băng thông đang lúc cao điểm. Nếu việc tràn băng thông xảy ra, thì các trình điều khiển nfshaper sẽ tự động giảm băng thông xuống dưới mức cao điểm. Giá trị trong mục này nên để bằng 15% mức băng thông trung bình. Disk Giống như tài nguyên về bộ xử lý và bộ nhớ, VMkernel cũng cung cấp một chính sách chia sẽ cơ bản để truy cập đến các ổ đĩa (lưu ý ở đây ta chỉ nói đến việc truy cập ổ đĩa chứ không nói đến không gian lưu trữ của ổ đĩa). Cách xác định ESX truy cập đến tài nguyên đĩa bằng cách giám sát những gì mà VMWARE gọi là “Đơn vị tiêu thụ (Consumption Unit)”. Mỗi một lệnh SCSI đưa ra cho một tài nguyên đĩa sử dụng Consumption Unit. Tùy thuộc vào yêu cầu số lượng dữ liệu di chuyển mà Consumption Unit sẽ được bổ xung cho các Guest. Khi lựa chọn các giá trị mặc định được cung cấp bởi VMWARE các giá trị sau được sử dụng: Low = 500, average = 1000, Hight = 2000. VMWAREESX IMPLEMENTATION Bây giờ chúng ta hiểu về cách làm việc của ESX Server.Ở phần này sẽ tập trung vào các lựa chọn phần cứng, thiết kế phần cứng, và cài đặt ESX trong môi trường của chúng ta . Trong chương này, chúng ta sẽ xem xét các yếu tố khác nhau ảnh hưởng đến mức độ thực thi của máy chủ ESX. Sau đó, chúng ta sẽ kiểm tra thực tế trên các máy chủ để chúng ta có thể tạo ra chiến lược của riêng chúng ta . Cuối cùng, chúng ta sẽ đi qua một tiến trình cài đặt cơ bản của ESX và mô tả các tùy chọn cấu hình sẵn cho chúng ta . ESX Server Hardware Định cỡ kích thước server trong môi trường ESX là một điều khá quan trọng hơn là việc định cỡ server trong môi trường truyền thống. Kể từ các máy chủ ESX sẽ có khách truy cập đồng thời nhiều tài nguyên ESX server, phần cứng các máy chủ tiêu chuẩn có xu hướng được đẩy mạnh nhiều hơn nữa. Chúng ta phải Chiến lược Để có thể có cái nhìn chính xác hơn trong việc xác địnhcấu hình cho các server của chúng ta một cách đầy đủ, nó có giá trị như thế nào trong việc kiểm tra định cỡ các server làm việc trong môi trường ESX .Để làm được điều này, ta sẽ tập trung vào từng thành phần phần cứng máy server và cách thức chúng ảnh hưởng đến môi trường ảo. VMWAREESX Server có một danh sách phần cứng tương thích rất nghiêm ngặt. Không giống như một số hệ điều hành, chúng ta không thể chạy ESX thành công trên phần cứng mà nó không có trong danh sách tương thích phần cứng của ESX. Ở điểm này chúng ta thường nghe một lập luận rằng ESX thực sự là một Redhat,chúng ta có thể lấy nó để làm việc..Với ESX thì đơn giản là điều đó không đúng, ESX Server Memory Usage Khi ước tính số lượng memory cần sử dụng trong một ESX,điều quan trọng là không chỉ cho phép ta điều khiển memory, mà nó còn cho phép chia sẻ memory với các Guest OS. Mỗi máy ảo trên máy chủ ESX của chúng ta ( Khi bật nguồn) sẽ sử dụng một phần memory ảo được chia sẻ. Số lượng của "memory vật lý thực sự" trong việc sử dụng sẽ phụ thuộc vào một số yếu tố. Nếu ESX Server có một mô hình hoàn toàn bằng phẳng, không có việc chia sẻ memory giữa các máy ảo thì việc tính toán sẽ được đơn giản hơn.Chúng ta sẽ cần phải mua đủ số lượng memory vật lý cho mỗi máy chủ lưu trữ để có thể cung cấp cho mỗi máy ảo với số lượng memory mà chúng ta muốn gán cho nó. Tuy nhiên kể từ khi mô hình memory ESXcó sự chia sẻ tài nguyên thì điều quan trọng là chúng ta thực hiện việc này tùy theo tình hình nhu cầu thực tế của chúng ta . Ngoài việc chia sẻ memory, chúng ta cũng nên nhìn vào các loại máy ảo màchúng ta sẽ được lưu trữ.Chúng ta nên tạo một danh sách các loại của hệ điều hành, môi trường của chúng (Prod, dev etc), và số lượng chung của memory chúng ta muốn gán cho các máy ảo. Operating Systems Being Hosted Rõ ràng là các loại hệ điều hành đang được lưu trữ trên máy sẽ có tác động lớn đến việc thiết kế memory cho máy chủ ESX. Memory yêu cầu cho các máy chủ Windows 2003 Server khách là cao hơn nhiều so với yêu cầu về lưu trữ máy chủ Windows XP. Ngoài ra nếu các máy ảo chạy cùng một hệ điều hành thì sẽ tận dụng tốt hơn trong việc chia sẽ memory trong ESX. Console OS Memory Requirements Khi cài đặt ESX chúng ta sẽ được hỏi cần bao nhiêu lượng memory mà chúng ta muốn chỉ định cho các hoạt động điều khiển hệ thống. VMWARE cho phép chúng ta lựa chọn một số máy ảo mà host sẽ hỗ trợ và dựa trên con số đó lựa chọn số lượng thích hợp của memory. Bảng dưới đây cho thấy các khuyến nghị của VMWARE Console OS hiện tại: Console Memory Number of VMs 192M Up to 8 Virtual Machines 272M Up to 16 Virtual Machines 384M Up to 32 Virtual Machines 512M More than 32 Virtual Machines Như ta có thể thấy, nếu số lượng máy ảo tăng thì số lượng memory yêu cầu của máy chủ ESX tăng. Vì vậy VMWARE đã tìm ra các thiết lập memory khá thích hợp cho các Console. ESX Server Hard Drive Usage Trong hầu hết các môi trường ESX Server cấu hình ổ cứng sẽ phụ thuộc vào chiến lược lưu trữ được đề ra bởi công ty chúng ta. Việc cấu hình ổ cứng cho host ESX sẽ có sự khác biệt nếu chúng ta có kế hoạch sử dụng SAN cho việc lưu trữ VMDK files,thay vì lưu trữ local Kể từ phiên bản 2.5 của ESX, VMWARE giới thiệu tính năng khởi động từ SAN. Tính năng này bây giờ đã được khá nhiều tổ chức thực hiện cho Blade server. Lưu trữ trên SAN thường là đắt tiền hơn so với lưu trữ local mà việc sử dụng SAN cho các hệ điều hành trên một ESX server là khá vô ích. Thông thường các tập tin VMDK được lưu trữ trên một SAN và những thứ duy nhất mà được lưu trữ tại local là Console OS và các file cấu hình VM. Hầu hết đều cấu hình từ hai hoặc ba ổ đĩa dùng chuẩn RAID 1 hoặc 5.Kích thước của ổ đĩa

Các file đính kèm theo tài liệu này:

  • docTìm hiểu giải pháp ảo hóa của vmware & triển khai data center trên nền esx server.doc
Tài liệu liên quan