Luận án Nghiên cứu tác động của công nghệ thông tin đến các yếu tố cấu thành năng lực cạnh tranh của các doanh nghiệp tại thành phố Cần Thơ

CHưƠNG 1:GIỚI THIỆU ĐỀ TÀI NGHIÊN CỨU. 1

1.1 ĐẶT VẤN ĐỀ VÀ SỰ CẦN THIẾT . 1

1.1.1 Đặt vấn đề . 1

1.1.2 Sự cần thiết của nghiên cứu . 3

1.1.3 Tính mới của luận án . 5

1.2 MỤC TIÊU NGHIÊN CỨU. 6

1.2.1 Mục tiêu chung. 6

1.2.2 Mục tiêu cụ thể . 6

1.3 CÂU HỎI NGHIÊN CỨU. 6

1.4 ĐỐI TưỢNG VÀ PHẠM VI NGHIÊN CỨU . 7

1.4.1 Đối tượng nghiên cứu . 7

1.4.2 Phạm vi nghiên cứu . 7

1.4.2.1 Phạm vi không gian . 7

1.4.2.2 Phạm vi thời gian. 7

1.4.2.3 Phạm vi nội dung . 7

1.5 Ý NGHĨA KHOA HỌC VÀ THỰC TIỄN CỦA LUẬN ÁN . 7

1.5.1 Ý nghĩa khoa học. 7

1.5.2 Ý nghĩa thực tiễn . 8

1.6 KẾT CẤU CỦA LUẬN ÁN . 8

CHưƠNG 2: TỔNG QUAN NGHIÊN CỨU. 10

2.1 CÁC CÔNG TRÌNH NGHIÊN CỨU VỀ KHUNG KIẾN TRÚC

CNTT . 10

2.2 CÁC CÔNG TRÌNH NGHIÊN CỨU VỀ NLCT. 27

2.3 CÁC CÔNG TRÌNH NGHIÊN CỨU VỀ CÁC YẾU TỐ CẤU

THÀNH NLCT. 30

2.4 CÁC NGHIÊN CỨU TÁC ĐỘNG CNTT ĐẾN YẾU TỐ CẤU

THÀNH NLCT CỦA DN . 43

2.5 ĐÁNH GIÁ TỔNG QUAN TÀI LIỆU NHÂN TỐ CNTT TÁC ĐỘNG

CÁC YẾU TỐ NLCT CỦA DN. 51

2.5.1 Về khung lý thuyết nền cho nghiên cứu: . 51

pdf256 trang | Chia sẻ: honganh20 | Ngày: 19/02/2022 | Lượt xem: 404 | Lượt tải: 1download
Bạn đang xem trước 20 trang tài liệu Luận án Nghiên cứu tác động của công nghệ thông tin đến các yếu tố cấu thành năng lực cạnh tranh của các doanh nghiệp tại thành phố Cần Thơ, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
và phân tích định lượng sơ bộ được thực hiện bằng cách hỏi trực tiếp hoặc gởi bảng câu hỏi khảo sát qua thư điện tử đến 70 doanh nghiệp với đối tượng là các chức danh quản lý trong doanh nghiệp như giám đốc, trưởng phòng, trưởng bộ phận hoặc các chức doanh quản lý khác. Mẫu cho nghiên cứu sơ bộ định lượng có kích thước mẫu n = 70, được chọn theo cách lấy mẫu thuận tiện, phi xác suất. Bảng câu hỏi khảo sát dùng cho nghiên cứu định lượng sơ bộ là bảng câu hỏi được thiết kế dựa trên kết quả nghiên cứu phỏng vấn sâu hoàn thiện bảng câu hỏi khảo sát (phụ lục 3). Dữ liệu thu thập từ bảng câu hỏi khảo sát định lượng sơ bộ được xử lý bằng phần mền SPSS 20.0 để đánh giá hệ số Cronbach‟s alpha và phân tích nhân tố khám phá EFA, phân tích nhân tố khẳng định CFA và sử dụng phần mềm AMOS 20.0 để kiểm định song song bằng mô hình cấu trúc tuyến tính SEM và Bootstrap. 3.2.2.3 Phương pháp nghiên cứu định tính chính thức Chính vì vậy, trong khuôn khổ của nghiên cứu này tác giả chỉ thực hiện việc định lượng và đánh giá CNTT chung (chi phí đầu tư chung) đến các yếu tố cấu thành năng lực cạnh tranh của DN. Để đo lường các biến quan sát trong phiếu điều tra, tác giả sử dụng thang đo Likert 5 mức độ. Dạng thang đo quảng Likert (Likert, 1932) thường được sử đụng để đo lường một tập các phát biểu của một khái niệm. Số đo của khái niệm là tổng điểm của từng phát biểu. Vì vậy thang đo Likert cho phép một loạt các lựa chọn từ “Rất thấp” đến “Rất cao”. Bảng câu hỏi được thiết kế làm bốn phần bao gồm: (1) Thông tin chung, (2) Thông tin sử dụng phần cứng, phần mềm và mạng máy tính, (3) Thông tin sử dụng internet/ E-Commerce, (4) Thông tin tác động của CNTT 101 đến các yếu tố cấu thành NLCT của DN. Trên cơ sở tham khảo ý kiến của những người phỏng vấn trong giai đoạn nghiên cứu định tính, nội dung câu hỏi được xây dựng đơn giản, dễ hiểu nhưng vẫn đảm bảo đúng hàm ý của cơ sở lý thuyết. Nội dung bảng hỏi được mô tả tại Phụ lục 01. 3.2.2.4 Nghiên cứu định lượng chính thức Sau tiến hành phân tích kết quả trong nghiên cứu định lượng sơ bộ, bản câu hỏi được điều chỉnh và hoàn thiện để sử dụng trong nghiên cứu chính thức. Mẫu nghiên cứu chính thức và phương pháp thu thập thông tin cũng như đối tượng điều tra chính thức như sau: (1) Thu thập, nhập và xử lý số liệu thô Với số phiếu phát đi là 370 phiếu, số phiếu thu về là 360 phiếu. Toàn bộ kết quả trả lời trong 360 phiếu được nhập vào phần mềm SPSS, sử dụng các công cụ của SPSS như kiểm tra tính hợp lý của dữ liệu, kiểm tra dữ liệu trống để làm sạch số liệu. Sau khi làm sạch số liệu, loại ra 10 phiếu trả lời không hợp lệ. Như vậy dữ liệu của 350 phiếu trả lời của DN sẽ được sử dụng trong các nội dung phân tích tiếp theo. (2) Kiểm định thang đo (Cronbach‟s Alpha) Trong bước này sử dụng hệ số Cronbach‟s Alpha để đánh giá chất lượng của thang đo xây dựng. Thang đo được đánh giá chất lượng tốt khi: (1) Hệ số Cronbach‟s Alpha của tổng thể lớn hơn 0,6; và (2) Hệ số tương quan biến - tổng của các biến quan sát lớn hơn 0,3 (Corrected Item- Total Corelation) (Nunnally & Bernstein, 1994). (3) Phân tích nhân tố khám phá EFA (Exploratory Factor Analysis) Trước khi kiểm định lý thuyết khoa học thì cần phải đánh giá độ tin cậy và giá trị của thang đo. Phương pháp Cronbach‟s Alpha dùng để đánh giá độ tin cậy của thang đo. Còn phương pháp phân tích nhân tố khám phá (EFA - Exploratory Factor Analysis) giúp chúng ta đánh giá hai loại giá trị quan trọng của thang đo là giá trị hội tụ và giá trị phân biệt. Phân tích EFA được dùng đến trong trường hợp mối quan hệ giữa các biến quan sát và biến tiềm ẩn là không rõ ràng hay không chắc chắn. Phân tích EFA theo đó được tiến hành theo kiểu khám phá để xác định xem phạm vi, mức độ quan hệ giữa các biến 102 quan sát và các nhân tố cơ sở như thế nào, làm nền tảng cho một tập hợp các phép đo để rút gọn hay giảm bớt số biến quan sát tải lên các nhân tố cơ sở. Phân tích EFA sẽ giúp rút trích thành các nhân tố phục vụ cho việc phân tích tiếp theo. Các hệ số tải nhân tố là chỉ tiêu để đảm bảo mức ý nghĩa thiết thực của EFA. Hệ số này lớn hơn (> 0,3) được xem là mức tối thiểu, lớn hơn (>0,4) được xem là quan trọng, lớn hơn (>)0,5) được xem là có ý nghĩa thiết thực (Hair & cộng sự, 1998). Trong nghiên cứu này, nhằm nâng cao tính thiết thực và độ tin cậy của kết quả nghiên cứu, Tác giả chỉ lựa chọn những nhân tố có hệ số chuyển tải lớn hơn 0,50; giá trị Kaiser-Mayer-Olkin (KMO) có giá trị lớn (giữa 0,5 và 1) và tổng phương sai trích lớn hơn (>0.5) để đảm bảo nội dung giải thích của các nhân tố thu được từ kết quả phân tích EFA. Phương pháp Principal Component Analysis và phép quay Varimax sẽ được sử dụng trong nghiên cứu này để rút trích các nhân tố chính. Số lượng các nhân tố cơ sở tùy thuộc vào mô hình nghiên cứu, trong đó chúng ràng buộc nhau bằng cách xoay các vector trực giao nhau để không xảy ra hiện tượng tương quan. Phân tích nhân tố khám phá EFA rất hữu dụng trong bước thực nghiệm ban đầu hay mở rộng kiểm định. Phương pháp phân tích nhân tố EFA thuộc nhóm phân tích đa biến phụ thuộc lẫn nhau (interdependence techniques), nghĩa là không có biến phụ thuộc và biến độc lập mà nó dựa vào mối tương quan giữa các biến với nhau (interrelationships). EFA dùng để rút gọn một tập k biến quan sát thành một tập F (F<k) các nhân tố có ý nghĩa hơn. Cơ sở của việc rút gọn này dựa vào mối quan hệ tuyến tính của các nhân tố với các biến nguyên thủy (biến quan sát). Các tác giả Mayers, L.S., Gamst, G., Guarino A.J. (2000) đề cập rằng: Trong phân tích nhân tố, phương pháp trích (PCA- Pricipal Components Analysis) đi cùng với phép xoay Varimax là cách thức được sử dụng phổ biến nhất. Theo Hair & ctg (1998, 111), Factor loading (hệ số tải nhân tố hay trọng số nhân tố) là chỉ tiêu để đảm bảo mức ý nghĩa thiết thực của EFA: - Factor loading > 0,3 được xem là đạt mức tối thiểu - Factor loading > 0,4 được xem là quan trọng 103 - Factor loading > 0,5 được xem là có ý nghĩa thực tiễn Điều kiện để phân tích nhân tố khám phá là phải thỏa mãn các yêu cầu: 1. Hệ số tải nhân tố (Factor loading) > 0,5, 0,5 ≤ KMO ≤ 1: Hệ số KMO (Kaiser-Meyer-Olkin) là chỉ số được dùng để xem xét sự thích hợp của phân tích nhân tố. Trị số KMO lớn có ý nghĩa phân tích nhân tố là thích hợp. 2. Kiểm định Bartlett có ý nghĩa thống kê (Sig. < 0,05): Đây là một đại lượng thống kê dùng để xem xét giả thuyết các biến không có tương quan trong tổng thể. Nếu kiểm định này có ý nghĩa thống kê (Sig. < 0,05) thì các biến quan sát có mối tương quan với nhau trong tổng thể. 3. Phần trăm phương sai trích (Percentage of variance) > 50%: Thể hiện phần trăm biến thiên của các biến quan sát. Nghĩa là xem biến thiên là 100% thì giá trị này cho biết phân tích nhân tố giải thích được bao nhiêu %. (4) Phân tích hệ số khẳng định CFA (Confirmatory FactorAnalysis) Phân tích CFA được thực hiện với mục đích kiểm định sự phù hợp của thang đo về độ tin cậy tổng hợp, phương sai trích, tính đơn hướng, hội tụ và giá trị phân biệt. Phân tích CFA là bước tiếp theo của EFA vì CFA chỉ sử dụng thích hợp khi nhà nghiên cứu có sẵn một số kiến thức về cấu trúc tiềm ẩn cơ sở, trong đó mối quan hệ hay giả thuyết (có được từ lý thuyết hay thực nghiệm) giữa biến quan sát và nhân tố cơ sở thì được nhà nghiên cứu mặc nhiên thừa nhận trong các kỹ thuật thống kê. Độ tin cậy của thang đo được đánh giá bằng phương pháp nhất quán nội tại qua hệ số Cronbach‟s Alpha. Sử dụng phương pháp hệ số tin cậy Cronbach‟s Alpha trước khi phân tích nhân tố EFA để loại các biến không phù hợp vì các biến rác này có thể tạo ra các yếu tố giả (Nguyễn Đình Thọ & Nguyễn Thị Mai Trang, 2009). Hệ số tin cậy Cronbach‟s Alpha chỉ cho biết các đo lường có liên kết với nhau hay không; nhưng không cho biết biến quan sát nào cần bỏ đi và biến quan sát nào cần giữ lại. Khi đó, việc tính toán hệ số tương quan giữa biến- 104 tổng sẽ giúp loại ra những biến quan sát nào không đóng góp nhiều cho sự mô tả của khái niệm cần đo (Hoàng Trọng & Chu Nguyễn Mộng Ngọc, 2005). Các tiêu chí được sử dụng khi thực hiện đánh giá độ tin cậy thang đo: – Loại các biến quan sát có hệ số tương quan biến tổng nhỏ (nhỏ hơn 0,3); tiêu chuẩn chọn thang đo khi có độ tin cậy Cronbach‟s. Alpha lớn hơn 0,6 (Alpha càng lớn thì độ tin cậy nhất quán nội tại càng cao) (Nunally & Burnstein 1994; Nguyễn Đình Thọ & Nguyễn Thị Mai Trang, 2009). – Các mức giá trị của Cronbach‟s Alpha: lớn hơn 0,8 là thang đo lường tốt; từ 0,7 đến 0,8 là sử dụng được; từ 0,6 trở lên là có thể sử dụng trong trường hợp khái niệm nghiên cứu là mới hoặc là mới trong bối cảnh nghiên cứu (Nunally, 1978; Peterson, 1994; Slater, 1995; Hoàng Trọng và Chu Nguyễn Mộng Ngọc, 2005). – Các biến quan sát có tương quan biến- tổng nhỏ (nhỏ hơn 0,4) được xem là biến rác thì sẽ được loại ra và thang đo được chấp nhận khi hệ số tin cậy Alpha đạt yêu cầu lớn hơn (>0,7). Dựa theo thông tin trên, nghiên cứu thực hiện đánh giá thang đo dựa theo tiêu chí: – Loại các biến quan sát có hệ số tương quan biến-tổng nhỏ hơn (<0,4) (đây là những biến không đóng góp nhiều cho sự mô tả của khái niệm cần đo và nhiều nghiên cứu trước đây đã sử dụng tiêu chí này). – Chọn thang đo có độ tin cậy Crobach‟s Alpha lớn hơn (>0,6) (các khái niệm trong nghiên cứu này là tương đối mới đối với đối tượng nghiên cứu khi tham gia trả lời). - Phân tích độ tin cậy tổng hợp (Composite Reliability) Trong phân tích nhân tố khẳng định CFA, độ tin cậy của thang đo được gọi là độ tin cậy tổng hợp, là chỉ số đánh giá tốt hơn Cronbach‟s Alpha bởi vì nó không phạm sai lầm giả định độ tin cậy của các biến là bằng nhau (Gerbing và Anderson, 1988). Độ tin cậy tổng hợp (ký hiệu là Pc) (Joreskog, 1971) được tính theo công thức: 105 Trong đó: λi: Trọng số chuẩn hóa của biến quan sát thứ i; λi 2: Phương sai của sai số đề xuất biến quan sát thứ i; p: số biến quan sát của thang đo. Theo Hair và cộng sự (1998), thang đo đảm bảo tin cậy khi độ tin cậy tổng hợp >0.6. - Phương sai trích: Phương sai trích cũng là một chỉ tiêu đề xuất độ tin cậy, nó phản ánh lượng biến thiên chung của các biến quan sát được tính toán bởi biến tiềm ẩn. Thang đo có giá trị nếu phương sai trích được từ đó phải lớn hơn 0,5 (Hair và cộng sự, 1998), nếu nhỏ hơn có nghĩa là phương sai đó có sai số đề xuất lớn hơn phương sai được giải thích bởi khái niệm cần đo và thang đo đó không đạt giá trị. Phương sai trích được tính theo công thức (Fornell và Larcker, 1981). Trong đó: λi: Trọng số chuẩn hóa của biến quan sát thứ i λi 2: Phương sai của sai số đề xuất biến quan sát thứ i; p: số biến quan sát của thang đo. - Tính đơn hướng: là tập hợp các biến đại diện cho một khái niệm tiềm ẩn (Garver và Mentzer, 1999). Kiểm tra các thang đo về tính đơn hướng là quan trọng trước khi kiểm tra độ tin cậy, vì độ tin cậy không đảm bảo tính đơn hướng mà chỉ là giả định tính đơn hướng đã tồn tại (Hair và cộng sự, 1998). Việc đảm bảo cho mỗi tập hợp các biến được thiết kế để đề xuất một khái niệm duy nhất đạt được tính đơn hướng là hết sức cần thiết. Theo Steenkamp và Van Trijp (1991), mức độ phù hợp của mô hình với dữ liệu là điều kiện cần và đủ để cho 106 tập biến quan sát đạt tính đơn hướng, trừ trường hợp các sai số của các biến quan sát có tương quan với nhau. - Giá trị hội tụ: Gerbing và Anderson (1988) cho rằng, thang đo đạt được giá trị hội tụ (mô hình phù hợp với dữ liệu) khi các trọng số chuẩn hóa của thang đo đều cao (> 0,5) và có ý nghĩa thống kê (p < 0,05). - Giá trị phân biệt: Có thể kiểm định giá trị phân biệt của các khái niệm trong mô hình bao gồm giá trị phân biệt giữa các thành phần trong cùng một khái niệm nghiên cứu (within-construct discriminant validity) và giá trị phân biệt giữa các khái niệm nghiên cứu (across- construct discriminant validity) có thật sự khác biệt hay không. Nếu thật sự khác biệt thì các thang đo đạt được giá trị phân biệt (Bagozzi và Foxall, 1996). Giá trị phân biệt sẽ đạt yêu cầu nếu thỏa mãn các tiêu chí, (1) Tương quan giữa hai thành phần của một khái niệm hay giữa hai khái niệm nhỏ hơn 1 một cách có ý nghĩa; (2) Mô hình thỏa mãn độ phù hợp với dữ liệu. Phương pháp phân tích nhân tố khẳng định CFA chấp nhận các giả thuyết của các nhà nghiên cứu, được xác định căn cứ theo quan hệ giữa mỗi biến và một hay nhiều hơn một nhân tố. Phương pháp CFA được sử dụng để khẳng định lại tính đơn biến, đa biến, giá trị hội tụ và phân biệt của bộ thang đo (Phạm Lê Hồng Nhung, 2012). (5) Phân tích mô hình cấu trúc tuyến tính SEM Một trong những kỹ thuật phức hợp và linh hoạt nhất sử dụng để phân tích mối quan hệ phức tạp trong các mô hình nhân quả là mô hình cấu trúc tuyến tính (SEM - Structural Equation Modeling). Mô hình SEM đã được sử dụng rộng rãi trong các lĩnh vực nghiên cứu như tâm lý học (Anderson & Gerbing,1988; Hansell và White, 1991), xã hội học (Lavee, 1988; Lorence và Mortimer, 1985), nghiên cứu sự phát triển của trẻ em (Anderson, 1987; Biddle và Marlin,1987) và trong lĩnh vực quản lý (Tharenou, Latimer và Conroy,1994). Đặc biệt mô hình này cũng được ứng dụng trong rất nhiều mô hình khảo sát sự thỏa mãn khách hàng như: ngành dịch vụ thông tin di động tại Hàn Quốc (M. K. Kim et al. / Telecommunications Policy 28 (2004) 145– 107 159), Mô hình nghiên cứu sự trung thành của khách hàng sử dụng dịch vụ thông tin di động tại Việt nam (Phạm Đức Kỳ, Bùi Nguyên Hùng, 2007) Mô hình SEM là sự mở rộng của mô hình tuyến tính tổng quát (GLM) cho phép nhà nghiên cứu kiểm định một tập hợp phương trình hồi quy cùng một lúc. SEM có thể cho một mô hình phức hợp phù hợp với dữ liệu như các bộ dữ liệu khảo sát trong dài hạn (longitudinal), phân tích nhân tố khẳng định (CFA), các mô hình không chuẩn hoá, cơ sở dữ liệu có cấu trúc sai số tự tương quan, dữ liệu với các biến số không chuẩn (Non-Normality), hay dữ liệu bị thiếu (missing data). Đặc biệt, SEM sử dụng để ước lượng các mô hình đo lường (Mesurement Model) và mô hình cấu trúc (Structure Model) của bài toán lý thuyết đa biến. Mô hình đo lường chỉ rõ quan hệ giữa các biến tiềm ẩn (Latent Variables) và các biến quan sát (observed variables). Nó cung cấp thông tin về thuộc tính đo lường của biến quan sát (độ tin cậy, độ giá trị). Mô hình cấu trúc chỉ rõ mối quan hệ giữa các biến tiềm ẩn với nhau. Các mối quan hệ này có thể mô tả những dự báo mang tính lý thuyết mà các nhà nghiên cứu quan tâm. Mô hình SEM phối hợp được tất cả các kỹ thuật như hồi quy đa biến, phân tích nhân tố và phân tích mối quan hệ hỗ tương (giữa các phần tử trong sơ đồ mạng) để cho phép chúng ta kiểm tra mối quan hệ phức hợp trong mô hình. Khác với những kỹ thuật thống kê khác chỉ cho phép ước lượng mối quan hệ riêng phần của từng cặp nhân tố (phần tử) trong mô hình cổ điển (mô hình đo lường), SEM cho phép ước lượng đồng thời các phần tử trong tổng thể mô hình, ước lượng mối quan hệ nhân quả giữa các khái niệm tiềm ẩn (Latent Constructs) qua các chỉ số kết hợp cả đo lường và cấu trúc của mô hình lý thuyết, đo các mối quan hệ ổn định (recursive) và không ổn định (non- recursive), đo các ảnh hưởng trực tiếp cũng như gián tiếp, kể cả sai số đo và tương quan phần dư. Với kỹ thuật phân tích nhân tố khẳng định (CFA) mô hình SEM cho phép linh động tìm kiếm mô hình phù hợp nhất trong các mô hình đề nghị (Nguyễn Đình Thọ & Nguyễn Thị Mai Trang, 2009). Hiện nay có nhiều công cụ phần mềm hỗ trợ quá trình thống kê, phân tích và xác định mô hình SEM như: AMOS, LISREL, EQS, MPLUS được 108 các nhà nghiên cứu sử dụng rất phổ biến trong các đề tài nghiên cứu. Một trong những công cụ phổ biến nhất là phần mềm AMOS với ưu điểm là: (a) dễ sử dụng nhờ module tích hợp chung với phần mềm phổ biến là SPSS và (b) dễ dàng xây dựng các mối quan hệ giữa các biến, nhân tố (phần tử mô hình) bằng trực quan hình học nhờ chức năng AMOS Graphics. Kết quả được biểu thị trực tiếp trên mô hình hình học, nhà nghiên cứu căn cứ vào các chỉ số để kiểm định các giả thuyết, độ phù hợp của tổng thể mô hình một cách dễ dàng, nhanh chóng. * Kiểm tra ước lượng mô hình bằng phương pháp Bootstrap Đây là một trong những kiểm định cuối cùng, và là phần việc cuối cùng khi phân tích dữ liệu mô hình SEM, với phần mềm AMOS. Việc kiểm định bootstrap được tiến hành để kiểm tra lại mô hình. Bootstrap là phương pháp lấy mẫu lại có thay thế trong đó mẫu ban đầu đóng vai trò đám đông. Mô hình cuối cùng cũng như các mô hình phù hợp khác cần thiết phải có bộ dữ liệu độc lập với nhau, hay cỡ mẫu ban đầu khá lớn. Trong phương pháp nghiên cứu định lượng bằng phương pháp lấy mẫu, thông thường chúng ta phải chia mẫu thành 02 mẫu con. Mẫu con thứ nhất dùng để ước lượng các tham số mô hình và mẫu con thứ hai dùng để đánh giá lại: - Định cỡ mẫu con thứ nhất dùng để khám phá, - Dùng cỡ mẫu con thứ hai để đánh giá chéo (Cross-Validation) Chỉ số đánh giá chéo CVI (Cross-Validation Index) đo khoảng cách giữa ma trận hiệp phương sai (Covariance) phù hợp trong mẫu con thứ nhất với ma trận hiệp phương sai của mẫu. Chỉ số CVI nhỏ nhất cho phép kỳ vọng trạng thái mẫu lặp lại càng ổn định. Cách khác là lặp lại nghiên cứu bằng một mẫu khác. Hai cách trên đây thường không thực tế vì phương pháp phân tích mô hình cấu trúc thường đòi hỏi mẫu lớn nên việc làm này tốn kém nhiều thời gian, chi phí [Anderson & Gerbing 1998]. Trong những trường hợp như vậy thì Boostrap là phương pháp phù hợp để thay thế [Schumacker & Lomax 1996]. 109 Bootstrap là phương pháp lấy mẫu lại có thay thế trong đó mẫu ban đầu đóng vai trò đám đông. Phương pháp Boostrap thực hiện với số mẫu lặp lại là N lần. Kết quả ước lượng từ N mẫu được tính trung bình và giá trị này có xu hướng gần đến ước lượng của tổng thể. Khoảng chênh lệch giữa giá trị trung bình ước lượng bằng Bootstrap và ước lượng mô hình với mẫu ban đầu càng nhỏ cho phép kết luận các ước lượng mô hình có thể tin cậy được (Phạm Đức Kỳ, Bùi Nguyên Hùng, 2007). Trong nghiên cứu này tác giả đã sử dụng phần mềm SPSS 20.0 và phần mềm AMOS 20.0 để phân tích dữ liệu và kiểm định các giả thuyết. 3.2.3 Quy trình nghiên cứu định lƣợng Dựa vào nội dung nghiên cứu, tổng quan tài liệu và cơ sở lý thuyết tác giả xây dựng quy trình nghiên cứu gồm 02 giai đoạn chính như sau: - Giai đoạn 1: Nghiên cứu sơ bộ + Giai đoạn này gồm hai phần chính là (1) trên cơ sở nghiên cứu lý thuyết và lược khảo tài tiêu có liên quan tác giả sẽ tiến hành thiết lập Thang đo thử (nháp) để xin ý kiến các chuyên gia, thảo luận nhóm và (2) tiến hành điều chỉnh Thang đo phù hợp, tiến hành nghiên cứu định lượng sơ bộ (khoảng 72 đơn vị). Sau khi có số liệu thu thập qua nghiên cứu sơ bộ, tác giả tiến hành làm sạch dữ liệu (chọn lại 70 đơn vị), nhập số liệu vào phần mềm và tiến hành kiểm định Cronbach” Alpha và phân tích nhân tố khám phá EFA. + Sau khi có kết quả kiểm định, tác giả tiến hành tham khảo ý kiến Thầy hướng dẫn, các chuyên gia phân tích và các lãnh đạo DN có ứng dụng mạnh CNTT (Danh sách chuyên gia) để xem xét loại bỏ các chỉ số bất thường trong kết quả phân tích. Tiến hành đánh giá và điều chỉnh bộ thang đo phù hợp nghiên cứu. - Giai đoạn 2: Nghiên cứu chính thức + Sau khi điều chỉnh thang đo tác giả đã nhiều lần tham khảo ý kiến Thầy hướng dẫn và các chuyên gia có kinh nghiệm trong hai lĩnh vực có liên quan là CNTT và Quản trị kinh doanh. Sau khi thống nhất thang đo, tác giả xác định nội dung cần thu thập và tiến hành thiết lập bảng câu hỏi điều tra chính thức các DN theo đối tượng và phạm vi nghiên cứu. 110 + Sau khi có số liệu điều tra, tác giả đã tiến hành làm sạch dữ liệu, kết quả có hơn 350 phiếu khảo sát DN đạt yêu cầu, nhưng tác giả quyết định chọn 350 phiếu hoàn chỉnh nhất để tiến hành phân tích chính thức bằng các công cụ phân tích định tính Cronbach‟s Alpha, phân tích nhân tố khám phá (EFA), phân tích nhân tố khẳng định (CFA) và cấu trúc tuyến tính (SEM) theo quy trình nghiên cứu lựa chọn. 111 Nguồn: Đề xuất của tác giả, 2017 Hình 3.9 Quy trình nghiên cứu đề xuất N g h iê n c ứ u s ơ b ộ N g h iê n c ứ u c h ín h t h ứ c Kiểm tra độ thích hợp mô hình, giá trị liên hệ lý thuyết và giả thuyết, ước lượng mô hình Bộ thang đo Nghiên cứu chính thức(n=350) Kiểm tra trọng số EFA, nhân tố và phương sai trích Phân tích CFA Thang đo chính chức Kiểm tra độ thích hợp của mô hình, trọng số CFA, độ tin cậy tổng hợp đơn hướng, giá trị hội tụ và phân biệt Phân tích CFA Mô hình SEM Cơ sở lý thuyết Lược khảo tài liệu có liên quan Thang đo thử (nháp) Thảo luận nhóm - Tham khảo ý kiến chuyên gia Thang đo sơ bộ Nghiên cứu sơ bộ định lượng (n=70) Đánh giá sơ bộ thang đo Kiểm tra hệ số Cronbach‟s alpha Phân tích nhân tố EFA 112 3.2.4 Các giả thuyết nghiên cứu cần kiểm định Từ nghiên cứu của tác giả tiền nhiệm và qua điều tra sơ bộ chúng ta nhận thấy rằng các nghiên cứu này đều xem xét (lựa chọn) nhân tố CNTT tác động đến các yếu tố cấu thành NLCT của DN đều có tác động cùng chiều. Qua nghiên cứu thực nghiệm tại TPCT, chúng ta cần kiểm định và phân tích các mối quan hệ này. Các yếu tố cần kiểm định: a. Năng lực định hướng thị trường Thông tin về thị trường là yếu tố rất quan trọng trong hoạt động kinh doanh của mỗi DN. Thông tin về thị trường chính là chìa khóa để DN am hiểu thị trường. Những nghiên cứu thông tin về thị trường chính xác sẽ giúp DN đưa ra chiến lược kinh doanh phù hợp, do đó mang lại hiệu quả cho DN. Tuy nhiên, một thực tế ở các DN ở Việt Nam và cũng là nguyên nhân làm giảm năng lực cạnh tranh của DN này là việc thiếu thông tin về thị trường. Từ đó dẫn đến tình trạng DN ở Việt Nam là DN bán cái mà mình sản xuất ra hơn là bán sản phẩm mà khách hàng cần. Trong khi đó, ứng dụng CNTT, đặc biệt là mạng Internet sẽ mang lại cho các DN những công cụ và kênh thu thập thông tin hiệu quả với chi phí thấp. Đồng thời, ứng dụng CNTT cũng giúp cho DN hệ thống hóa việc thu thập, phân tích và xử lý thông tin thị trường một cách chính xác và hiệu quả. Bên cạnh đó, cùng với sự phát triển của CNTT, TMĐT ra đời mang lại nhiều tiện lợi cho DN trong việc khai thác thông tin thị trường. Sự phát triển của TMĐT sẽ giúp DN cập nhật thông tin về tình hình, nhu cầu của thị trường một cách đầy đủ nhất. Trong những năm qua, một trong những nhân tố khiến nhiều sản phẩm Việt Nam có năng lực cạnh tranh kém là do giá thành sản xuất cao. Do vậy, nhằm năng cao NLCT, việc áp dụng các giải pháp nhằm giảm chi phí đầu vào, giảm giá thành đối với sản phẩm là một vấn đề cấp bách khi chúng ta đang đứng trước ngưỡng cửa hội nhập với nền kinh tế thế giới. CNTT đang được xem như một giải pháp hữu hiệu giúp DN tiết kiệm chi phí đầu vào cho các sản phẩm. CNTT hiện nay được xem như công cụ, phương tiện để phục vụ phát triển DN. Trong nghiên cứu thị trường, ứng dụng CNTT vào khai thác 113 thông tin thị trường nhằm giảm chi phí nghiên cứu thị trường. Ứng dụng các giao dịch TMĐT giúp DN giảm bớt các chi phí ở các khâu trung gian. Đồng thời, ứng dụng CNTT giúp DN quản lý thông tin tốt hơn, chính xác hơn, cải tiến qui trình sản xuất, sản phẩm làm ra ngày càng có hàm lượng sáng tạo nhằm tăng lợi thế cạnh tranh, tăng lợi nhuận của DN... Hơn nữa, trong điều kiện khủng hoảng kinh tế như hiện nay khiến một số DN rơi và tình trạng khó khăn, để tồn tại và phát triển bắt buộc các DN phải nâng cao năng lực sản xuất, cắt giảm chi phí và kiểm soát các hoạt động của DN tốt hơn nữa. Từ đó, chúng ta sẽ tiến hành kiểm định giả thuyết về mối quan hệ giữa CNTT đến yếu tố Năng lực thị trường của các DN. H1: Mối quan hệ giữa CNTT đến yếu tố Năng lực thị trường. b. Năng lực huy động vốn Trong những năm gần đây, việc cho vay của các ngân hàng thương mại và đi vay của các cá nhân, DN có nhu cầu vay vốn Ngân hàng tại Việt Nam đã cởi mở hơn nhiều nhờ sự điều tiết của Ngân hàng Nhà nước và sự thay đổi mô hình hoạt động của các Ngân hàng theo hướng dịch vụ hoá, hướng tới khách hàng. Bằng việc ứng dụng các công nghệ, không chỉ giúp khách hàng nắm bắt thông tin liên quan đến việc vay vốn, mở thẻ tín dụng, tài khoản tiết kiệm mà còn là giải pháp hỗ trợ khách hàng lựa chọn phương án vay vốn tối ưu, lựa chọn Ngân hàng có lãi suất tốt nhất, nhiều ưu đãi nhất. Ngoài ra, còn hỗ trợ tự động tư vấn thủ tục cho từng khách để khách hàng nắm rõ hơn những giấy tờ cần chuẩn bị trước khi vay vốn Ngân hàng, giúp khách hàng tự tin hơn, tránh trường hợp vì thiếu thông tin mà phải tốn thêm các loại chi phí không cần thiết. Việc ứng dụng CNTT trong việc sử dụng các phần mềm ứng dụng hỗ trợ cho DN lập các báo cáo tài chính trình các tổ chức tín dụng

Các file đính kèm theo tài liệu này:

  • pdfluan_an_nghien_cuu_tac_dong_cua_cong_nghe_thong_tin_den_cac.pdf
Tài liệu liên quan