CHưƠNG 1:GIỚI THIỆU ĐỀ TÀI NGHIÊN CỨU. 1
1.1 ĐẶT VẤN ĐỀ VÀ SỰ CẦN THIẾT . 1
1.1.1 Đặt vấn đề . 1
1.1.2 Sự cần thiết của nghiên cứu . 3
1.1.3 Tính mới của luận án . 5
1.2 MỤC TIÊU NGHIÊN CỨU. 6
1.2.1 Mục tiêu chung. 6
1.2.2 Mục tiêu cụ thể . 6
1.3 CÂU HỎI NGHIÊN CỨU. 6
1.4 ĐỐI TưỢNG VÀ PHẠM VI NGHIÊN CỨU . 7
1.4.1 Đối tượng nghiên cứu . 7
1.4.2 Phạm vi nghiên cứu . 7
1.4.2.1 Phạm vi không gian . 7
1.4.2.2 Phạm vi thời gian. 7
1.4.2.3 Phạm vi nội dung . 7
1.5 Ý NGHĨA KHOA HỌC VÀ THỰC TIỄN CỦA LUẬN ÁN . 7
1.5.1 Ý nghĩa khoa học. 7
1.5.2 Ý nghĩa thực tiễn . 8
1.6 KẾT CẤU CỦA LUẬN ÁN . 8
CHưƠNG 2: TỔNG QUAN NGHIÊN CỨU. 10
2.1 CÁC CÔNG TRÌNH NGHIÊN CỨU VỀ KHUNG KIẾN TRÚC
CNTT . 10
2.2 CÁC CÔNG TRÌNH NGHIÊN CỨU VỀ NLCT. 27
2.3 CÁC CÔNG TRÌNH NGHIÊN CỨU VỀ CÁC YẾU TỐ CẤU
THÀNH NLCT. 30
2.4 CÁC NGHIÊN CỨU TÁC ĐỘNG CNTT ĐẾN YẾU TỐ CẤU
THÀNH NLCT CỦA DN . 43
2.5 ĐÁNH GIÁ TỔNG QUAN TÀI LIỆU NHÂN TỐ CNTT TÁC ĐỘNG
CÁC YẾU TỐ NLCT CỦA DN. 51
2.5.1 Về khung lý thuyết nền cho nghiên cứu: . 51
256 trang |
Chia sẻ: honganh20 | Ngày: 19/02/2022 | Lượt xem: 431 | Lượt tải: 1
Bạn đang xem trước 20 trang tài liệu Luận án Nghiên cứu tác động của công nghệ thông tin đến các yếu tố cấu thành năng lực cạnh tranh của các doanh nghiệp tại thành phố Cần Thơ, để xem tài liệu hoàn chỉnh bạn click vào nút DOWNLOAD ở trên
và phân tích
định lượng sơ bộ được thực hiện bằng cách hỏi trực tiếp hoặc gởi bảng câu hỏi
khảo sát qua thư điện tử đến 70 doanh nghiệp với đối tượng là các chức danh
quản lý trong doanh nghiệp như giám đốc, trưởng phòng, trưởng bộ phận hoặc
các chức doanh quản lý khác. Mẫu cho nghiên cứu sơ bộ định lượng có kích
thước mẫu n = 70, được chọn theo cách lấy mẫu thuận tiện, phi xác suất.
Bảng câu hỏi khảo sát dùng cho nghiên cứu định lượng sơ bộ là bảng câu
hỏi được thiết kế dựa trên kết quả nghiên cứu phỏng vấn sâu hoàn thiện bảng
câu hỏi khảo sát (phụ lục 3). Dữ liệu thu thập từ bảng câu hỏi khảo sát định
lượng sơ bộ được xử lý bằng phần mền SPSS 20.0 để đánh giá hệ số
Cronbach‟s alpha và phân tích nhân tố khám phá EFA, phân tích nhân tố
khẳng định CFA và sử dụng phần mềm AMOS 20.0 để kiểm định song song
bằng mô hình cấu trúc tuyến tính SEM và Bootstrap.
3.2.2.3 Phương pháp nghiên cứu định tính chính thức
Chính vì vậy, trong khuôn khổ của nghiên cứu này tác giả chỉ thực hiện
việc định lượng và đánh giá CNTT chung (chi phí đầu tư chung) đến các yếu
tố cấu thành năng lực cạnh tranh của DN.
Để đo lường các biến quan sát trong phiếu điều tra, tác giả sử dụng
thang đo Likert 5 mức độ. Dạng thang đo quảng Likert (Likert, 1932) thường
được sử đụng để đo lường một tập các phát biểu của một khái niệm. Số đo của
khái niệm là tổng điểm của từng phát biểu. Vì vậy thang đo Likert cho phép
một loạt các lựa chọn từ “Rất thấp” đến “Rất cao”.
Bảng câu hỏi được thiết kế làm bốn phần bao gồm: (1) Thông tin
chung, (2) Thông tin sử dụng phần cứng, phần mềm và mạng máy tính, (3)
Thông tin sử dụng internet/ E-Commerce, (4) Thông tin tác động của CNTT
101
đến các yếu tố cấu thành NLCT của DN. Trên cơ sở tham khảo ý kiến của
những người phỏng vấn trong giai đoạn nghiên cứu định tính, nội dung câu hỏi
được xây dựng đơn giản, dễ hiểu nhưng vẫn đảm bảo đúng hàm ý của cơ sở lý
thuyết. Nội dung bảng hỏi được mô tả tại Phụ lục 01.
3.2.2.4 Nghiên cứu định lượng chính thức
Sau tiến hành phân tích kết quả trong nghiên cứu định lượng sơ bộ,
bản câu hỏi được điều chỉnh và hoàn thiện để sử dụng trong nghiên cứu
chính thức. Mẫu nghiên cứu chính thức và phương pháp thu thập thông tin
cũng như đối tượng điều tra chính thức như sau:
(1) Thu thập, nhập và xử lý số liệu thô
Với số phiếu phát đi là 370 phiếu, số phiếu thu về là 360 phiếu. Toàn
bộ kết quả trả lời trong 360 phiếu được nhập vào phần mềm SPSS, sử dụng
các công cụ của SPSS như kiểm tra tính hợp lý của dữ liệu, kiểm tra dữ liệu
trống để làm sạch số liệu. Sau khi làm sạch số liệu, loại ra 10 phiếu trả lời
không hợp lệ. Như vậy dữ liệu của 350 phiếu trả lời của DN sẽ được sử dụng
trong các nội dung phân tích tiếp theo.
(2) Kiểm định thang đo (Cronbach‟s Alpha)
Trong bước này sử dụng hệ số Cronbach‟s Alpha để đánh giá chất
lượng của thang đo xây dựng. Thang đo được đánh giá chất lượng tốt khi: (1)
Hệ số Cronbach‟s Alpha của tổng thể lớn hơn 0,6; và (2) Hệ số tương quan
biến - tổng của các biến quan sát lớn hơn 0,3 (Corrected Item- Total
Corelation) (Nunnally & Bernstein, 1994).
(3) Phân tích nhân tố khám phá EFA (Exploratory Factor Analysis)
Trước khi kiểm định lý thuyết khoa học thì cần phải đánh giá độ tin cậy
và giá trị của thang đo. Phương pháp Cronbach‟s Alpha dùng để đánh giá độ
tin cậy của thang đo. Còn phương pháp phân tích nhân tố khám phá (EFA -
Exploratory Factor Analysis) giúp chúng ta đánh giá hai loại giá trị quan trọng
của thang đo là giá trị hội tụ và giá trị phân biệt. Phân tích EFA được dùng
đến trong trường hợp mối quan hệ giữa các biến quan sát và biến tiềm ẩn là
không rõ ràng hay không chắc chắn. Phân tích EFA theo đó được tiến hành
theo kiểu khám phá để xác định xem phạm vi, mức độ quan hệ giữa các biến
102
quan sát và các nhân tố cơ sở như thế nào, làm nền tảng cho một tập hợp các
phép đo để rút gọn hay giảm bớt số biến quan sát tải lên các nhân tố cơ sở.
Phân tích EFA sẽ giúp rút trích thành các nhân tố phục vụ cho việc
phân tích tiếp theo. Các hệ số tải nhân tố là chỉ tiêu để đảm bảo mức ý nghĩa
thiết thực của EFA. Hệ số này lớn hơn (> 0,3) được xem là mức tối thiểu, lớn
hơn (>0,4) được xem là quan trọng, lớn hơn (>)0,5) được xem là có ý nghĩa
thiết thực (Hair & cộng sự, 1998). Trong nghiên cứu này, nhằm nâng cao tính
thiết thực và độ tin cậy của kết quả nghiên cứu, Tác giả chỉ lựa chọn những
nhân tố có hệ số chuyển tải lớn hơn 0,50; giá trị Kaiser-Mayer-Olkin (KMO)
có giá trị lớn (giữa 0,5 và 1) và tổng phương sai trích lớn hơn (>0.5) để đảm
bảo nội dung giải thích của các nhân tố thu được từ kết quả phân tích EFA.
Phương pháp Principal Component Analysis và phép quay Varimax sẽ được
sử dụng trong nghiên cứu này để rút trích các nhân tố chính.
Số lượng các nhân tố cơ sở tùy thuộc vào mô hình nghiên cứu, trong đó
chúng ràng buộc nhau bằng cách xoay các vector trực giao nhau để không xảy
ra hiện tượng tương quan. Phân tích nhân tố khám phá EFA rất hữu dụng
trong bước thực nghiệm ban đầu hay mở rộng kiểm định.
Phương pháp phân tích nhân tố EFA thuộc nhóm phân tích đa biến phụ
thuộc lẫn nhau (interdependence techniques), nghĩa là không có biến phụ
thuộc và biến độc lập mà nó dựa vào mối tương quan giữa các biến với nhau
(interrelationships). EFA dùng để rút gọn một tập k biến quan sát thành một
tập F (F<k) các nhân tố có ý nghĩa hơn. Cơ sở của việc rút gọn này dựa vào
mối quan hệ tuyến tính của các nhân tố với các biến nguyên thủy (biến quan
sát). Các tác giả Mayers, L.S., Gamst, G., Guarino A.J. (2000) đề cập rằng:
Trong phân tích nhân tố, phương pháp trích (PCA- Pricipal Components
Analysis) đi cùng với phép xoay Varimax là cách thức được sử dụng phổ biến
nhất.
Theo Hair & ctg (1998, 111), Factor loading (hệ số tải nhân tố hay
trọng số nhân tố) là chỉ tiêu để đảm bảo mức ý nghĩa thiết thực của EFA:
- Factor loading > 0,3 được xem là đạt mức tối thiểu
- Factor loading > 0,4 được xem là quan trọng
103
- Factor loading > 0,5 được xem là có ý nghĩa thực tiễn
Điều kiện để phân tích nhân tố khám phá là phải thỏa mãn các yêu cầu:
1. Hệ số tải nhân tố (Factor loading) > 0,5, 0,5 ≤ KMO ≤ 1: Hệ số KMO
(Kaiser-Meyer-Olkin) là chỉ số được dùng để xem xét sự thích hợp của
phân tích nhân tố. Trị số KMO lớn có ý nghĩa phân tích nhân tố là thích
hợp.
2. Kiểm định Bartlett có ý nghĩa thống kê (Sig. < 0,05): Đây là một đại
lượng thống kê dùng để xem xét giả thuyết các biến không có tương
quan trong tổng thể. Nếu kiểm định này có ý nghĩa thống kê (Sig. <
0,05) thì các biến quan sát có mối tương quan với nhau trong tổng thể.
3. Phần trăm phương sai trích (Percentage of variance) > 50%: Thể hiện
phần trăm biến thiên của các biến quan sát. Nghĩa là xem biến thiên là
100% thì giá trị này cho biết phân tích nhân tố giải thích được bao
nhiêu %.
(4) Phân tích hệ số khẳng định CFA (Confirmatory FactorAnalysis)
Phân tích CFA được thực hiện với mục đích kiểm định sự phù hợp của
thang đo về độ tin cậy tổng hợp, phương sai trích, tính đơn hướng, hội tụ và
giá trị phân biệt. Phân tích CFA là bước tiếp theo của EFA vì CFA chỉ sử dụng
thích hợp khi nhà nghiên cứu có sẵn một số kiến thức về cấu trúc tiềm ẩn cơ
sở, trong đó mối quan hệ hay giả thuyết (có được từ lý thuyết hay thực
nghiệm) giữa biến quan sát và nhân tố cơ sở thì được nhà nghiên cứu mặc
nhiên thừa nhận trong các kỹ thuật thống kê.
Độ tin cậy của thang đo được đánh giá bằng phương pháp nhất quán
nội tại qua hệ số Cronbach‟s Alpha. Sử dụng phương pháp hệ số tin cậy
Cronbach‟s Alpha trước khi phân tích nhân tố EFA để loại các biến không phù
hợp vì các biến rác này có thể tạo ra các yếu tố giả (Nguyễn Đình Thọ &
Nguyễn Thị Mai Trang, 2009).
Hệ số tin cậy Cronbach‟s Alpha chỉ cho biết các đo lường có liên kết
với nhau hay không; nhưng không cho biết biến quan sát nào cần bỏ đi và biến
quan sát nào cần giữ lại. Khi đó, việc tính toán hệ số tương quan giữa biến-
104
tổng sẽ giúp loại ra những biến quan sát nào không đóng góp nhiều cho sự mô
tả của khái niệm cần đo (Hoàng Trọng & Chu Nguyễn Mộng Ngọc, 2005).
Các tiêu chí được sử dụng khi thực hiện đánh giá độ tin cậy thang đo:
– Loại các biến quan sát có hệ số tương quan biến tổng nhỏ (nhỏ hơn
0,3); tiêu chuẩn chọn thang đo khi có độ tin cậy Cronbach‟s. Alpha lớn hơn
0,6 (Alpha càng lớn thì độ tin cậy nhất quán nội tại càng cao) (Nunally &
Burnstein 1994; Nguyễn Đình Thọ & Nguyễn Thị Mai Trang, 2009).
– Các mức giá trị của Cronbach‟s Alpha: lớn hơn 0,8 là thang đo lường
tốt; từ 0,7 đến 0,8 là sử dụng được; từ 0,6 trở lên là có thể sử dụng trong
trường hợp khái niệm nghiên cứu là mới hoặc là mới trong bối cảnh nghiên
cứu (Nunally, 1978; Peterson, 1994; Slater, 1995; Hoàng Trọng và Chu
Nguyễn Mộng Ngọc, 2005).
– Các biến quan sát có tương quan biến- tổng nhỏ (nhỏ hơn 0,4) được
xem là biến rác thì sẽ được loại ra và thang đo được chấp nhận khi hệ số tin
cậy Alpha đạt yêu cầu lớn hơn (>0,7). Dựa theo thông tin trên, nghiên cứu
thực hiện đánh giá thang đo dựa theo tiêu chí:
– Loại các biến quan sát có hệ số tương quan biến-tổng nhỏ hơn (<0,4)
(đây là những biến không đóng góp nhiều cho sự mô tả của khái niệm cần đo
và nhiều nghiên cứu trước đây đã sử dụng tiêu chí này).
– Chọn thang đo có độ tin cậy Crobach‟s Alpha lớn hơn (>0,6) (các
khái niệm trong nghiên cứu này là tương đối mới đối với đối tượng nghiên cứu
khi tham gia trả lời).
- Phân tích độ tin cậy tổng hợp (Composite Reliability)
Trong phân tích nhân tố khẳng định CFA, độ tin cậy của thang đo được
gọi là độ tin cậy tổng hợp, là chỉ số đánh giá tốt hơn Cronbach‟s Alpha bởi vì
nó không phạm sai lầm giả định độ tin cậy của các biến là bằng nhau (Gerbing
và Anderson, 1988). Độ tin cậy tổng hợp (ký hiệu là Pc) (Joreskog, 1971)
được tính theo công thức:
105
Trong đó:
λi: Trọng số chuẩn hóa của biến quan sát thứ i;
λi
2: Phương sai của sai số đề xuất biến quan sát thứ i;
p: số biến quan sát của thang đo.
Theo Hair và cộng sự (1998), thang đo đảm bảo tin cậy khi độ tin cậy
tổng hợp >0.6.
- Phương sai trích: Phương sai trích cũng là một chỉ tiêu đề xuất độ
tin cậy, nó phản ánh lượng biến thiên chung của các biến quan sát được tính
toán bởi biến tiềm ẩn. Thang đo có giá trị nếu phương sai trích được từ đó
phải lớn hơn 0,5 (Hair và cộng sự, 1998), nếu nhỏ hơn có nghĩa là phương
sai đó có sai số đề xuất lớn hơn phương sai được giải thích bởi khái niệm cần
đo và thang đo đó không đạt giá trị. Phương sai trích được tính theo công thức
(Fornell và Larcker, 1981).
Trong đó:
λi: Trọng số chuẩn hóa của biến quan sát thứ i
λi
2: Phương sai của sai số đề xuất biến quan sát thứ i;
p: số biến quan sát của thang đo.
- Tính đơn hướng: là tập hợp các biến đại diện cho một khái niệm tiềm ẩn
(Garver và Mentzer, 1999). Kiểm tra các thang đo về tính đơn hướng là quan
trọng trước khi kiểm tra độ tin cậy, vì độ tin cậy không đảm bảo tính đơn hướng
mà chỉ là giả định tính đơn hướng đã tồn tại (Hair và cộng sự, 1998). Việc đảm
bảo cho mỗi tập hợp các biến được thiết kế để đề xuất một khái niệm duy nhất
đạt được tính đơn hướng là hết sức cần thiết. Theo Steenkamp và Van Trijp
(1991), mức độ phù hợp của mô hình với dữ liệu là điều kiện cần và đủ để cho
106
tập biến quan sát đạt tính đơn hướng, trừ trường hợp các sai số của các biến quan
sát có tương quan với nhau.
- Giá trị hội tụ: Gerbing và Anderson (1988) cho rằng, thang đo đạt
được giá trị hội tụ (mô hình phù hợp với dữ liệu) khi các trọng số chuẩn hóa
của thang đo đều cao (> 0,5) và có ý nghĩa thống kê (p < 0,05).
- Giá trị phân biệt: Có thể kiểm định giá trị phân biệt của các khái niệm
trong mô hình bao gồm giá trị phân biệt giữa các thành phần trong cùng một
khái niệm nghiên cứu (within-construct discriminant validity) và giá trị phân
biệt giữa các khái niệm nghiên cứu (across- construct discriminant validity) có
thật sự khác biệt hay không. Nếu thật sự khác biệt thì các thang đo đạt được
giá trị phân biệt (Bagozzi và Foxall, 1996). Giá trị phân biệt sẽ đạt yêu cầu nếu
thỏa mãn các tiêu chí, (1) Tương quan giữa hai thành phần của một khái niệm
hay giữa hai khái niệm nhỏ hơn 1 một cách có ý nghĩa; (2) Mô hình thỏa mãn
độ phù hợp với dữ liệu.
Phương pháp phân tích nhân tố khẳng định CFA chấp nhận các giả
thuyết của các nhà nghiên cứu, được xác định căn cứ theo quan hệ giữa mỗi
biến và một hay nhiều hơn một nhân tố. Phương pháp CFA được sử dụng để
khẳng định lại tính đơn biến, đa biến, giá trị hội tụ và phân biệt của bộ thang
đo (Phạm Lê Hồng Nhung, 2012).
(5) Phân tích mô hình cấu trúc tuyến tính SEM
Một trong những kỹ thuật phức hợp và linh hoạt nhất sử dụng để phân
tích mối quan hệ phức tạp trong các mô hình nhân quả là mô hình cấu trúc
tuyến tính (SEM - Structural Equation Modeling). Mô hình SEM đã được sử
dụng rộng rãi trong các lĩnh vực nghiên cứu như tâm lý học (Anderson &
Gerbing,1988; Hansell và White, 1991), xã hội học (Lavee, 1988; Lorence và
Mortimer, 1985), nghiên cứu sự phát triển của trẻ em (Anderson, 1987; Biddle
và Marlin,1987) và trong lĩnh vực quản lý (Tharenou, Latimer và
Conroy,1994). Đặc biệt mô hình này cũng được ứng dụng trong rất nhiều mô
hình khảo sát sự thỏa mãn khách hàng như: ngành dịch vụ thông tin di động
tại Hàn Quốc (M. K. Kim et al. / Telecommunications Policy 28 (2004) 145–
107
159), Mô hình nghiên cứu sự trung thành của khách hàng sử dụng dịch vụ
thông tin di động tại Việt nam (Phạm Đức Kỳ, Bùi Nguyên Hùng, 2007)
Mô hình SEM là sự mở rộng của mô hình tuyến tính tổng quát (GLM)
cho phép nhà nghiên cứu kiểm định một tập hợp phương trình hồi quy cùng
một lúc. SEM có thể cho một mô hình phức hợp phù hợp với dữ liệu như các
bộ dữ liệu khảo sát trong dài hạn (longitudinal), phân tích nhân tố khẳng định
(CFA), các mô hình không chuẩn hoá, cơ sở dữ liệu có cấu trúc sai số tự tương
quan, dữ liệu với các biến số không chuẩn (Non-Normality), hay dữ liệu bị
thiếu (missing data).
Đặc biệt, SEM sử dụng để ước lượng các mô hình đo lường
(Mesurement Model) và mô hình cấu trúc (Structure Model) của bài toán lý
thuyết đa biến. Mô hình đo lường chỉ rõ quan hệ giữa các biến tiềm ẩn (Latent
Variables) và các biến quan sát (observed variables). Nó cung cấp thông tin về
thuộc tính đo lường của biến quan sát (độ tin cậy, độ giá trị). Mô hình cấu trúc
chỉ rõ mối quan hệ giữa các biến tiềm ẩn với nhau. Các mối quan hệ này có
thể mô tả những dự báo mang tính lý thuyết mà các nhà nghiên cứu quan tâm.
Mô hình SEM phối hợp được tất cả các kỹ thuật như hồi quy đa biến,
phân tích nhân tố và phân tích mối quan hệ hỗ tương (giữa các phần tử trong
sơ đồ mạng) để cho phép chúng ta kiểm tra mối quan hệ phức hợp trong mô
hình. Khác với những kỹ thuật thống kê khác chỉ cho phép ước lượng mối
quan hệ riêng phần của từng cặp nhân tố (phần tử) trong mô hình cổ điển (mô
hình đo lường), SEM cho phép ước lượng đồng thời các phần tử trong tổng thể
mô hình, ước lượng mối quan hệ nhân quả giữa các khái niệm tiềm ẩn (Latent
Constructs) qua các chỉ số kết hợp cả đo lường và cấu trúc của mô hình lý
thuyết, đo các mối quan hệ ổn định (recursive) và không ổn định (non-
recursive), đo các ảnh hưởng trực tiếp cũng như gián tiếp, kể cả sai số đo và
tương quan phần dư. Với kỹ thuật phân tích nhân tố khẳng định (CFA) mô
hình SEM cho phép linh động tìm kiếm mô hình phù hợp nhất trong các mô
hình đề nghị (Nguyễn Đình Thọ & Nguyễn Thị Mai Trang, 2009).
Hiện nay có nhiều công cụ phần mềm hỗ trợ quá trình thống kê, phân
tích và xác định mô hình SEM như: AMOS, LISREL, EQS, MPLUS được
108
các nhà nghiên cứu sử dụng rất phổ biến trong các đề tài nghiên cứu. Một
trong những công cụ phổ biến nhất là phần mềm AMOS với ưu điểm là: (a) dễ
sử dụng nhờ module tích hợp chung với phần mềm phổ biến là SPSS và (b) dễ
dàng xây dựng các mối quan hệ giữa các biến, nhân tố (phần tử mô hình) bằng
trực quan hình học nhờ chức năng AMOS Graphics. Kết quả được biểu thị
trực tiếp trên mô hình hình học, nhà nghiên cứu căn cứ vào các chỉ số để kiểm
định các giả thuyết, độ phù hợp của tổng thể mô hình một cách dễ dàng, nhanh
chóng.
* Kiểm tra ước lượng mô hình bằng phương pháp Bootstrap
Đây là một trong những kiểm định cuối cùng, và là phần việc cuối cùng
khi phân tích dữ liệu mô hình SEM, với phần mềm AMOS.
Việc kiểm định bootstrap được tiến hành để kiểm tra lại mô
hình. Bootstrap là phương pháp lấy mẫu lại có thay thế trong đó mẫu ban đầu
đóng vai trò đám đông. Mô hình cuối cùng cũng như các mô hình phù hợp
khác cần thiết phải có bộ dữ liệu độc lập với nhau, hay cỡ mẫu ban đầu khá
lớn. Trong phương pháp nghiên cứu định lượng bằng phương pháp lấy mẫu,
thông thường chúng ta phải chia mẫu thành 02 mẫu con. Mẫu con thứ nhất
dùng để ước lượng các tham số mô hình và mẫu con thứ hai dùng để đánh giá
lại:
- Định cỡ mẫu con thứ nhất dùng để khám phá,
- Dùng cỡ mẫu con thứ hai để đánh giá chéo (Cross-Validation)
Chỉ số đánh giá chéo CVI (Cross-Validation Index) đo khoảng cách
giữa ma trận hiệp phương sai (Covariance) phù hợp trong mẫu con thứ nhất
với ma trận hiệp phương sai của mẫu. Chỉ số CVI nhỏ nhất cho phép kỳ vọng
trạng thái mẫu lặp lại càng ổn định.
Cách khác là lặp lại nghiên cứu bằng một mẫu khác. Hai cách trên đây
thường không thực tế vì phương pháp phân tích mô hình cấu trúc thường đòi
hỏi mẫu lớn nên việc làm này tốn kém nhiều thời gian, chi phí [Anderson &
Gerbing 1998]. Trong những trường hợp như vậy thì Boostrap là phương pháp
phù hợp để thay thế [Schumacker & Lomax 1996].
109
Bootstrap là phương pháp lấy mẫu lại có thay thế trong đó mẫu ban
đầu đóng vai trò đám đông. Phương pháp Boostrap thực hiện với số mẫu lặp
lại là N lần. Kết quả ước lượng từ N mẫu được tính trung bình và giá trị này có
xu hướng gần đến ước lượng của tổng thể. Khoảng chênh lệch giữa giá trị
trung bình ước lượng bằng Bootstrap và ước lượng mô hình với mẫu ban đầu
càng nhỏ cho phép kết luận các ước lượng mô hình có thể tin cậy được (Phạm
Đức Kỳ, Bùi Nguyên Hùng, 2007).
Trong nghiên cứu này tác giả đã sử dụng phần mềm SPSS 20.0 và phần
mềm AMOS 20.0 để phân tích dữ liệu và kiểm định các giả thuyết.
3.2.3 Quy trình nghiên cứu định lƣợng
Dựa vào nội dung nghiên cứu, tổng quan tài liệu và cơ sở lý thuyết tác
giả xây dựng quy trình nghiên cứu gồm 02 giai đoạn chính như sau:
- Giai đoạn 1: Nghiên cứu sơ bộ
+ Giai đoạn này gồm hai phần chính là (1) trên cơ sở nghiên cứu lý
thuyết và lược khảo tài tiêu có liên quan tác giả sẽ tiến hành thiết lập Thang đo
thử (nháp) để xin ý kiến các chuyên gia, thảo luận nhóm và (2) tiến hành điều
chỉnh Thang đo phù hợp, tiến hành nghiên cứu định lượng sơ bộ (khoảng 72
đơn vị). Sau khi có số liệu thu thập qua nghiên cứu sơ bộ, tác giả tiến hành
làm sạch dữ liệu (chọn lại 70 đơn vị), nhập số liệu vào phần mềm và tiến hành
kiểm định Cronbach” Alpha và phân tích nhân tố khám phá EFA.
+ Sau khi có kết quả kiểm định, tác giả tiến hành tham khảo ý kiến
Thầy hướng dẫn, các chuyên gia phân tích và các lãnh đạo DN có ứng dụng
mạnh CNTT (Danh sách chuyên gia) để xem xét loại bỏ các chỉ số bất thường
trong kết quả phân tích. Tiến hành đánh giá và điều chỉnh bộ thang đo phù hợp
nghiên cứu.
- Giai đoạn 2: Nghiên cứu chính thức
+ Sau khi điều chỉnh thang đo tác giả đã nhiều lần tham khảo ý kiến
Thầy hướng dẫn và các chuyên gia có kinh nghiệm trong hai lĩnh vực có liên
quan là CNTT và Quản trị kinh doanh. Sau khi thống nhất thang đo, tác giả
xác định nội dung cần thu thập và tiến hành thiết lập bảng câu hỏi điều tra
chính thức các DN theo đối tượng và phạm vi nghiên cứu.
110
+ Sau khi có số liệu điều tra, tác giả đã tiến hành làm sạch dữ liệu, kết
quả có hơn 350 phiếu khảo sát DN đạt yêu cầu, nhưng tác giả quyết định chọn
350 phiếu hoàn chỉnh nhất để tiến hành phân tích chính thức bằng các công cụ
phân tích định tính Cronbach‟s Alpha, phân tích nhân tố khám phá (EFA),
phân tích nhân tố khẳng định (CFA) và cấu trúc tuyến tính (SEM) theo quy
trình nghiên cứu lựa chọn.
111
Nguồn: Đề xuất của tác giả, 2017
Hình 3.9 Quy trình nghiên cứu đề xuất
N
g
h
iê
n
c
ứ
u
s
ơ
b
ộ
N
g
h
iê
n
c
ứ
u
c
h
ín
h
t
h
ứ
c
Kiểm tra độ thích hợp mô hình, giá trị liên hệ lý
thuyết và giả thuyết, ước lượng mô hình
Bộ thang
đo
Nghiên cứu
chính thức(n=350)
Kiểm tra trọng số EFA, nhân tố
và phương sai trích
Phân tích CFA
Thang đo
chính chức
Kiểm tra độ thích hợp của mô hình, trọng số
CFA, độ tin cậy tổng hợp đơn hướng, giá trị hội
tụ và phân biệt
Phân tích CFA
Mô hình SEM
Cơ sở lý thuyết
Lược khảo tài liệu
có liên quan
Thang đo
thử (nháp)
Thảo luận nhóm - Tham khảo
ý kiến chuyên gia
Thang đo
sơ bộ
Nghiên cứu sơ bộ
định lượng (n=70)
Đánh giá sơ bộ
thang đo
Kiểm tra hệ số Cronbach‟s alpha
Phân tích nhân tố EFA
112
3.2.4 Các giả thuyết nghiên cứu cần kiểm định
Từ nghiên cứu của tác giả tiền nhiệm và qua điều tra sơ bộ chúng ta
nhận thấy rằng các nghiên cứu này đều xem xét (lựa chọn) nhân tố CNTT tác
động đến các yếu tố cấu thành NLCT của DN đều có tác động cùng chiều.
Qua nghiên cứu thực nghiệm tại TPCT, chúng ta cần kiểm định và phân tích
các mối quan hệ này. Các yếu tố cần kiểm định:
a. Năng lực định hướng thị trường
Thông tin về thị trường là yếu tố rất quan trọng trong hoạt động kinh
doanh của mỗi DN. Thông tin về thị trường chính là chìa khóa để DN am
hiểu thị trường. Những nghiên cứu thông tin về thị trường chính xác sẽ giúp
DN đưa ra chiến lược kinh doanh phù hợp, do đó mang lại hiệu quả cho
DN. Tuy nhiên, một thực tế ở các DN ở Việt Nam và cũng là nguyên nhân
làm giảm năng lực cạnh tranh của DN này là việc thiếu thông tin về thị
trường. Từ đó dẫn đến tình trạng DN ở Việt Nam là DN bán cái mà mình
sản xuất ra hơn là bán sản phẩm mà khách hàng cần.
Trong khi đó, ứng dụng CNTT, đặc biệt là mạng Internet sẽ mang lại
cho các DN những công cụ và kênh thu thập thông tin hiệu quả với chi phí
thấp. Đồng thời, ứng dụng CNTT cũng giúp cho DN hệ thống hóa việc thu
thập, phân tích và xử lý thông tin thị trường một cách chính xác và hiệu
quả. Bên cạnh đó, cùng với sự phát triển của CNTT, TMĐT ra đời mang lại
nhiều tiện lợi cho DN trong việc khai thác thông tin thị trường. Sự phát
triển của TMĐT sẽ giúp DN cập nhật thông tin về tình hình, nhu cầu của thị
trường một cách đầy đủ nhất.
Trong những năm qua, một trong những nhân tố khiến nhiều sản phẩm
Việt Nam có năng lực cạnh tranh kém là do giá thành sản xuất cao. Do vậy,
nhằm năng cao NLCT, việc áp dụng các giải pháp nhằm giảm chi phí đầu vào,
giảm giá thành đối với sản phẩm là một vấn đề cấp bách khi chúng ta đang
đứng trước ngưỡng cửa hội nhập với nền kinh tế thế giới. CNTT đang được
xem như một giải pháp hữu hiệu giúp DN tiết kiệm chi phí đầu vào cho các
sản phẩm. CNTT hiện nay được xem như công cụ, phương tiện để phục vụ
phát triển DN. Trong nghiên cứu thị trường, ứng dụng CNTT vào khai thác
113
thông tin thị trường nhằm giảm chi phí nghiên cứu thị trường. Ứng dụng các
giao dịch TMĐT giúp DN giảm bớt các chi phí ở các khâu trung gian. Đồng
thời, ứng dụng CNTT giúp DN quản lý thông tin tốt hơn, chính xác hơn, cải
tiến qui trình sản xuất, sản phẩm làm ra ngày càng có hàm lượng sáng tạo
nhằm tăng lợi thế cạnh tranh, tăng lợi nhuận của DN... Hơn nữa, trong điều
kiện khủng hoảng kinh tế như hiện nay khiến một số DN rơi và tình trạng khó
khăn, để tồn tại và phát triển bắt buộc các DN phải nâng cao năng lực sản
xuất, cắt giảm chi phí và kiểm soát các hoạt động của DN tốt hơn nữa. Từ đó,
chúng ta sẽ tiến hành kiểm định giả thuyết về mối quan hệ giữa CNTT đến yếu
tố Năng lực thị trường của các DN. H1: Mối quan hệ giữa CNTT đến yếu tố
Năng lực thị trường.
b. Năng lực huy động vốn
Trong những năm gần đây, việc cho vay của các ngân hàng thương mại
và đi vay của các cá nhân, DN có nhu cầu vay vốn Ngân hàng tại Việt Nam đã
cởi mở hơn nhiều nhờ sự điều tiết của Ngân hàng Nhà nước và sự thay đổi mô
hình hoạt động của các Ngân hàng theo hướng dịch vụ hoá, hướng tới khách
hàng. Bằng việc ứng dụng các công nghệ, không chỉ giúp khách hàng nắm bắt
thông tin liên quan đến việc vay vốn, mở thẻ tín dụng, tài khoản tiết kiệm mà
còn là giải pháp hỗ trợ khách hàng lựa chọn phương án vay vốn tối ưu, lựa
chọn Ngân hàng có lãi suất tốt nhất, nhiều ưu đãi nhất. Ngoài ra, còn hỗ trợ tự
động tư vấn thủ tục cho từng khách để khách hàng nắm rõ hơn những giấy tờ
cần chuẩn bị trước khi vay vốn Ngân hàng, giúp khách hàng tự tin hơn, tránh
trường hợp vì thiếu thông tin mà phải tốn thêm các loại chi phí không cần
thiết.
Việc ứng dụng CNTT trong việc sử dụng các phần mềm ứng dụng hỗ
trợ cho DN lập các báo cáo tài chính trình các tổ chức tín dụng
Các file đính kèm theo tài liệu này:
- luan_an_nghien_cuu_tac_dong_cua_cong_nghe_thong_tin_den_cac.pdf