Luật AI - “Thước ngắm” giúp doanh nghiệp Việt chủ động trong nền kinh tế số

Thanh Hằng

Việc Liên minh châu Âu ban hành Đạo luật AI đã đặt nền móng cho quản trị công nghệ có trách nhiệm trên phạm vi toàn cầu. Đối với Việt Nam, quá trình xây dựng luật AI không chỉ là yêu cầu pháp lý, mà còn là cơ hội giúp doanh nghiệp định hình chiến lược phát triển, nâng cao năng lực cạnh tranh và hội nhập sâu hơn vào chuỗi giá trị số quốc tế. Để hiểu rõ hơn về vấn đề này, phóng viên Tạp chí Kinh tế - Tài chính có cuộc trao đổi với TS. Trần Nguyên Các - Viện trưởng Viện Nghiên cứu Tổ chức và Kinh tế số (RIDE).

Luật AI - “Thước ngắm” giúp doanh nghiệp Việt chủ động trong nền kinh tế số - Ảnh 1
TS. Trần Nguyên Các - Viện trưởng Viện Nghiên cứu Tổ chức và Kinh tế số (RIDE).

Phóng viên: Thưa ông, Đạo luật AI của Liên minh châu Âu đã đặt ra những nguyên tắc quản lý nào, và vì sao văn bản này được xem là hình mẫu cho quản trị AI toàn cầu? Việt Nam có thể học hỏi gì từ mô hình này?

TS. Trần Nguyên Các: Đạo luật AI của EU là một trong những khung pháp lý đầu tiên trên thế giới, điều chỉnh trực tiếp hoạt động của trí tuệ nhân tạo. Điểm nổi bật nhất của đạo luật này chính là cách tiếp cận dựa trên mức độ rủi ro, một mô hình được nhiều quốc gia đánh giá cao và đang tham khảo trong quá trình xây dựng luật AI riêng.

Theo đó, EU chia hệ thống AI thành 4 cấp độ rủi ro: rủi ro rất cao, rủi ro cao, rủi ro hạn chế và rủi ro thấp. Mỗi nhóm có cơ chế quản lý khác nhau, tùy theo mức độ ảnh hưởng đến quyền con người, an toàn xã hội hay thị trường. Với nhóm rủi ro cao, đạo luật quy định rất cụ thể về kiểm soát, giám sát và trách nhiệm pháp lý.

Cách tiếp cận theo rủi ro giúp quản lý linh hoạt và khoa học hơn, tránh việc “một khung cho tất cả” làm cản trở đổi mới. Việt Nam hiện cũng đang nghiên cứu mô hình này trong quá trình xây dựng Luật AI, thể hiện nỗ lực hòa nhập với thông lệ quốc tế và hướng đến môi trường pháp lý vừa chặt chẽ vừa khuyến khích sáng tạo.

Phóng viên: Chính phủ Việt Nam đã ban hành nhiều chiến lược phát triển AI. Theo ông, điểm mạnh và khoảng trống chính sách hiện nay là gì, đặc biệt trong việc cân bằng giữa đổi mới sáng tạo và kiểm soát rủi ro?

TS. Trần Nguyên Các: AI là công nghệ nền tảng của cuộc cách mạng công nghiệp 4.0, được ứng dụng trong mọi lĩnh vực. Việt Nam đã có chiến lược quốc gia về AI đến năm 2030, định hướng trở thành trung tâm đổi mới trong khu vực. Tuy nhiên, khoảng trống chính sách vẫn tồn tại, đặc biệt trong quản trị dữ liệu, quyền riêng tư và trách nhiệm khi xảy ra rủi ro.

Để cân bằng giữa kiểm soát và sáng tạo, Việt Nam cần xây dựng khung pháp lý linh hoạt hơn. Ba trụ cột quan trọng là cách tiếp cận theo rủi ro, cơ chế hậu kiểm và nguyên tắc minh bạch. Đây là ba yếu tố giúp vừa tạo điều kiện cho đổi mới công nghệ, vừa đảm bảo AI phát triển an toàn, có trách nhiệm và phục vụ con người.

Cách tiếp cận theo rủi ro cho phép xác định rõ những hệ thống cần giám sát chặt, trong khi các ứng dụng có rủi ro thấp được khuyến khích phát triển. Cơ chế hậu kiểm giúp doanh nghiệp có không gian thử nghiệm, sáng tạo trong giai đoạn đầu, sau đó mới có biện pháp kiểm tra, giám sát kỹ hơn khi sản phẩm đi vào vận hành thực tế.

Yếu tố thứ ba là minh bạch đòi hỏi doanh nghiệp công bố rõ cách vận hành, dữ liệu huấn luyện và mục tiêu sử dụng AI. Minh bạch không chỉ tạo niềm tin xã hội, mà còn là yêu cầu quan trọng để cơ quan quản lý đánh giá rủi ro và đưa ra chính sách phù hợp. Đây là hướng đi cân bằng giữa phát triển và kiểm soát.

Phóng viên: Sự phát triển nhanh của AI đặt ra nhiều vấn đề về đạo đức, minh bạch và trách nhiệm pháp lý. Theo ông, Việt Nam nên tiếp cận những vấn đề này như thế nào để đảm bảo AI phục vụ con người an toàn và có trách nhiệm?

TS. Trần Nguyên Các: Đúng vậy! Khi AI được ứng dụng ngày càng rộng rãi, chúng ta phải đối mặt với nhiều thách thức về đạo đức và pháp lý. Tuy nhiên, mức độ ứng dụng AI cũng phản ánh năng lực cạnh tranh của mỗi quốc gia. Vì vậy, Việt Nam cần vừa thúc đẩy ứng dụng mạnh mẽ, vừa đảm bảo nguyên tắc trách nhiệm và đạo đức.

Ở cấp độ quốc gia, cần đẩy mạnh ứng dụng AI trong sản xuất, dịch vụ công, giáo dục, y tế… để tăng năng suất lao động và hiệu quả quản trị. Ở cấp doanh nghiệp, cần nâng cao nhận thức về đạo đức sử dụng AI, đảm bảo công nghệ phục vụ con người chứ không thay thế con người. Trách nhiệm phải đi đôi với đổi mới.

Bên cạnh đó, cần có hệ thống kiểm tra, giám sát và các công cụ đánh giá rủi ro khi triển khai AI. Việc kết hợp giữa tự giác tuân thủ của doanh nghiệp và quản lý của Nhà nước sẽ giúp tạo ra môi trường sử dụng AI có trách nhiệm, đồng thời thúc đẩy niềm tin của xã hội đối với công nghệ này.

Phóng viên: Khi EU và nhiều quốc gia đang siết chặt quy định về AI, ông đánh giá tác động của các khung pháp lý quốc tế này đối với doanh nghiệp Việt Nam ra sao, đặc biệt là các doanh nghiệp xuất khẩu phần mềm và dịch vụ công nghệ sang châu Âu?

TS. Trần Nguyên Các: Đạo luật AI của EU quy định rằng bất kỳ hệ thống AI nào được sử dụng trong lãnh thổ châu Âu đều phải tuân thủ luật này, dù sản phẩm được phát triển ở đâu. Nghĩa là các doanh nghiệp Việt Nam cung cấp giải pháp cho khách hàng tại EU cũng phải đáp ứng đầy đủ các yêu cầu pháp lý của EU.

Phạm vi điều chỉnh của đạo luật rất rộng, bao gồm hai nhóm đối tượng: nhà cung cấp giải pháp và người triển khai. Ví dụ, một công ty Việt Nam phát triển phần mềm AI phục vụ ngân hàng có khách hàng tại EU thì cả nhà phát triển và đơn vị triển khai đều phải tuân thủ Đạo luật AI. Điều này đòi hỏi chuẩn bị kỹ về pháp lý và kỹ thuật.

 

Thực tế, việc tuân thủ Đạo luật AI của EU không chỉ là nghĩa vụ mà còn là cơ hội để doanh nghiệp Việt Nam nâng cao năng lực quản trị và uy tín quốc tế. Khi chuẩn hóa sản phẩm theo tiêu chuẩn châu Âu, doanh nghiệp cũng đồng thời sẵn sàng cho các quy định tương tự sẽ được áp dụng tại Việt Nam và nhiều nước khác.

Do đó, doanh nghiệp Việt Nam cần nắm rõ các quy định của EU, hiểu vị thế của mình trong chuỗi cung ứng là nhà phát triển, nhà cung cấp hay người sử dụng. Trên cơ sở đó, xác định mức độ rủi ro của hệ thống, xây dựng quy trình quản trị nội bộ, lưu trữ dữ liệu, đánh giá tác động và đảm bảo tuân thủ tiêu chuẩn quốc tế.

Một yêu cầu quan trọng khác là Tuyên bố tuân thủ (Declaration of Conformity), trong đó doanh nghiệp công bố sản phẩm hoặc dịch vụ AI đáp ứng các quy định của EU. Đây là bước bắt buộc nếu muốn cung cấp giải pháp tại thị trường châu Âu, đồng thời là tiền đề giúp doanh nghiệp tiếp cận các thị trường khác trong tương lai.

Phóng viên: Theo ông, Việt Nam cần làm gì để chuẩn bị cho giai đoạn sắp tới, khi AI ngày càng phát triển mạnh và được quản lý chặt chẽ hơn trên toàn cầu?

TS. Trần Nguyên Các: Việt Nam cần sớm hoàn thiện khung pháp lý về AI, đồng thời tăng cường năng lực cho các cơ quan quản lý và tổ chức nghiên cứu. Việc xây dựng Luật AI nên dựa trên ba nguyên tắc: lấy con người làm trung tâm; quản lý theo rủi ro và thúc đẩy đổi mới sáng tạo. Đây là hướng đi mà nhiều quốc gia tiên tiến đang theo đuổi.

Ngoài ra, cần hình thành hệ sinh thái AI bền vững, gắn kết giữa doanh nghiệp lớn và nhỏ, giữa khu vực công và tư. Nhà nước có thể hỗ trợ thông qua cơ chế thử nghiệm có kiểm soát (sandbox), chính sách khuyến khích nghiên cứu, và các chương trình đào tạo nhân lực AI chất lượng cao phục vụ nhu cầu dài hạn.

Phóng viên: Xin cảm ơn ông về những chia sẻ rất sâu sắc và thực tiễn!

 

Bộ Khoa học và Công nghệ đang lấy ý kiến Nhân dân đối với dự thảo Luật Trí tuệ nhân tạo (AI). Dự thảo gồm 9 chương 70 điều, trong đó quy định phân loại và quản lý hệ thống trí tuệ nhân tạo theo rủi ro; phát triển hạ tầng và đảm bảo chủ quyền trí tuệ nhân tạo quốc gia; chuyển đổi và ứng dụng trí tuệ nhân tạo phục vụ phát triển kinh tế - xã hội; đạo đức, độ tin cậy và trách nhiệm trong hoạt động trí tuệ nhân tạo; phát triển nhân lực, đổi mới sáng tạo và hợp tác quốc tế; thanh tra, xử lý vi phạm và giải quyết tranh chấp…