Luật Trí Tuệ Nhân Tạo của Việt Nam: Những Điểm Chính và Nhận Định Ban Đầu
Please download our legal briefing here.
Ngày xuất bản:
13/2/2026

Ngày 10 tháng 12 năm 2025, Quốc hội đã thông qua Luật Trí tuệ nhân tạo đầu tiên của Việt Nam (“Luật AI”) tại Kỳ họp thứ 10. Với bước tiến này, Việt Nam gia nhập nhóm các quốc gia và vùng lãnh thổ – đáng chú ý là Liên minh Châu Âu (AI Act 2024) và Hàn Quốc (AI Basic Act 2024) – đã ban hành khung pháp lý chuyên biệt dành cho trí tuệ nhân tạo. Luật AI sẽ có hiệu lực từ ngày 01 tháng 3 năm 2026.

Luật AI được xây dựng theo hướng dựa trên nguyên tắc và định hướng quản lý theo mức độ rủi ro, về tổng thể tương đồng với cách tiếp cận của EU AI Act; tuy nhiên, Luật AI cũng đưa ra một số điểm mới đi sâu hơn, như được khái quát dưới đây. Luật xác lập các nguyên tắc cốt lõi và khung khổ quản lý cơ bản, đồng thời chủ đích để những khoảng trống cho Chính phủ và các Bộ quản lý ngành, lĩnh vực ban hành hướng dẫn chi tiết. Theo đó, các nghị định hướng dẫn thi hành, quy định chuyên ngành và các chính sách quy hoạch, chiến lược quốc gia sắp tới được kỳ vọng sẽ từng bước hoàn thiện và cụ thể hóa khung pháp lý về trí tuệ nhân tạo của Việt Nam.

Bài viết này làm rõ các đặc điểm chính của Luật AI và chỉ ra những lĩnh vực có thể cần được làm rõ thêm thông qua quy định hướng dẫn trong thời gian tới.

Bài viết bao gồm các nội dung sau:

(1) Nguyên tắc cốt lõi và các hành vi bị nghiêm cấm

(2) Phân loại rủi ro và yêu cầu hành chính

(3) Chính sách của Nhà nước thúc đẩy phát triển trí tuệ nhân tạo

(4) Một số hệ quả pháp lý dự kiến

1. Nguyên tắc cốt lõi và các hành vi bị nghiêm cấm

Tương tự như EU AI Act, Luật AI của Việt Nam được xây dựng xoay quanh một số nguyên tắc cốt lõi áp dụng đối với toàn bộ hoạt động liên quan trí tuệ nhân tạo, bao gồm nghiên cứu, phát triển, triển khai và sử dụng. Các nguyên tắc này bao gồm:

• Lấy con người làm trung tâm và bảo đảm sử dụng hợp pháp

• Bảo đảm thẩm quyền, trách nhiệm và sự kiểm soát của con người

• Công bằng, minh bạch và không phân biệt đối xử

• Phát triển bền vững và có trách nhiệm

Một trong những điểm đặc trưng nổi bật của Luật AI Việt Nam là việc khẳng định rõ ràng rằng trí tuệ nhân tạo không thay thế thẩm quyền hoặc trách nhiệm của con người. Cách tiếp cận này đi xa hơn so với mô hình của EU, vốn chủ yếu nhấn mạnh yêu cầu giám sát và kiểm soát của con người. Theo cách diễn đạt của Việt Nam, thông điệp rất rõ ràng: khi AI được sử dụng, người ra quyết định vẫn phải chịu trách nhiệm pháp lý.

Không phân biệt đối xử

Không phân biệt đối xử là một trụ cột quan trọng khác của Luật AI. Về nội dung, nguyên tắc này nhằm ngăn chặn thiên lệch trái pháp luật dựa trên các đặc điểm được pháp luật bảo vệ như độ tuổi, giới tính, dân tộc hoặc các căn cứ tương tự.

Ví dụ, một hệ thống tuyển dụng ứng dụng trí tuệ nhân tạo không được tự động loại ứng viên dựa trên độ tuổi hoặc dân tộc nếu không có căn cứ pháp lý hợp lệ. Pháp luật Việt Nam hiện hành đã điều chỉnh vấn đề phân biệt đối xử trong các văn bản chuyên ngành, đặc biệt là Bộ luật Lao động. Luật AI không thay thế các quy định này; thay vào đó, Luật mở rộng và củng cố việc áp dụng các nguyên tắc chống phân biệt đối xử trong bối cảnh sử dụng hệ thống trí tuệ nhân tạo.

Trong thực tiễn, việc một hệ thống trí tuệ nhân tạo có bị coi là “phân biệt đối xử” hay không vẫn sẽ phụ thuộc vào các tiêu chuẩn pháp lý nội dung tương ứng. Không phải mọi sự khác biệt trong kết quả xử lý đều cấu thành hành vi trái pháp luật. Vấn đề quyết định là liệu sự khác biệt đó có thiếu căn cứ pháp lý hợp lệ hay không, chứ không đơn thuần là việc tồn tại sự đối xử khác biệt.

2. Phân loại rủi ro và yêu cầu hành chính

Việt Nam áp dụng mô hình quản lý dựa trên mức độ rủi ro, tương đồng chặt chẽ với cách tiếp cận của EU AI Act.

Phân loại rủi ro

Trước khi triển khai, nhà cung cấp hệ thống trí tuệ nhân tạo phải phân loại hệ thống vào một trong ba nhóm sau:

• Rủi ro cao: hệ thống có khả năng gây thiệt hại đáng kể đến tính mạng, sức khỏe, quyền và lợi ích hợp pháp, an ninh quốc gia hoặc lợi ích công cộng;

• Rủi ro trung bình: hệ thống có thể gây nhầm lẫn, tác động hoặc thao túng người sử dụng khi họ không nhận biết đang tương tác với hệ thống trí tuệ nhân tạo;

• Rủi ro thấp: các hệ thống còn lại.

Trường hợp chưa rõ cách phân loại, nhà cung cấp có thể đề nghị Bộ Khoa học và Công nghệ (“Bộ KH&CN”) hướng dẫn trên cơ sở hồ sơ kỹ thuật.

Thông báo và giám sát

• Hệ thống rủi ro trung bình và rủi ro cao phải được thông báo đến Bộ KH&CN thông qua Cổng thông tin điện tử một cửa về trí tuệ nhân tạo trước khi đưa vào sử dụng.

• Hệ thống rủi ro thấp được miễn nghĩa vụ thông báo, tuy nhiên việc công khai tự nguyện được khuyến khích.

Giám sát quản lý

• Hệ thống rủi ro cao chịu kiểm tra định kỳ hoặc kiểm tra đột xuất;

• Hệ thống rủi ro trung bình được giám sát thông qua báo cáo, kiểm tra chọn mẫu hoặc đánh giá độc lập;

• Hệ thống rủi ro thấp về cơ bản chỉ chịu giám sát khi có sự cố hoặc phản ánh.

Đánh giá sự phù hợp

• Hệ thống trí tuệ nhân tạo rủi ro cao phải thực hiện đánh giá sự phù hợp trước khi đưa vào sử dụng.

• Một số hệ thống rủi ro cao sẽ thuộc diện bắt buộc chứng nhận bởi tổ chức đánh giá sự phù hợp độc lập.

• Các hệ thống rủi ro cao khác có thể được tự đánh giá hoặc đánh giá bởi tổ chức đánh giá sự phù hợp đã đăng ký.

Kết quả đánh giá sự phù hợp là điều kiện tiên quyết để triển khai hợp pháp hệ thống trí tuệ nhân tạo, và việc tuân thủ phải được duy trì trong suốt vòng đời của hệ thống.

Minh bạch và gắn nhãn

Người sử dụng phải được thông báo khi họ đang tương tác với hệ thống trí tuệ nhân tạo thay vì con người. Nội dung do AI tạo ra hoặc chỉnh sửa mà có thể bị nhầm lẫn là nội dung thật phải được gắn nhãn rõ ràng.

Mặc dù mục tiêu chính sách là hợp lý, hướng dẫn kỹ thuật chi tiết sẽ đóng vai trò thiết yếu. Thách thức then chốt là bảo đảm tính minh bạch mà không làm gián đoạn đáng kể trải nghiệm người dùng, đặc biệt trong các dịch vụ số và nền tảng trực tuyến.

Nhà cung cấp nước ngoài

Nhà cung cấp nước ngoài cung cấp hệ thống trí tuệ nhân tạo rủi ro cao tại Việt Nam phải:

• bổ nhiệm đầu mối liên hệ hợp pháp tại Việt Nam; và

• thiết lập hiện diện thương mại hoặc có đại diện được ủy quyền trong trường hợp hệ thống thuộc diện bắt buộc chứng nhận.

Điều này khẳng định chủ trương của Việt Nam trong việc quản lý dịch vụ AI xuyên biên giới với cơ chế thực thi hiệu quả.

3. Chính sách của Nhà nước thúc đẩy phát triển trí tuệ nhân tạo

Luật AI không chỉ mang tính hạn chế, mà còn thể hiện rõ định hướng thúc đẩy phát triển. Các định hướng chính bao gồm:

Hạ tầng trí tuệ nhân tạo quốc gia

Nhà nước sẽ đầu tư và vận hành hạ tầng AI mang tính chiến lược – bao gồm năng lực tính toán, tài nguyên dữ liệu, nền tảng AI và mô hình ngôn ngữ tiếng Việt – dưới hình thức dịch vụ công.

Chiến lược quốc gia về trí tuệ nhân tạo

Thủ tướng Chính phủ có trách nhiệm ban hành và cập nhật Chiến lược quốc gia về trí tuệ nhân tạo ít nhất ba năm một lần, bao gồm định hướng phát triển công nghệ, hạ tầng, nguồn nhân lực và các lĩnh vực ưu tiên.

Phát triển công nghệ cốt lõi

Việt Nam ưu tiên nghiên cứu, phát triển và làm chủ các công nghệ trí tuệ nhân tạo cốt lõi trong nước.

Ưu đãi và hỗ trợ tài chính

Các dự án AI có thể được hưởng ưu đãi thuế, ưu đãi đầu tư và hỗ trợ tài chính theo pháp luật hiện hành. Quỹ Phát triển trí tuệ nhân tạo quốc gia sẽ hỗ trợ hoạt động nghiên cứu, phát triển và thương mại hóa AI.

Thông điệp chính sách tổng thể là rõ ràng: Việt Nam hướng tới điều chỉnh AI theo hướng kiểm soát rủi ro nhưng không làm cản trở đổi mới sáng tạo và đầu tư.

4. Một số hệ quả pháp lý dự kiến

Nghĩa vụ cẩn trọng và trách nhiệm bồi thường thiệt hại ngoài hợp đồng

Luật AI khẳng định việc sử dụng trí tuệ nhân tạo không loại trừ nghĩa vụ cẩn trọng nghề nghiệp. Ở chiều ngược lại, các thảo luận pháp lý trên toàn cầu ngày càng đặt vấn đề liệu, khi AI trở thành chuẩn mực ngành, việc không sử dụng AI có thể cấu thành sơ suất hay không. Vấn đề này khó có khả năng được quy định trực tiếp trong luật, nhưng có thể dần hình thành thông qua thực tiễn trách nhiệm dân sự và chuẩn mực nghề nghiệp. Ở thời điểm hiện tại, yêu cầu của Luật AI là rõ ràng: sử dụng AI một cách thận trọng, giám sát chủ động và không phụ thuộc mù quáng vào hệ thống.

Phân bổ trách nhiệm – “tam giác AI”

Một trong những điểm quan trọng nhất của Luật AI Việt Nam là giải pháp đối với trách nhiệm dân sự. Luật xác lập ba chủ thể: nhà phát triển, bên triển khai và bên bị thiệt hại (thường là khách hàng). Trong trường hợp hệ thống trí tuệ nhân tạo rủi ro cao được quản lý đúng quy định nhưng vẫn gây thiệt hại:

• bên triển khai chịu trách nhiệm bồi thường cho bên bị thiệt hại;

• bên triển khai có thể yêu cầu hoàn trả từ nhà cung cấp hoặc nhà phát triển nếu có thỏa thuận hợp đồng.

Cách tiếp cận này phản ánh logic quen thuộc của trách nhiệm sản phẩm và bảo vệ người tiêu dùng: chủ thể gần nhất với thiệt hại sẽ chịu trách nhiệm trước tiên. Nhà phát triển không mặc nhiên chịu trách nhiệm nếu không có lỗi, thỏa thuận hợp đồng hoặc căn cứ pháp lý khác.

Trên thực tế, điều này đặt trọng tâm vào:

• phân bổ rủi ro trong hợp đồng;

• điều khoản bồi hoàn;

• bảo hiểm trách nhiệm.

Kết luận

Luật Trí tuệ nhân tạo của Việt Nam không phải là kết luận, nhưng là một điểm khởi đầu mang tính quyết định. Luật thiết lập các chủ đề trung tâm của quản trị AI: trách nhiệm, kiểm soát của con người và quản lý rủi ro. Tác động thực sự của Luật sẽ phụ thuộc vào các nghị định hướng dẫn thi hành, quy định chuyên ngành và thực tiễn thực thi, đòi hỏi doanh nghiệp cung cấp hoặc triển khai AI tại Việt Nam phải theo dõi sát sao và liên tục cập nhật.

Tài nguyên bên ngoài
Tài liệu PDF:
Download PDF
Liên kết bên ngoài:
Open link
There is no external resources
Liên hệ
Đăng ký
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Lĩnh vực liên quan