Phân loại AI rủi ro cao: Tìm điểm cân bằng giữa an toàn và sáng tạo
(PLVN) - Trong kỷ nguyên mà thuật toán bắt đầu tái định nghĩa lại sự thật, việc dán nhãn và kiểm soát "AI rủi ro cao" chính là giải pháp hàng đầu để có thể bảo vệ quyền công dân và duy trì dòng chảy sáng tạo của nền kinh tế số.

Phân loại rủi ro: Khi sự thật bị thách thức bởi thuật toán
Chúng ta đang sống trong một thời điểm mà niềm tin vào những gì mắt thấy tai nghe đang bị lung lay dữ dội. Trí tuệ nhân tạo (AI) đã tiến một bước dài từ những dòng code hỗ trợ tính toán đơn thuần đến khả năng tái tạo hình ảnh, giọng nói và mô phỏng sự kiện với độ chân thực đến mức ngỡ ngàng. Nếu trước đây, sự thật gắn liền với chứng cứ và nguồn tin xác thực, thì nay, nó có thể được nhào nặn dưới bàn tay của những thuật toán phức tạp.
Tại Việt Nam, vấn đề này đã được đưa ra thảo luận sâu tại Hội thảo “AI, con người và phát triển” diễn ra vào tháng 10/2025 tại Hà Nội. Giáo sư Hồ Tú Bảo, Giám đốc Phòng thí nghiệm Khoa học dữ liệu của Viện Nghiên cứu Cao cấp về Toán (VIASM) và Giám đốc Khoa học của Viện John von Neumann của Đại học Quốc gia, TP Hồ Chí Minh cùng nhiều chuyên gia đã cùng chung nhận định: Xã hội đang bước vào một “cuộc chiến bảo vệ sự thật” trên không gian số. Khi deepfake có thể giả dạng gương mặt một chính trị gia để phát ngôn gây sốc, hay giả giọng một người thân để thực hiện hành vi lừa đảo, sự thật không còn là thứ mặc nhiên tồn tại. Nó trở thành một giá trị cần được bảo vệ bằng luật pháp và nhận thức.
Thực tế cho thấy, AI đang làm thay đổi cấu trúc thông tin. Thuật toán của các nền tảng mạng xã hội thường ưu tiên những nội dung gây tranh cãi hoặc kích thích cảm xúc mạnh để tối ưu hóa tương tác. Điều này vô hình trung tạo ra những “thực tại thuật toán”, nơi công chúng chỉ được tiếp cận sự thật qua một lăng kính đã được sắp xếp sẵn, dẫn đến nguy cơ bóp méo dòng chảy thông tin và thao túng nhận thức cộng đồng.
Trong bối cảnh AI đang len lỏi vào từng ngóc ngách của đời sống, Luật AI Việt Nam có hiệu lực từ 01/3/2026 đã xác lập một tư duy quản trị hiện đại, tiệm cận với các khung tham chiếu khắt khe nhất thế giới. Thay vì áp đặt một cơ chế quản lý cào bằng, luật lựa chọn cách tiếp cận dựa trên rủi ro, chia hệ sinh thái AI thành bốn tầng nấc cụ thể để vừa bảo vệ quyền con người, vừa không bóp nghẹt động lực đổi mới.
Ở nấc thang cao nhất là các hệ thống mang rủi ro không thể chấp nhận được. Đây là những công nghệ bị cấm tuyệt đối vì xâm phạm trực diện đến tự do và phẩm giá con người, chẳng hạn như việc chấm điểm xã hội, thao túng tâm lý bằng kỹ thuật tiềm thức, hay giám sát sinh trắc học diện rộng tại nơi công cộng. Ngay dưới "lằn ranh đỏ" này chính là nhóm AI rủi ro cao, vốn là trọng tâm kiểm soát của toàn bộ luật.
Đây là những hệ thống có khả năng gây thiệt hại đáng kể nếu xảy ra sai sót nhưng lại mang lại giá trị thặng dư lớn nếu được vận hành trong một hành lang an toàn. Đối với các ứng dụng thuộc nhóm rủi ro trung bình hoặc hạn chế như Chatbot (trợ lý ảo thông minh) hay Deepfake (công nghệ giả mạo thực tế bằng AI), luật ưu tiên bảo vệ "quyền được biết" của người dùng thông qua các nghĩa vụ minh bạch.
Cuối cùng, phần lớn các ứng dụng AI thông thường như bộ lọc thư rác hay trò chơi điện tử được xếp vào nhóm rủi ro thấp, nơi doanh nghiệp chỉ cần tự nguyện tuân thủ các bộ quy tắc đạo đức mà không phải gánh chịu các nghĩa vụ pháp lý nặng nề.
Để xác định một hệ thống có đang nằm trong "vùng đỏ" rủi ro cao hay không, Luật AI đã đưa ra bộ tiêu chí định tính và định lượng rất rõ ràng, dựa trên sự giao thoa giữa lĩnh vực ứng dụng và ngưỡng quy mô ảnh hưởng. Các lĩnh vực thiết yếu được khoanh vùng bao gồm hạ tầng trọng yếu như điện nước, giao thông; các dịch vụ công như giáo dục, y tế; hay các mảng nhạy cảm liên quan đến nhân sự, tài chính và tư pháp. Đặc biệt, tính minh bạch được đẩy lên cao nhất khi luật định danh các con số cụ thể: Một hệ thống AI trong y tế hay giáo dục sẽ lập tức bị giám sát chặt chẽ nếu tác động đến trên 500 người mỗi năm; con số này tăng lên 1.000 khách hàng đối với lĩnh vực tài chính và 10.000 người đối với các hạ tầng thiết yếu.
Khi đã định vị mình trong nhóm rủi ro cao, các nhà cung cấp công nghệ buộc phải bước qua những “trạm gác” trách nhiệm nghiêm ngặt để bảo đảm bảo an toàn cho cộng đồng. Trước hết, đó là yêu cầu khắt khe về việc lưu trữ hồ sơ kỹ thuật và nhật ký vận hành, cho phép truy xuất nguồn gốc và nguyên nhân của mọi sự cố trong suốt vòng đời sản phẩm. Tiếp đó, nhiệm vụ xóa bỏ tình trạng "hộp đen" thuật toán trở thành bắt buộc. Nhà phát triển phải cung cấp hướng dẫn sử dụng rõ ràng và giải thích được cách thức AI đưa ra quyết định để người dùng không rơi vào thế bị động. Danh mục AI rủi ro cao hiện vẫn ở dạng dự thảo.
Song hành với sự minh bạch là nguyên tắc giám sát tối thượng của con người. Điều này có nghĩa là mọi hệ thống AI rủi ro cao phải được thiết kế để con người có thể can thiệp, điều chỉnh hoặc ngắt kết nối khẩn cấp, bảo đảm công nghệ luôn là công cụ hỗ trợ chứ không thay thế hoàn toàn thẩm quyền quyết định của lý trí nhân loại. Cuối cùng, để ngăn chặn những hệ lụy về phân biệt đối xử, luật yêu cầu dữ liệu huấn luyện phải được kiểm soát gắt gao về chất lượng, bảo đảm tính đại diện và không mang định kiến về giới tính, vùng miền hay sắc tộc... Tất cả những lớp rào chắn này không nhằm mục đích cản trở ứng dụng công nghệ, mà là để xây dựng một nền tảng lòng tin số, giúp AI thực sự trở thành động lực phát triển bền vững cho xã hội.
Tìm điểm cân bằng cho sáng tạo
Tuy nhiên, để không làm thui chột đổi mới, Luật cũng đưa ra những hướng mở an toàn. Nếu một hệ thống chỉ hỗ trợ các thủ tục hẹp, tăng cường quyết định của con người thay vì thay thế họ, hoặc đơn thuần chỉ là công cụ phát hiện mẫu dữ liệu, nó sẽ không bị liệt vào diện kiểm soát nghiêm ngặt. Đây là cách để bảo vệ các công cụ tối ưu hóa đơn giản của doanh nghiệp khỏi các rắc rối từ thủ tục hành chính.

Một điểm sáng trong quản trị AI tại Việt Nam chính là cơ chế “không gian thử nghiệm pháp lý” (sandbox). Đây là lời giải cho bài toán làm sao để quản lý những thứ mà chính các nhà làm luật cũng chưa lường hết được sự phát triển của nó.
Cơ chế này cho phép các doanh nghiệp công nghệ phát triển và kiểm chứng các sản phẩm AI rủi ro cao dưới sự giám sát chặt chẽ của cơ quan quản lý trước khi tung ra thị trường. Cơ chế Không gian thử nghiệm pháp lý giúp xóa bỏ rào cản về sự mờ hồ pháp lý cho doanh nghiệp, tạo điều kiện để nhà quản lý mục sở thị công nghệ và ban hành các quy định linh hoạt, phù hợp với thực tiễn.
Đặc biệt, Luật dành những ưu tiên rõ nét cho doanh nghiệp vừa và nhỏ (SMEs) và các startup. Các cơ chế như giảm phí đánh giá sự phù hợp, đơn giản hóa quản lý chất lượng và cung cấp mẫu tài liệu chuẩn hóa là nỗ lực cụ thể để chi phí tuân thủ không giết chết những ý tưởng sáng tạo ngay từ vạch xuất phát.
Nhìn tổng thể, bản thân AI không phải là mối đe dọa cho sự an toàn của con người, mà quan trọng, là ở cách chúng ta quản trị AI như thế nào. Kiểm soát AI rủi ro cao là một phép thử lớn của quản trị công nghệ trong thời đại số. Một hành lang pháp lý quá hẹp sẽ khiến sức sáng tạo chùn bước, nhưng một hành lang quá lỏng lẻo sẽ khiến xã hội phải trả giá bằng sự an toàn và lòng tin.
Bảo vệ sự thật trong kỷ nguyên AI không chỉ là nhiệm vụ của những nhà làm luật hay các kỹ sư công nghệ. Bảo vệ sự thật trong kỷ nguyên số không phải là nhiệm vụ riêng lẻ của bất kỳ cá nhân hay tổ chức nào, mà là sự cộng hưởng từ ba trụ cột thiết yếu. Trước hết, đó là một hành lang pháp lý minh bạch với những quy định phân loại rủi ro chính xác đi kèm chế tài nghiêm minh, tạo ra "luật chơi" công bằng và an toàn.
Kế đến là trách nhiệm từ phía các nền tảng, nơi các đơn vị cung cấp AI phải đóng vai trò là "người gác cổng" tận tụy, bảo đảm công nghệ được tạo ra không bị lợi dụng cho những mục đích xấu độc.
Và cuối cùng, quan trọng nhất chính là nhận thức của mỗi công dân - những người cần được trang bị "bộ lọc" tư duy sắc bén để tự bảo vệ mình và nhận diện sự thật giữa một môi trường số đầy rẫy những biến số phức tạp.
Việt Nam đang đứng trước cơ hội lớn để tận dụng AI cho phát triển kinh tế, nhưng cũng đứng trước trọng trách bảo vệ các giá trị nhân văn. Việc thực thi hiệu quả việc phân loại AI rủi ro cao sẽ là bước đệm quan trọng để chúng ta tiến vào kỷ nguyên AI với tâm thế chủ động, an toàn và đầy cảm hứng sáng tạo.









