Logo

Bảo đảm quyền được biết của công dân khi tương tác với AI

Đỗ Trang - Hồng Minh

Trong bối cảnh AI có thể tạo ra những hình ảnh, giọng nói và câu chuyện giống thật đến mức khó phân biệt, người dân có quyền được biết khi nào họ đang tương tác với AI. Luật AI 2025 đã quy định rõ trách nhiệm minh bạch của bên cung cấp và triển khai AI. Động thái này nhằm ngăn chặn các hành vi lừa dối bằng công nghệ, góp phần bảo vệ sự thật trên không gian mạng.

Bảo đảm quyền được biết của công dân là một nguyên tắc quan trọng nhằm bảo vệ người dùng. (Nguồn: AI Life)
Bảo đảm quyền được biết của công dân là một nguyên tắc quan trọng nhằm bảo vệ người dùng. (Nguồn: AI Life)

Minh bạch AI và “cuộc chiến” bảo vệ sự thật trên mạng

Chỉ trong vài giây, các hệ thống AI có thể tạo ra bài viết, hình ảnh, âm thanh hay video với độ chân thực cao đến mức ngay cả những người có kinh nghiệm cũng khó phân biệt đâu là thật, đâu là sản phẩm của công nghệ. Đặc biệt, công nghệ deepfake mô phỏng khuôn mặt hoặc giọng nói của một người có thật, đang bị lợi dụng để tạo ra những nội dung giả mạo, phục vụ cho các hành vi lừa đảo, thao túng thông tin và làm tổn hại đến danh tiếng cá nhân.

Trong bối cảnh đó, việc bảo đảm quyền được biết của công dân khi tương tác với AI trở thành yêu cầu cấp thiết. Luật AI 2025 đã đặt ra những nguyên tắc cơ bản nhằm bảo vệ người dùng, trong đó hoạt động AI phải “Bảo đảm công bằng, minh bạch, không thiên lệch, không phân biệt đối xử và không gây hại cho con người hoặc xã hội; tuân thủ chuẩn mực đạo đức và giá trị văn hóa Việt Nam; thực hiện trách nhiệm giải trình về các quyết định và hệ quả của hệ thống AI”. Đây không chỉ là yêu cầu kỹ thuật mà còn là chuẩn mực đạo đức trong phát triển công nghệ.

Điểm đáng chú ý là trách nhiệm minh bạch trong tương tác giữa AI và con người. Cụ thể, nhà cung cấp bảo đảm hệ thống AI tương tác trực tiếp với con người được thiết kế và vận hành để người sử dụng nhận biết khi đang tương tác với hệ thống, trừ trường hợp pháp luật có quy định khác. Nhà cung cấp cũng phải bảo đảm các nội dung âm thanh, hình ảnh, video do hệ thống AI tạo ra được đánh dấu ở định dạng máy đọc theo quy định của Chính phủ.

Những quy định này nhằm tránh tình trạng người dùng bị dẫn dắt hoặc thao túng bởi một hệ thống mà họ tưởng là con người. Trong môi trường số, điều này đặc biệt quan trọng. Đơn cử, một chatbot chăm sóc khách hàng, một trợ lý ảo hay một hệ thống tư vấn tự động nếu không được nhận diện rõ ràng có thể khiến người dùng hiểu nhầm về nguồn gốc thông tin. Khi AI ngày càng thông minh và có khả năng giao tiếp tự nhiên, ranh giới giữa con người và máy móc càng trở nên mờ nhạt. Việc yêu cầu minh bạch ngay từ đầu là cách để bảo vệ quyền tiếp cận thông tin trung thực của công dân.

Quy định về gắn nhãn nội dung do AI tạo ra được xem là một bước tiến quan trọng trong việc thiết lập cơ chế nhận diện nội dung AI ở cấp độ kỹ thuật. Việc đánh dấu này giúp các nền tảng số, hệ thống kiểm duyệt cũng như các công cụ phát hiện nội dung có thể nhận biết và phân loại đâu là sản phẩm do AI tạo ra. Trong tương lai, các mạng xã hội hoặc công cụ tìm kiếm có thể dựa trên những dấu hiệu này để cảnh báo người dùng, qua đó hạn chế nguy cơ lan truyền thông tin sai lệch trên không gian mạng.

Đặc biệt, Luật dành sự chú ý đối với các nội dung mô phỏng người thật hoặc tái hiện sự kiện có thật, nhằm giảm thiểu những rủi ro từ công nghệ deepfake. Khi yêu cầu các nội dung dạng này phải được gắn nhãn rõ ràng, Luật đã thiết lập một “hàng rào pháp lý” nhằm ngăn chặn hành vi lợi dụng AI để đánh lừa nhận thức của xã hội. Tuy vậy, quy định pháp luật hiện hành cũng thể hiện sự linh hoạt khi áp dụng trong lĩnh vực sáng tạo. Đối với các tác phẩm điện ảnh, nghệ thuật hoặc sản phẩm sáng tạo, việc gắn nhãn AI có thể được thực hiện bằng những phương thức phù hợp, bảo đảm không làm cản trở quá trình trình diễn hay trải nghiệm nghệ thuật của công chúng. Điều này cho thấy mục tiêu của luật không phải là hạn chế sáng tạo, mà hướng tới việc bảo đảm tính minh bạch đối với những nội dung có khả năng gây nhầm lẫn về tính xác thực.

Một điểm đáng chú ý khác, Luật quy định nhà cung cấp và bên triển khai có trách nhiệm duy trì thông tin minh bạch theo quy định trong suốt quá trình cung cấp hệ thống, sản phẩm hoặc nội dung cho người sử dụng. Nói cách khác, nghĩa vụ minh bạch không chỉ xuất hiện ở thời điểm phát hành sản phẩm, mà phải được duy trì liên tục trong toàn bộ quá trình vận hành và sử dụng. Như vậy, các tổ chức cung cấp và triển khai hệ thống AI không thể né tránh trách nhiệm đối với những quyết định hoặc hệ quả mà hệ thống của họ tạo ra. Nếu một hệ thống AI gây ra thông tin sai lệch, lừa dối hoặc gây thiệt hại cho xã hội, bên cung cấp và triển khai phải có nghĩa vụ minh bạch và chịu trách nhiệm.

Chìa khóa “chiếc hộp Pandora” - AI phải nằm dưới sự giám sát của con người

Có thể thấy, sự bùng nổ của các mô hình ngôn ngữ lớn và AI tạo sinh đã mang lại những tiện ích không thể phủ nhận, nhưng cũng mở ra “chiếc hộp Pandora” về những rủi ro đạo đức. Chỉ với vài câu lệnh hoặc một bức ảnh gốc, kẻ xấu có thể dùng AI để tạo ra các nội dung deepfake (giả mạo hình ảnh, video) hoặc các đoạn âm thanh giả giọng nói giống hệt người thật để bôi nhọ, xuyên tạc hoặc bắt nạt qua mạng.

Theo thông tin từ Bộ KH&CN, hiện Bộ đang lấy ý kiến rộng rãi về dự thảo Thông tư hướng dẫn Khung đạo đức AI quốc gia. Trong bối cảnh công nghệ đang phát triển với tốc độ chóng mặt, dự thảo này đóng vai trò như một “bản Hiến pháp” về đạo đức, xác lập ranh giới nghiêm ngặt: Tuyệt đối không được dùng AI để xâm phạm danh dự và nhân phẩm con người.

Dự thảo xác định việc bảo vệ danh dự, nhân phẩm con người là mục tiêu ưu tiên hàng đầu. Theo dự thảo, hệ thống AI không chỉ cần đạt chuẩn về kỹ thuật mà còn phải tuân thủ các chuẩn mực văn hóa, xã hội và pháp luật Việt Nam. Mọi hành vi dùng công nghệ để tấn công tinh thần cá nhân đều bị coi là lệch chuẩn đạo đức và phải chịu những hệ quả pháp lý tương ứng.

Để ngăn chặn việc lợi dụng AI để ẩn danh thực hiện các hành vi xúc phạm, dự thảo đề xuất, dự thảo nhấn mạnh một nguyên tắc vàng: AI phải nằm dưới sự giám sát của con người. Con người có quyền “nút bấm cuối cùng” để can thiệp, tạm dừng hoặc vô hiệu hóa hệ thống ngay lập tức khi phát hiện AI đưa ra các nội dung có dấu hiệu xúc phạm hoặc lệch chuẩn đạo đức.

Các doanh nghiệp phát triển công nghệ được yêu cầu thực hiện “Đạo đức ngay từ khâu thiết kế” (Ethics by Design). Điều này bắt buộc họ phải rà soát dữ liệu huấn luyện, loại bỏ các thiên kiến (bias) và xây dựng bộ lọc ngăn chặn các nội dung độc hại ngay từ khi sản phẩm còn trong phòng thí nghiệm.

Kết

Nhìn rộng hơn, các quy định về minh bạch AI không chỉ là vấn đề kỹ thuật hay pháp lý, mà phản ánh nỗ lực bảo vệ sự thật trong kỷ nguyên số. Bởi lẽ, khi công nghệ có thể tạo ra những nội dung giả mạo gần như hoàn hảo, xã hội phải đối mặt với nguy cơ rất lớn về “khủng hoảng niềm tin” - nơi ranh giới giữa thật và giả trở nên mờ nhạt.

Nhằm giải quyết bất cập này, người dùng phải được cung cấp thông tin đầy đủ để tự mình đánh giá và đưa ra quyết định. Do đó, việc bảo đảm quyền được biết của công dân trở thành một nguyên tắc quan trọng. Còn với doanh nghiệp, việc tuân thủ nghiêm túc nghĩa vụ minh bạch AI cũng đồng nghĩa với việc thể hiện cam kết trách nhiệm xã hội trong công cuộc bảo vệ người dùng khỏi lừa đảo, bảo vệ niềm tin và sự trung thực trên không gian mạng

Có thể khẳng định, việc ban hành Khung đạo đức AI quốc gia không nhằm kìm hãm sự sáng tạo, mà là để tạo ra một môi trường cạnh tranh lành mạnh. Khi các tiêu chuẩn về đạo đức được luật hóa và hướng dẫn rõ ràng, người dân sẽ an tâm hơn khi tiếp cận công nghệ và các doanh nghiệp Việt Nam cũng có cơ sở để xây dựng thương hiệu AI uy tín, đủ tiêu chuẩn vươn ra thị trường quốc tế. Việc tuân thủ Khung đạo đức không chỉ là trách nhiệm pháp lý mà còn là cam kết của cộng đồng công nghệ đối với sự phát triển bền vững của xã hội số. Bảo vệ danh dự con người trong kỷ nguyên AI chính là bảo vệ giá trị nhân văn cốt lõi mà công nghệ cần phục vụ.