Bộ Tư pháp vừa công bố hồ sơ thẩm định Dự thảo Luật Trí tuệ nhân tạo (AI), đánh giá hiện quy định pháp luật về AI chỉ được đề cập một chương của Luật Công nghiệp công nghệ số, chưa hình thành hành lang pháp lý toàn diện. Trong khi AI đang trở thành công nghệ mũi nhọn, nhiều cơ hội to lớn và thách thức về quản lý, đạo đức và an toàn mà các quy định pháp luật hiện hành chưa bao quát đầy đủ.
Chưa có quy định ai phải chịu trách nhiệm khi AI gây thiệt hại
Theo cơ quan soạn thảo, AI đang phát triển nhanh hơn nhiều tốc độ xây dựng và hoàn thiện thể chế. Khoảng trống về trách nhiệm pháp lý khi AI gây thiệt hại đang là một trong những thách thức pháp lý nhức nhối nhất từ thực tiễn.
Khi một hệ thống AI gây ra thiệt hại (ví dụ: xe tự lái gây tai nạn, phần mềm chẩn đoán y tế đưa ra kết quả sai, hệ thống tín dụng tự động từ chối cho vay một cách phân biệt đối xử...), nhà phát triển, nhà sản xuất, người sử dụng, hay chính hệ thống AI sẽ phải chịu trách nhiệm? Điều này vẫn chưa được luật nào quy định.
Pháp luật dân sự, hình sự hiện hành chưa có câu trả lời thỏa đáng cho những tình huống này, gây hoang mang cho người tiêu dùng và rủi ro cho doanh nghiệp, cơ quan soạn thảo đánh giá.
Sự phát triển của AI cũng đặt ra những nguy cơ an ninh rất cấp bách khi công nghệ deepfake bị lạm dụng để tạo ra các thông tin sai lệch, bôi nhọ, lừa đảo hoặc gây bất ổn chính trị xã hội. Thuật toán thiên vị tạo ra các hệ thống AI có thể học và khuếch đại các định kiến có sẵn trong dữ liệu, dẫn đến các quyết định bất công và phân biệt đối xử trong xã hội.
Hệ thống luật pháp nước ta cũng đang thiếu cơ chế phân loại, kiểm soát rủi ro hệ thống AI; cơ chế kiểm định, cấp phép và giám sát các hệ thống AI; thiếu cơ chế khuyến khích khởi nghiệp và thương mại hoá sản phẩm AI nội địa; sự phụ thuộc nhiều vào công nghệ và mô hình nước ngoài... trong khi yêu cầu hội nhập, hợp tác quốc tế hiện rất cấp thiết.
Vì thế, Luật Trí tuệ nhân tạo được xây dựng, để giải quyết những điều trên.
Con người phải giữ quyền kiểm soát, AI chỉ phục vụ và hỗ trợ
Điều 10 của dự thảo nêu 8 nguyên tắc cơ bản của mọi hoạt động liên quan AI. Nguyên tắc đầu tiên là lấy con người làm trung tâm. AI phải phục vụ và hỗ trợ con người, tôn trọng nhân phẩm, quyền tự do, quyền riêng tư và các giá trị văn hóa, đạo đức.
Con người phải giữ quyền kiểm soát và chịu trách nhiệm cuối cùng với mọi quyết định, hành vi và hậu quả phát sinh trong quá trình thiết kế, phát triển, triển khai và sử dụng AI.
Bộ Khoa học Công nghệ đề xuất phân loại AI theo 4 mức độ rủi ro để có cơ chế quản lý tương ứng. Cụ thể:
Rủi ro không chấp nhận được là AI có khả năng gây tổn hại nghiêm trọng, không thể khắc phục với quyền con người, an ninh quốc gia, trật tự, an toàn xã hội hoặc được sử dụng để thực hiện các hành vi bị pháp luật nghiêm cấm.
Loại AI này bị đề xuất cấm phát triển, cung cấp, đưa ra thị trường hoặc đưa vào sử dụng dưới bất kỳ hình thức nào tại Việt Nam mà chỉ được nghiên cứu, thử nghiệm trong phòng thí nghiệm, cơ sở giáo dục, môi trường thử nghiệm có kiểm soát
AI thuộc loại rủi ro không chấp nhận được, sẽ gồm các AI được thiết kế, phát triển để trực tiếp thực hiện các hành vi bị pháp luật nghiêm cấm; AI thao túng nhận thức, hành vi của con người một cách có chủ đích, dẫn đến việc làm mất khả năng tự quyết và gây tổn hại nghiêm trọng về thể chất hoặc tinh thần.
Ngoài ra, các hệ thống lợi dụng các điểm yếu của một nhóm người dễ tổn thương (trẻ em, người cao tuổi, người khuyết tật, người hạn chế nhận thức) để tác động hành vi theo hướng gây tổn hại cho chính họ hoặc người khác cũng bị coi là AI rủi ro không chấp nhận được.
Cuối cùng là các AI sản xuất nội dung giả mạo do AI tạo ra có khả năng gây nguy hại nghiêm trọng đến an ninh quốc gia, trật tự, an toàn xã hội; hoặc các AI được phát triển hoặc sử dụng nhằm chống phá Nhà nước xâm phạm an ninh quốc gia, cũng được liệt kê vào nhóm rủi ro cao nhất, cấm phát triển, lưu hành.
Mức độ hai là AI có rủi ro cao, được định nghĩa có khả năng gây tổn hại đến tính mạng, sức khỏe, quyền và lợi ích hợp pháp của cá nhân, tổ chức hoặc lợi ích công cộng quan trọng khác.
Với các AI này, dự thảo Luật đề xuất trước khi lưu hành, phải được đánh giá sự phù hợp theo quy định; chịu sự thanh tra, kiểm tra của cơ quan nhà nước có thẩm quyền trong quá trình hoạt động.
AI thuộc mức rủi ro trung bình là trong quá trình sử dụng có nguy cơ gây lừa dối, nhầm lẫn hoặc thao túng người sử dụng do không nhận biết được bản chất hệ thống AI hoặc nội dung do AI tạo ra.
AI rủi ro thấp là hệ thống không thuộc 3 trường hợp nêu trên.
Sẽ có Cổng thông tin điện tử một cửa về AI
Theo Dự thảo, các đơn vị sẽ tự phân loại sản phẩm AI của họ trước khi phát triển, đưa ra thị trường. Riêng AI rủi ro cao, phải đăng ký trên Cổng thông tin điện tử một cửa về AI trong vòng 30 ngày.
Cổng này là thành phần của Cổng Dịch vụ công Quốc gia, dự kiến thiết lập và vận hành các dịch vụ như tiếp nhận, trả lời vấn đề liên quan đến phân loại, đăng ký AI; Cung cấp thông tin, hướng dẫn, công cụ tra cứu pháp luật, tiêu chuẩn, quy chuẩn và tài liệu kỹ thuật...
Cổng thông tin điện tử một cửa về AI cũng được xác định sẽ là kênh ưu tiên để nhà chức trách tiếp nhận báo cáo sự cố và phản hồi sau khi AI được đưa ra thị trường.
Hoàn thiện Luật về AI là xu hướng tất yếu đã được các nước phát triển hoàn thiện. Luật về Trí tuệ nhân tạo (AI Act) của EU là đạo luật toàn diện đầu tiên trên thế giới về trí tuệ nhân tạo, hiệu lực từ 1/8/2024.
Đạo luật cũng áp dụng cách tiếp cận dựa trên rủi ro, nhằm đảm bảo các hệ thống AI được sử dụng một cách an toàn, đáng tin cậy, minh bạch và tôn trọng các quyền cơ bản cũng như các giá trị của EU.
Hàn Quốc cũng đã có Luật cơ bản về phát triển trí tuệ nhân tạo và xây dựng nền tảng niềm tin (Basic Law on the Development of Artificial Intelligence and Creation of a Trust Base), cân bằng giữa thúc đẩy và quản lý AI. Luật quy định chính sách thúc đẩy phát triển AI lành mạnh và xây dựng nền tảng tin cậy...
Trung Quốc với tham vọng trở thành cường quốc AI hàng đầu thế giới đã ban hành nhiều văn bản quản lý AI, nhấn mạnh việc đảm bảo an ninh quốc gia, làm chủ công nghệ lõi, và xây dựng các bộ dữ liệu khổng lồ để phát triển các mô
hình nền tảng có chủ quyền.
Mỹ ưu tiên thúc đẩy đổi mới sáng tạo về AI thông qua các khoản đầu tư lớn vào R&D, cả Quốc hội, Nhà Trắng và cơ quan hành pháp đều liên tục ban hành nhiều văn bản, đạo luật AI kết hợp giữa các luật hiện hành và luật chuyên ngành. Trong khi mỗi bang cũng ban hành luật AI riêng, về ứng dụng của AI trong chính quyền tiểu bang, bảo vệ người tiêu dùng và việc tạo ra deepfake và danh tính giả mạo để phạm tội...
Hải Thư