Quy trách nhiệm thế nào nếu AI gây hại?

Vấn đề quy trách nhiệm nếu trí tuệ nhân tạo (AI) gây hại đang được nghiên cứu và tranh luận rất nhiều. Lý do luật pháp và chính sách hiện tại chưa theo kịp sự phát triển của AI. Các cơ quan chức năng ở nhiều quốc gia đang nỗ lực xây dựng các khuôn khổ pháp lý để xác định rõ ràng hơn trách nhiệm trong trường hợp AI gây hại.

Khi AI phạm sai lầm, vấn đề trách nhiệm có thể khá phức tạp vì AI không có khả năng tự chịu trách nhiệm hay nhận thức về hành động của mình. Tuy nhiên, tôi cho rằng vẫn phải có người, cơ quan chịu trách nhiệm.

Ngô Bình

Trả lời:

Liên quan đến vấn đề quy định về hành lang pháp lý AI, tại Ngày hội Trí tuệ nhân tạo Việt Nam (AI4VN) 2025 tổ chức hồi tháng 9 tại Hà Nội, Thứ trưởng Bùi Hoàng Phương cho biết Chính phủ đang giao Bộ Khoa học và Công nghệ chủ trì xây dựng Luật Trí tuệ nhân tạo. Khi được ban hành, Việt Nam là một trong rất ít các quốc gia có hành lang pháp lý rõ ràng và đầy đủ về AI.

Theo Thứ trưởng, Luật Trí tuệ nhân tạo được xây dựng dựa trên năm nguyên tắc cơ bản: lấy con người làm trung tâm; bảo đảm an toàn an ninh mạng; tự chủ quốc gia và hội nhập quốc tế; phát triển bao trùm và bền vững; quản trị cân bằng và hài hòa.

Ông cho biết một trong những điểm nhấn của dự thảo Luật Trí tuệ nhân tạo là quy định quản lý theo mức độ rủi ro. Theo đó, các hệ thống AI có rủi ro cao sẽ chịu sự giám sát chặt chẽ. Những nội dung liên quan đến tính minh bạch và dán nhãn cũng được quy định rõ, đảm bảo người dùng được thông báo khi tương tác với AI, nhằm giải quyết thách thức trong việc phân biệt giữa nội dung do con người và máy tạo ra.

Bộ Khoa học và Công nghệ

Góp ý kiến tạo
Bạn có thể đặt mọi câu hỏi, vấn đề về Khoa học công nghệ, Đổi mới sáng tạo, Chuyển đổi số trực tiếp cho Bộ Khoa học và Công nghệ
Gửi góp ý