Ông ngã dúi dụi và nói rằng cú đá rất mạnh, có thể gây thương tích nếu không có đồ bảo hộ. Mục đích của màn trình diễn này, theo cách công ty công bố, là để dập tắt những nghi ngờ rằng các video robot nhào lộn trước đó chỉ là CGI.
Dù hành động của robot là tự động hay được điều khiển, khoảnh khắc ấy vẫn gợi ra một câu hỏi quan trọng: cơ sở nào để đảm bảo robot sẽ không làm đau con người trong đời sống thực, ngoài phòng thí nghiệm.
Năm 1942, khi hình dung về một tương lai chung sống giữa con người và robot, nhà văn viễn tưởng Isaac Asimov đã đặt ra ba nguyên tắc cơ bản về "đạo đức robot". Định luật đầu tiên và quan trọng nhất là robot không được phép gây thương tích cho con người, kể cả thụ động để mặc con người bị hại.
Từ một ý tưởng văn chương, nguyên tắc "không gây hại" (nonmaleficence) trở thành nền tảng cho nhiều thảo luận đạo đức công nghệ sau này, từ dữ liệu tới robot và trí tuệ nhân tạo. Các hướng dẫn mang tính tiêu chuẩn như BS 8611 của Tổ chức Tiêu chuẩn Anh Quốc (BSI) về thiết kế và ứng dụng robot cũng đi theo logic ấy: nhận diện rủi ro, đặt biện pháp bảo vệ, và coi robot là hệ thống phục vụ lợi ích con người.
Nhưng Asimov viết về "đạo đức của robot" trong một viễn cảnh về robot có lương tri. Còn ở đời thực hiện nay, robot chỉ có cơ cấu chấp hành, cảm biến, phần mềm điều khiển và trí tuệ nhân tạo. Vì vậy, "không gây hại" không thể chỉ là một câu khẩu hiệu. Nó cần trở thành ràng buộc kỹ thuật (thiết kế an toàn, giới hạn hành vi, cơ chế dừng khẩn cấp...) và ràng buộc pháp lý (chuẩn mực, trách nhiệm, chế tài...). Nhưng chiếc vòng kim cô ràng buộc này luôn bị thách thức bởi một động lực khác là cuộc đua năng lực về công nghệ.
Lịch sử phát triển robot cho thấy một thực tế nhiều bước nhảy lớn của ngành thường gắn với nhu cầu quốc phòng - nơi người ta sẵn sàng đầu tư lớn, dài hạn để đổi lấy năng lực đột phá, vượt trội. Boston Dynamics là một ví dụ điển hình với nhiều chương trình phát triển robot gắn với các dự án tài trợ, đặt hàng từ DARPA, cơ quan nghiên cứu trực thuộc Bộ Quốc phòng Mỹ.
Điều này không có nghĩa mọi robot rồi sẽ thành vũ khí. Nhưng nó nhắc ta rằng, bên cạnh các tuyên ngôn về nhân văn, hướng thiện và đạo đức, thế giới thực tế luôn chạy đua cho mạnh hơn, nhanh hơn, hiệu quả hơn. Khi một hệ thống đủ lớn mạnh về cả quy mô và năng lực công nghệ, câu hỏi về trách nhiệm luôn cần được đặt ra: ai là người chịu trách nhiệm nếu sự cố xảy ra và cơ chế nào để kiểm soát, ngăn ngừa các rủi ro đó.
Với T800, ngay cả khi chỉ là kịch bản định trước, cú đá vẫn là tín hiệu chỉ báo rằng robot hình người đang bước vào vùng "cảnh báo nguy hiểm" về mặt vật lý. Trong đó, trách nhiệm không thể chỉ trông chờ vào lời hứa mà cần cơ chế để kiểm chứng, giám sát đầy đủ và hiệu lực.
Một điều trùng hợp là cùng thời điểm video trên trở nên phổ biến thì Việt Nam cũng chính thức thông qua Luật Trí tuệ nhân tạo vào ngày 10/12/2025, với cách tiếp cận quản trị theo rủi ro. Luật không chỉ khuyến khích phát triển mà còn đặt ra cấu trúc quản trị với các nguyên tắc cốt lõi, hành vi bị cấm, cơ chế thử nghiệm có kiểm soát (sandbox), và đặc biệt là khung quản lý nhóm AI rủi ro cao với danh mục có thể được cập nhật linh hoạt để tránh tình trạng "luật vừa ban hành đã lạc hậu". Cùng với Luật Dữ liệu và Luật Bảo vệ dữ liệu cá nhân, Việt Nam đang ghép dần một bức tranh pháp lý cho kỷ nguyên số.
Nhưng luật chỉ là vòng kim cô, đeo lên được hay không lại là chuyện khác. Thách thức lớn nhất không nằm ở việc viết ra nguyên tắc, mà nằm ở khoảng cách giữa chiến lược và thực thi với những câu hỏi trực diện như ai đánh giá rủi ro, đánh giá bằng gì, và giám sát như thế nào.
Từ quan sát các mô hình quốc tế như OECD và EU, tôi cho rằng có ba ưu tiên nên làm sớm để luật có thể đi vào cuộc sống và trở thành hành lang rõ ràng cho cả hai phía quản lý và thực thi.
Thứ nhất là cần hình thành một tổ chức điều phối chương trình AI ở cấp quốc gia - một AI Office đúng nghĩa. Đơn vị này đóng vai trò xây dựng và điều phối chương trình quốc gia về AI, lộ trình triển khai và huy động các nguồn lực công - tư cho mục tiêu chiến lược. Mô hình tham chiếu có thể là European AI Office thuộc Ủy ban châu Âu, giữ vai trò then chốt trong hỗ trợ và thực thi EU AI Act.
Thứ hai, muốn quản trị AI theo mức độ rủi ro thì phải có chuẩn đánh giá và tổ chức đủ thẩm quyền, năng lực để đánh giá AI. Quản trị theo rủi ro không thể chỉ dừng ở khẩu hiệu "lấy con người làm trung tâm, minh bạch, có trách nhiệm". Những nguyên tắc đó cần được dịch thành tiêu chí có thể làm và có thể kiểm tra, giám sát: dữ liệu huấn luyện có rủi ro gì, cơ chế giám sát con người ra sao, có nhật ký truy xuất, kiểm tra hay không, có kiểm thử thiên lệch (bias), có cơ chế dừng và kiểm soát khi hệ thống hành xử bất thường ...
Đặc biệt với các sản phẩm kết hợp phần cứng và phần mềm như robot, rủi ro không chỉ nằm ở nội dung "mềm" mà còn ở khả năng tác động vật lý. Các hướng dẫn như BS 8611 nhắc ta rằng rủi ro đạo đức phải được quản trị như một danh mục nguy cơ, không phải chỉ ở lời hứa. Việt Nam có thể tham khảo các mô hình như AI Safety Institute tại Anh như AI Verify Foundation tại Singapore. Xu hướng chung là lập các thiết chế, xây dựng chuẩn kiểm định, thúc đẩy kiểm thử và bảo đảm AI. Mục tiêu hướng tới là một bộ tiêu chí AI quốc gia và một cơ chế đánh giá, chứng nhận đáng tin cậy, trước hết với nhóm AI rủi ro cao mà luật đã đặt ra.
Thứ ba, ở góc độ chiến lược, AI cũng cần được thiết kế và khuyến khích đi vào những lĩnh vực trọng điểm để tạo tác động lớn và sớm hình thành chuẩn. Các lĩnh vực nóng như y tế, giáo dục, hành chính công... có thể là các lựa chọn phù hợp do hiệu quả có thể đo đếm, rủi ro dễ quan sát và phản hồi xã hội diễn ra rõ ràng. Đây cũng là môi trường thuận lợi để vừa làm vừa học, thí điểm trong sandbox đi kèm giám sát, công bố bài học làm cơ sở cho nhân rộng. Chọn đúng mũi nhọn còn giúp tránh mô hình "quả mít" khi nhìn đâu cũng thấy dự án AI nhưng thiếu chiều sâu để kéo năng lực quốc gia đi lên.
Luật Trí tuệ nhân tạo ra đời vào lúc cuộc đua AI toàn cầu tăng tốc. Và cũng đúng lúc những cú đá như của T800 nhắc rằng AI và robot không còn là chuyện của tương lai hay phần mềm. Nó đã bước ra không gian vật lý của ngày hôm nay, nơi một sai số nhỏ cũng có thể dẫn tới hệ lụy và chấn thương thật.
Phát triển công nghệ bền vững đòi hỏi sự hài hòa giữa khuyến khích và đặt ranh giới bất khả xâm phạm với cơ chế quản trị rủi ro đủ mạnh. Chúng ta cần cả bàn tay nâng đỡ để đổi mới sáng tạo chạy nhanh và chiếc vòng kim cô để kiểm soát những thứ "không được phép" sẽ không bao giờ vượt quá giới hạn.
Còn với tư cách một người bình thường, tôi mong cú đá của T800 sẽ mãi là màn trình diễn trong giới hạn phòng thí nghiệm và chỉ phòng thí nghiệm mà thôi.
Lê Vũ Minh