Tin90p.com - Ai phải chịu trách nhiệm bồi thường thiệt hại do AI gây ra?
Nếu hệ thống trí tuệ nhân tạo (AI) gây ra sai sót dẫn đến thiệt hại trên thực tế, ai sẽ phải chịu trách nhiệm: thuật toán, nhà phát triển hay người vận hành, triển khai?
![]() |
| AI không thể tự chịu trách nhiệm, trách nhiệm thuộc về con người. (Nguồn: Adobe Stock) |
Luật AI 2025 đã xác định khung pháp lý cho vấn đề này, bao gồm nguyên tắc xử lý vi phạm, trách nhiệm bồi thường và các trường hợp miễn trừ trách nhiệm.
Khi AI gây thiệt hại, không thể “đổ lỗi” cho thuật toán
Sự phát triển của AI đang mở ra nhiều cơ hội cho xã hội, từ nâng cao hiệu quả sản xuất, tối ưu hóa quản trị đến thúc đẩy đổi mới sáng tạo trong truyền thông và dịch vụ.
Tuy nhiên, cùng với những lợi ích đó là các rủi ro mới mà pháp luật và xã hội phải đối mặt, đặc biệt khi các hệ thống AI ngày càng tham gia sâu vào những lĩnh vực có tác động trực tiếp đến đời sống con người.
Những sai sót của thuật toán, dữ liệu thiếu chính xác hay cách thức vận hành thiếu kiểm soát đều có thể dẫn đến hậu quả nghiêm trọng đối với cá nhân và cộng đồng.
Đơn cử như thông tin sai lệch lan truyền nhanh trên mạng xã hội, quyết định sai trong các hệ thống tự động dẫn đến một loạt sai sót dây chuyền, hoặc những nội dung giả mạo trực tiếp gây tổn hại đến uy tín, tài sản của cá nhân và tổ chức.
Trong bối cảnh đó, Luật AI 2025 đã bước đầu thiết lập một khung pháp lý nhằm xác định rõ trách nhiệm khi AI gây ra thiệt hại, đồng thời đặt ra các nguyên tắc kiểm soát rủi ro và bảo vệ quyền lợi của người dân.
Cụ thể, Luật quy định về xử lý vi phạm và trách nhiệm bồi thường thiệt hại như sau: Tổ chức, cá nhân có hành vi vi phạm quy định của Luật này và quy định khác của pháp luật có liên quan đến AI, tùy theo tính chất, mức độ, hậu quả của hành vi vi phạm thì bị xử phạt vi phạm hành chính hoặc bị truy cứu trách nhiệm hình sự, nếu gây thiệt hại thì phải bồi thường theo quy định của pháp luật về dân sự.
Trường hợp hệ thống AI có rủi ro cao được quản lý, vận hành và sử dụng đúng quy định nhưng vẫn phát sinh thiệt hại thì bên triển khai phải chịu trách nhiệm bồi thường cho người bị thiệt hại.
Sau khi bồi thường, bên triển khai yêu cầu nhà cung cấp, nhà phát triển hoặc các bên liên quan hoàn trả khoản tiền bồi thường nếu có thỏa thuận giữa các bên.
Như vậy, Luật không chấp nhận việc “đổ lỗi cho công nghệ”. AI không phải là một chủ thể pháp lý nên không thể tự chịu trách nhiệm trước pháp luật.
Mọi hệ thống AI đều do con người hoặc tổ chức thiết kế, phát triển và triển khai, vì vậy trách nhiệm cuối cùng vẫn thuộc về các chủ thể này. Đặc biệt, Luật nhấn mạnh đến các hệ thống AI có rủi ro cao dù được vận hành đúng quy định nhưng vẫn gây ra thiệt hại, bên triển khai vẫn phải đứng ra bồi thường cho người bị ảnh hưởng.
Nói cách khác, khi một tổ chức quyết định đưa công nghệ rủi ro cao vào hoạt động của mình, tổ chức đó phải chấp nhận trách nhiệm đối với các hệ quả mà công nghệ có thể gây ra; công nghệ không thể trở thành “lá chắn” để né tránh nghĩa vụ pháp lý.
Dù vậy, trách nhiệm bồi thường thiệt hại khi hệ thống AI có rủi ro cao phát sinh thiệt hại vẫn có thể được miễn trừ trong các trường hợp sau đây: Thiệt hại xảy ra hoàn toàn do lỗi cố ý của người bị thiệt hại; hoặc thiệt hại xảy ra trong trường hợp bất khả kháng hoặc tình thế cấp thiết, trừ trường hợp pháp luật có quy định khác.
Ở trường hợp thứ nhất, nếu một cá nhân biết rõ rủi ro nhưng vẫn cố tình thực hiện hành vi dẫn đến thiệt hại, trách nhiệm không thể hoàn toàn thuộc về hệ thống AI hoặc bên triển khai.
Nói cách khác, pháp luật không bảo vệ những hành vi cố tình tạo ra rủi ro rồi sau đó quy lỗi cho công nghệ.
Ở trường hợp thứ hai, yếu tố bất khả kháng hoặc tình thế cấp thiết vốn là nguyên tắc miễn trừ quen thuộc trong pháp luật dân sự.
Những sự kiện nằm ngoài khả năng kiểm soát của con người, như thiên tai, chiến tranh, sự cố kỹ thuật nghiêm trọng hoặc các tình huống khẩn cấp…, có thể khiến hệ thống AI vận hành ngoài dự kiến và dẫn đến thiệt hại.
Trong những tình huống như vậy, việc miễn trừ trách nhiệm phản ánh nguyên tắc công bằng của pháp luật.
Các quy định này cho thấy Luật không chỉ đặt ra trách nhiệm rõ ràng đối với việc sử dụng AI, mà còn thiết lập những giới hạn hợp lý để cân bằng giữa khuyến khích đổi mới công nghệ và bảo vệ quyền lợi của con người.
![]() |
Kiểm soát rủi ro AI: Công nghệ phải đi cùng trách nhiệm
Các tổ chức và doanh nghiệp không chỉ dừng lại ở việc phát triển hay ứng dụng AI, mà còn phải bảo đảm an toàn và an ninh trong toàn bộ quá trình vận hành hệ thống.
Ngoài vấn đề bồi thường thiệt hại, Luật AI 2025 còn đưa ra danh mục các hành vi bị nghiêm cấm trong hoạt động AI, nhằm ngăn chặn những rủi ro tiềm ẩn từ loại hình công nghệ này.
Cụ thể, Luật nghiêm cấm việc lợi dụng, chiếm đoạt hệ thống AI để thực hiện hành vi vi phạm pháp luật, xâm phạm quyền, lợi ích hợp pháp của tổ chức, cá nhân.
Luật cấm việc phát triển, cung cấp, triển khai hoặc sử dụng các hệ thống AI nhằm thực hiện các hành vi bị nghiêm cấm theo quy định của Luật.
Luật cũng cấm việc phát triển hoặc triển khai các hệ thống AI nhằm giả mạo người thật hoặc sự kiện thật để lừa dối hoặc thao túng nhận thức con người, gây tổn hại nghiêm trọng đến quyền và lợi ích hợp pháp của cá nhân.
Đây là vấn đề đang được nhiều quốc gia quan tâm trong bối cảnh công nghệ deepfake ngày càng phổ biến. Luật cũng cấm việc lợi dụng điểm yếu của các nhóm người dễ bị tổn thương như trẻ em, người cao tuổi, người khuyết tật hoặc người gặp khó khăn trong nhận thức - để gây tổn hại cho họ.
Quy định này cho thấy cách tiếp cận của pháp luật có tính bao trùm, bảo vệ cả những nhóm yếu thế trong xã hội.
Với hoạt động thu thập, xử lý hoặc sử dụng dữ liệu để phát triển, huấn luyện, kiểm thử hoặc vận hành hệ thống AI, Luật này cũng nghiêm cấm các hành vi trái với quy định của pháp luật về dữ liệu, bảo vệ dữ liệu cá nhân, sở hữu trí tuệ và an ninh mạng.
Bên cạnh đó, Luật cũng cấm hành vi cản trở hoặc vô hiệu hóa cơ chế giám sát của con người đối với hệ thống AI, cũng như việc che giấu hoặc làm sai lệch thông tin bắt buộc phải công khai, hay các hành vi lợi dụng hoạt động nghiên cứu, thử nghiệm, đánh giá hoặc kiểm định hệ thống AI để thực hiện hành vi trái quy định của Luật.
Những quy định này nhằm bảo đảm rằng AI luôn nằm trong sự kiểm soát của con người, chứ không phải hoạt động như một “hộp đen” khó kiểm soát.
Việc xác định rõ trách nhiệm bồi thường khi AI gây ra thiệt hại không chỉ nhằm xử lý các tranh chấp phát sinh, mà còn tạo ra một chuẩn mực pháp lý và đạo đức cho quá trình phát triển công nghệ.
Khi các tổ chức, doanh nghiệp biết rằng mọi quyết định triển khai AI đều gắn liền với trách nhiệm pháp lý cụ thể, họ buộc phải đầu tư nhiều hơn vào kiểm soát rủi ro, đánh giá tác động và xây dựng cơ chế giám sát con người đối với hệ thống.
Đây là nền tảng góp phần định hình một môi trường đổi mới công nghệ có trách nhiệm - nơi lợi ích kinh tế không thể tách rời nghĩa vụ bảo vệ quyền lợi của xã hội.
Tuy nhiên, việc thực thi các quy định này trên thực tế không hề đơn giản. AI là một công nghệ phức tạp, thường vận hành trong hệ sinh thái có sự tham gia của nhiều chủ thể khác nhau như nhà phát triển, nhà cung cấp nền tảng, đơn vị triển khai và người sử dụng.
Khi xảy ra sai sót, việc xác định nguyên nhân cụ thể - xuất phát từ thuật toán, dữ liệu huấn luyện hay quá trình vận hành - để làm rõ trách nhiệm của từng bên có thể trở thành một quá trình pháp lý và kỹ thuật phức tạp.
Thách thức này càng lớn khi tốc độ phát triển của công nghệ thường nhanh hơn khả năng cập nhật của hệ thống quản lý và khung pháp lý.
Chính vì vậy, việc tuân thủ pháp luật cần gắn liền với ý thức trách nhiệm xã hội của các doanh nghiệp và tổ chức phát triển, triển khai AI.
Chỉ khi công nghệ được xây dựng và vận hành trên nền tảng minh bạch, có cơ chế kiểm soát hiệu quả và đặt lợi ích con người làm trung tâm, AI mới thực sự trở thành động lực thúc đẩy phát triển, thay vì trở thành nguồn rủi ro mới đối với xã hội.

