Trách nhiệm hình sự đối với sản phẩm trí tuệ nhân tạo và khuyến nghị hoàn thiện pháp luật hình sự Việt Nam

Bài viết đề cập đến cơ sở lý luận và thực tiễn của việc quy định trách nhiệm hình sự đối với sản phẩm trí tuệ nhân tạo và khuyến nghị hoàn thiện pháp luật Việt Nam.

Đặt vấn đề

Một trong những phát minh có tính đột phá của cuộc Cách mạng công nghiệp 4.0, có ảnh hưởng mạnh mẽ đến cuộc sống của con người - đó là trí tuệ nhân tạo (AI). Nhiều sản phẩm AI chỉ mới ra đời nhưng đã được áp dụng rộng rãi trên nhiều lĩnh vực: kinh tế, giáo dục, y tế, xã hội, quốc phòng... góp phần thúc đẩy xã hội phát triển. Tuy nhiên, khi độ phổ biến và ứng dụng của các sản phẩm AI ngày càng gia tăng, người dùng, các nhà nghiên cứu sản phẩm AI lại phát hiện những hạn chế, hệ lụy mà sản phẩm AI có thể gây nguy hại cho con người và xã hội. Vấn đề đặt ra là sản phẩm AI gây ra thiệt hại về người hoặc thiệt hại về tài sản cho xã hội thì ai là người phải chịu trách nhiệm trong khi lỗi có thể không phải do cha đẻ của chúng gây ra mà là chính bản thân của sản phẩm AI gây ra.

1. Khái niệm về AI và sản phẩm AI

“Trí tuệ nhân tạo” hay trí thông minh nhân tạo (tiếng Anh là Artificial Intelligence - viết tắt là AI) là một lĩnh vực liên ngành của triết học, tâm lý học, khoa học thần kinh, toán học, điều khiển học, khoa học máy tính, ngôn ngữ học và kinh tế[1]. AI được biết đến nhiều nhất khi tiếp cận là một ngành thuộc lĩnh vực khoa học máy tính (Computer science). AI do con người lập trình với mục tiêu giúp máy tính có thể tự động hóa các hành vi thông minh như con người nên có thể coi AI là một trí thông minh ảo.

AI được tạo thành từ hai thuật ngữ “artificial” (nhân tạo) và “intelligent” (trí thông minh). Nhân tạo là những gì không có trong tự nhiên, được tạo nên từ bàn tay, khối óc con người như: bệnh viện, trường học,….Trí thông minh là một khái niệm có nhiều cách hiểu, chưa thống nhất nhưng có thể hiểu là sự tổng hợp khả năng logic, trừu tượng, hiểu biết, tự nhận thức, học tập, có trí tuệ xúc cảm, trí nhớ, kế hoạch và giải quyết vấn đề. Thuật ngữ “trí tuệ nhân tạo” được xuất hiện lần đầu tiên vào năm 1956 tại Hội nghị Dartmouth do nhà khoa học máy tính người Mỹ John Mccarthy đề xuất. Đây là cột mốc quan trọng đánh dấu chính thức sự ra đời của thuật ngữ này. Cho đến hiện nay, có nhiều cách định nghĩa “trí tuệ nhân tạo” từ những phương diện khác nhau, một số định nghĩa về thuật ngữ này cụ thể là:

Theo Báo cáo của Hội đồng Khoa học và Công nghệ Quốc gia của Mỹ (National Science and Technology Council), nội hàm của “trí tuệ nhân tạo” bao gồm: tập hợp các kỹ thuật tính toán và quá trình được sử dụng để nâng cao khả năng của máy móc trong việc thực hiện các công việc cần đến trí tuệ, như nhận dạng mô phỏng, thị giác máy tính, xử lý ngôn ngữ.[2]

Từ góc độ pháp luật, “trí tuệ nhân tạo” lần đầu tiên được định nghĩa trong đạo luật AI của EU: “một phần mềm được phát triển bằng một hoặc nhiều kỹ thuật và phương pháp được liệt kê trong Phụ lục I và có thể, đối với một nhóm mục tiêu nhất định do con người xác định, tạo ra các đầu ra như nội dung, dự đoán, đề xuất hoặc quyết định ảnh hưởng đến môi trường mà chúng tương tác”[3].

Tại Việt Nam, tính đến thời điểm hiện nay, chưa có văn bản pháp luật nào định nghĩa AI cũng như xác định tư cách pháp lý của AI khi tham gia vào các quan hệ xã hội được pháp luật điều chỉnh.

Hiện nay, các định nghĩa về trí tuệ nhân tạo chủ yếu được đưa ra dưới góc nhìn của các chuyên gia kỹ thuật về AI, còn dưới góc độ pháp luật thì chưa có nhiều pháp luật các quốc gia đưa ra định nghĩa về khái niệm này. Dù chưa có khái niệm thống nhất nào về “trí tuệ nhân tạo” nhưng theo chúng tôi, có thể hiểu “trí tuệ nhân tạo” là một thuật ngữ đề cập đến việc hệ thống máy tính do con người lập trình nên, mô phỏng trí thông minh của con người, khả năng bắt chước các hoạt động nhận thức của con người, tự học và tự cải tiến và khả năng quyết định của con người.

Các sản phẩm AI bao gồm các ứng dụng di động, trợ lý ảo, hệ thống tự động, robot thông minh và nhiều hơn nữa. Những sản phẩm này được phát triển để trợ giúp con người trong nhiều lĩnh vực khác nhau như y tế, giáo dục, tài chính, nông nghiệp và nhiều lĩnh vực khác. Sản phẩm AI có thể giúp tăng cường hiệu suất làm việc, cải thiện chất lượng cuộc sống và đóng góp vào sự phát triển của xã hội. Từ sự phân tích trên, chúng tôi cho rằng sản phẩm AI được hiểu như sau: “Sản phẩm trí tuệ nhân tạo là những công nghệ, máy móc, ứng dụng hoặc hệ thống được tạo ra bằng cách sử dụng trí tuệ nhân tạo để xử lý các tình huống một cách thông minh và hiệu quả hơn”.

2. Cơ sở lý luận về trách nhiệm hình sự của sản phẩm AI

Để giải quyết những vướng mắc về mặt lý luận trong việc áp dụng trách nhiệm hình sự (TNHS) đối với AI, các học giả nổi tiếng trên thế giới đã đưa ra các quan điểm làm nền tảng và luận giải cho vấn đề này[4].

2.1. AI là một loại tài sản

Theo quan điểm này, các thực thể AI thông minh như một “loài động vật”, điểm chung giữa chúng là đều là đối tượng được con người “thuần hóa” và cả hai đều có những hành xử thất thường, khó đoán. Con người có thể đưa các loài động vật ra khỏi nơi hoang dã, nhưng con người không thể lấy đi sự hoang dã của con vật, đây là một đặc điểm không thể thiếu ở loài động vật; còn đối với các sản phẩm AI chúng được con người tạo ra ngay từ trí óc, thông minh của loài người nên các hành vi của chúng con người có thể dự đoán được - hành vi của nó giống hành vi của một con chó được giáo dục tốt. Do đó, đối với các robot gây ra thiệt hại, chủ sở hữu sẽ là người chịu trách nhiệm pháp lý.

Quan điểm của các học giả cho rằng AI là “động vật” vẫn còn những những điểm bất hợp lý. Tuy AI được tạo ra bởi con người, nhưng chúng có thể học tập và thích nghi với thông tin mới một cách nhanh chóng và hiệu quả. Chính vì lẽ đó, chúng thông minh hơn và tiếp thu nhiều từ kiến thức nhân loại và có thể tự quyết định những hành vi tiếp theo của chúng thoát khỏi sự kiểm soát của con người, đây cũng chính là điểm khác biệt so với động vật.

2.2. AI là một con người điện tử

Với quan điểm này, các nhà học giả xem AI là một “con người điện tử” có đầy đủ năng lực, địa vị pháp lý như một con người thực sự, hưởng quyền và nghĩa vụ như nhau. Đồng nghĩa với đó là chúng sẽ phải tự chịu trách nhiệm về hành vi gây nguy hiểm của mình mà không phải là chủ sở hữu hay người quản lý.

Sản phẩm AI đạt được quyền tự chủ là một triển vọng quan trọng cho sự phát triển của AI. Coi AI là một “con người điện tử” là cơ sở để quyền tự chủ của robot có thể có khả năng đưa ra quyết định và thực hiện các quyết định đó ở thế giới bên ngoài. Quyền tự chủ như vậy của sản phẩm AI hoàn toàn là công nghệ trong tự nhiên và mức độ quyền tự chủ phụ thuộc vào mức độ phức tạp của các mối quan hệ của thực thể AI với môi trường. AI nhận thức được hành động của nó và gây ra thiệt hại thì nó phải chịu trách nhiệm về hành vi của mình với tư cách “một con người điện tử”.

Mặc dù cách tiếp cận này bị nhiều chuyên gia, nhà khoa học, nhà quản lý phản đối, nhưng điều đáng chú ý là cách tiếp cận này đã từng được Nghị viện châu Âu (Parliament Europeen) đề xuất từ năm 2016 như sau: “về lâu dài, cần tạo tình trạng pháp lý cụ thể cho robot, để ít nhất những robot tự động tinh vi nhất có thể được thiết lập tư cách của những “người điện tử” chịu trách nhiệm đối với bất kỳ thiệt hại nào mà chúng gây ra và có thể áp dụng năng lực pháp lý điện tử cho các trường hợp robot có khả năng đưa ra các quyết định tự chủ hoặc tương tác một cách độc lập với các bên thứ ba”. Đây là quan điểm được coi là phù hợp nhất khi đặt ra TNHS đối với các thực thể này trong các giai đoạn tới, so với các quan điểm trước đó.

2.3. AI tương tự như một pháp nhân

Với cách tiếp cận này, các học giả coi AI gần giống như một pháp nhân, trong đó, những AI nhỏ lẻ sẽ trở thành nhân viên, người phục vụ … thực hiện các hoạt động của người chủ giao cho. Trách nhiệm pháp lý dành cho các nhân viên AI tương tự như trách nhiệm pháp lý dành cho pháp nhân.

Một trong những lập luận quan trọng bảo vệ cho quan điểm coi bản thân thực thể AI cũng phải chịu TNHS được đưa ra bởi Gabriel Hallevy. Trong các tác phẩm của mình mà nổi tiếng nhất là bài báo “Trách nhiệm hình sự của các thực thể trí tuệ nhân tạo - từ khoa học viễn tưởng đến kiểm soát pháp lý xã hội”[5], tác giả đã đưa ra lập luận xác đáng bàn về TNHS của thực thể AI.

Nếu tất cả các yếu tố cụ thể khách quan và chủ quan của hành vi phạm tội được đáp ứng, thì TNHS có thể được áp dụng đối với bất kỳ thực thể nào như con người, công ty, hoặc thực thể AI… Sự phát triển nhanh chóng của công nghệ AI đòi hỏi phải kịp thời áp dụng những giải pháp pháp lý hiện hành, đặc biệt là luật hình sự để bảo vệ xã hội khỏi những nguy hiểm có thể xảy ra trong khoa học công nghệ. Các mối đe dọa đối với trật tự xã hội đó có thể do con người, các pháp nhân hoặc thực thể AI gây ra. Theo quan điểm truyền thống trước đây, chỉ con người là đối tượng của luật hình sự… Mặc dù các pháp nhân, các công ty đã tồn tại từ Thế kỷ 14 nhưng phải mất vài thế kỷ, các quốc gia mới coi pháp nhân là chủ thể của tội phạm. Cụ thể, vào năm 1635 một tòa án ở Anh mới bắt đầu áp dụng TNHS cho một công ty … Các pháp nhân không có thể xác và linh hồn. Nhưng với các giải pháp pháp lý đã được phát triển trong lĩnh vực trách nhiệm hình sự, các công ty đã được xem xét việc đáp ứng các yếu tố cả về mặt khách quan và chủ quan của trách nhiệm hình sự. Các mô hình điều chỉnh trách nhiệm hình sự đối với các pháp nhân, công ty đã vận hành trên thực tế và đã rất thành công. Vậy tại sao các thực thể AI phải khác với công ty, tập đoàn đó. Các thực thể AI đang ngày càng chiếm phần lớn hơn trong các hoạt động của con người. Các hành vi phạm tội đã được thực hiện bởi chính các thực thể AI hoặc thông qua hoạt động của thực thể AI. Do đó, không có sự khác biệt nào về mặt pháp lý giữa ý tưởng về trách nhiệm hình sự đối với các pháp nhân, các công ty và đối với các thực thể AI”[6].

3. Cơ sở thực tiễn của việc quy định TNHS của sản phẩm AI

Ngoài ưu điểm vượt trội đối với sự phát triển của nền kinh tế, sản phẩm AI cũng có mặt trái, có thể gây hệ lụy, tạo ra những nguy hiểm trên diện rộng cho toàn xã hội.

Khủng bố luôn là nỗi sợ hãi của người dân và còn đáng sợ hơn nếu cuộc khủng bố không phải do con người tiến hành. “Liên hợp quốc từng bày tỏ lo ngại về việc công nghệ AI cho phép robot được lập trình sẵn, có thể bắn hay tấn công vào mục tiêu mà không cần đến sự tham gia của con người. Đội quân “robot sát thủ” tự động này có thể tiến hành các cuộc tấn công trên diện rộng, gây thương vong rất lớn”[7]. Đặc biệt các cuộc khủng bố sử dụng AI sẽ mang đến độ chính xác cao hơn và ít tốn kém hơn so với cuộc khủng bố con người trực tiếp thực hiện.

Sản phẩm AI còn có thể bị sử dụng để vi phạm quyền riêng tư, thực hiện các hoạt động truyền thông thất thiệt, tuyên truyền thông tin sai lệch ảnh hưởng tới tình hình xã hội và ổn định chính trị. Hậu quả của việc bị rò rỉ dữ liệu đặc biệt là dữ liệu mật của quốc gia nguy hiểm không thua gì khủng bố. Vụ việc hệ thống mạng của Văn phòng Quản lý nhân sự (OPM) chính phủ Mỹ bị tấn công bởi tin tặc, dữ liệu cá nhân chi tiết và rất nhạy cảm của 21,5 triệu quan chức tại chức và đã nghỉ hưu của Mỹ, thông tin về vợ/chồng của họ, dữ liệu cá nhân về những người từng nộp đơn xin việc vào cơ quan chính phủ đều bị lộ.

Sản phẩm AI còn có thể bị sử dụng đánh cắp dữ liệu OPM đã sử dụng công nghệ AI để rà soát, fake (làm giả) thông tin cá nhân, tạo lập các điệp viên ảo để đánh cắp dữ liệu. Thông tin bị đánh cắp được sản phẩm AI xử lý, phân tích và sử dụng vào các mục đích khác nhau trong một thời gian ngắn mà con người không thể thực hiện được trong khoảng thời gian tương đương”[8]. Khi dữ liệu quốc gia bị đánh cắp, khi các cuộc khủng bố diễn ra với mức độ tinh vi, nguy hiểm hơn bởi sự tham gia sản phẩm AI sẽ tạo nên mất ổn định trật tự xã hội, người dân không còn cảm thấy an toàn ở quốc gia họ sinh sống nữa, suy giảm nền kinh tế, chính trị rối loạn, các bè phái, tổ chức phản động nhân cơ hội nổi loạn,...

 Như vậy, sản phẩm AI hoàn toàn có thể trở thành mối nguy đối với an ninh quốc gia và an toàn cá nhân. Ngay tại thời điểm này, khi sản phẩm AI còn chịu sự kiểm soát của con người nhưng khi “rơi vào” tay kẻ xấu, nó đã tạo ra những nguy hiểm mà con người chưa thể ngăn chặn kịp. Vậy khi AI được phát triển đến trình độ có thể tự ra quyết định để đối phó với sự biến đổi của môi trường xung quanh hoặc tự tìm kiếm mục tiêu thay thế, hay mở rộng phạm vi mục tiêu thì có lẽ chúng còn gây ra những hệ lụy đáng sợ hơn. Khi đó đối tượng phải chịu những hậu quả bất lợi mang đến cho xã hội còn chỉ dừng lại ở cá nhân hay pháp nhân thương mại? Quan điểm cho rằng chỉ cá nhân người lập trình, người/tổ chức sử dụng lần cuối cùng trước khi sản phẩm AI gây ra nguy hiểm cho xã hội phải chịu TNHS có còn hợp lý không. Chúng tôi cho rằng, không nên chỉ duy nhất xem xét trách nhiệm của người lập trình hoặc cá nhân, tổ chức tạo ra, sử dụng sản phẩm AI phải chịu TNHS (nếu họ chủ ý sử dụng thực thể AI để phạm tội, gây nguy hại cho xã hội thì đương nhiên phải chịu TNHS). Tuy nhiên, thực tế cho thấy, có một số trường hợp, các đối tượng này không có lỗi khi để xảy ra việc thực thể AI gây thiệt hại cho con người và xã hội. Bởi sản phẩm AI có khả năng tự đưa ra quyết định đối với những thông tin mà nó được tiếp nhận nên nó có thể quyết định thực hiện hay hủy bỏ yêu cầu của con người, suy nghĩ, hành vi của nó có thể vượt xa tầm kiểm soát của con người. Và khi nó phạm tội đồng nghĩa chứng minh nó chủ động phạm tội không có sự ép buộc hay kiểm soát của con người.

Sản phẩm AI đã đe dọa đến quyền con người, một số quan hệ xã hội được Bộ luật Hình sự bảo vệ. Các nhà làm luật cần đặt ra những giới hạn đạo đức cho sản phẩm AI phù hợp với chuẩn mực của xã hội và những trách nhiệm pháp lý: dân sự, hành chính, hình sự,... để hạn chế chúng sử dụng khả năng của mình vào những mục đích xấu. Sẽ thế nào nếu một con robot y tế trong ca phẫu thuật cầm dao phẫu thuật giết bệnh nhân? Hay robot nghiệp vụ được trang bị súng đang hỗ trợ cảnh sát khống chế đám đông biểu tình lại tự động nổ súng vào đám đông? Hai ví dụ trên cho thấy đặt ra trách nhiệm pháp lý về dân sự, hành chính,... cho sản phẩm AI sẽ không phù hợp với những hệ lụy nguy hiểm mà sản phẩm AI gây ra. Những trách nhiệm pháp lý dân sự, trách nhiệm pháp lý hành chính hiện nay là các biện pháp buộc chủ thể phạm tội phải chịu hậu quả bất lợi ở mức độ còn nhẹ, mang nhiều tính giáo dục khuyên bảo nhiều hơn như: buộc xin lỗi công khai, phạt tiền,... Còn TNHS mang đến hậu quả bất lợi cao nhất cho chủ thể phạm tội tính răn đe, giáo dục cao hơn. Hơn nữa, sản phẩm AI trong hai ví dụ trên đã xâm phạm đến quan hệ xã hội cụ thể là: an ninh, trật tự quốc gia, quyền con người (cụ thể là quyền bất khả xâm phạm về sức khỏe, tính mạng con người). Đây là một trong các quan hệ xã hội được Bộ luật Hình sự Việt Nam hiện hành bảo vệ nên việc quy định TNHS cho sản phẩm AI là cần thiết. Do đó, cần quy định rõ tư cách pháp lý cho đối tượng này cũng như đặt ra các cơ sở để đối tượng này phải chịu TNHS để kịp thời xử lý các hậu quả và ngăn chặn các nguy cơ tiếp theo.

Hiện nay, một số quốc gia phát triển về lĩnh vực AI và quốc gia tiến bộ trên thế giới đã thông qua đạo luật hoặc đang xây dựng các dự thảo luật liên quan đến AI: quy tắc đạo đức, nguyên tắc phát triển và sử dụng AI,... Nghiên cứu thực tiễn các quy định hiện nay về AI, chúng tôi nhận thấy, hầu hết các quốc gia mới tập trung kiểm soát sản phẩm AI thông qua các chủ sở hữu, các nhà sản xuất và chưa xác định tư cách pháp lý của AI như một chủ thể mới, riêng biệt trong quan hệ pháp luật. Khi các rủi ro, hậu quả liên quan đến sản phẩm AI thì trách nhiệm sẽ thuộc về chủ thể liên quan đến AI: người chế tạo, người vận hành, người sử dụng,... (nếu chứng minh được lỗi của các chủ thể này liên quan đến thiệt hại mà thực thể AI gây ra). Có thể thấy, phần lớn các quốc gia chưa trao cho sản phẩm AI một tư cách pháp lý, họ vẫn đang nghiên cứu, chờ đợi sự phát triển của AI để đưa ra các kịch bản ứng phó phù hợp với chúng trong tương lai. Các quốc gia cũng chưa có cơ sở xử lý hình sự đối với sản phẩm AI kể cả đối tượng này gây ra nguy hiểm cho xã hội và thiệt hại đã đến mức phải xử lý hình sự. Tuy nhiên, pháp luật với vai trò là một trong những công cụ pháp lý bảo đảm và bảo vệ sự ổn định của các quan hệ xã hội thì phải luôn chủ động “đi trước, đón đầu”, kịp thời đề ra các quy phạm điều chỉnh lĩnh vực AI. Chỉ khi có các quy phạm điều chỉnh thì mới có căn cứ để xử lý các thiệt hại, nguy hiểm mà sản phẩm AI mang lại.

4. Một số khuyến nghị đối với Việt Nam

Việc xác định TNHS đối với thiệt hại do thực thể AI gây ra là vấn đề còn mới ở Việt Nam, do đó cần có sự thận trọng phù hợp với các cấp độ phát triển của AI, nhưng đồng thời phải có sự chủ động đối phó, ngăn chặn thiệt hại do thực thể AI gây ra. Trong tương lai gần, trách nhiệm pháp lý khi AI gây thiệt hại trước hết vẫn thuộc về con người (người sử dụng, nhà lập trình, nhà sản xuất, nhà điều hành v.v…) có lỗi với thiệt hại do thực thể AI gây ra) chứ không phải thuộc về bản thân thực thể AI. Tuy nhiên, trong tương lai xa hơn, khoảng 5 năm, 10 năm tới, khi đó xã hội đã vô cùng phát triển, sự thâm nhập của các sản phẩm AI sẽ sâu rộng hơn đối với xã hội, cần xác định chế định trách nhiệm pháp lý mà trước hết là TNHS đối với thực thể AI. Cụ thể:

Thứ nhất, cần xác định tư cách pháp lý của thực thể AI. Có thể thấy, sự phát triển mạnh mẽ của AI chính là động lực thúc đẩy các nhà lập pháp nghiên cứu, thiết lập khung pháp lý điều chỉnh các vấn đề phát sinh mà AI mang lại ở thời điểm hiện tại cũng như các thách thức về mặt pháp lý trong tương lai. Một số quốc gia trên thế giới đã có những động thái tích cực trong việc giải quyết các vấn đề này. Theo chúng tôi, khi xây dựng quy định pháp luật để điều chỉnh các vấn đề pháp lý phát sinh liên quan đến AI, chúng ta có thể tiếp cận theo hướng  xác định tư cách pháp lý của AI là một chủ thể mới trong quan hệ pháp luật. Do AI là thực thể nhân tạo, không phải thực thể tự nhiên như con người nên không thể gộp AI vào nhóm chủ thể là cá nhân; hiển nhiên AI cũng không phải là tổ chức, không mang các đặc điểm để được công nhận là pháp nhân. Mặt khác, cũng không nên coi AI chỉ là một công cụ đơn thuần. Bởi lẽ, trong tương lai, viễn cảnh AI tự mình tham gia vào các quan hệ xã hội một cách độc lập là hoàn toàn có thể xảy ra. Việc coi thực thể AI là tài sản, công cụ hay sản phẩm là chưa phù hợp với trình độ phát triển của AI. Từ các lập luận này, có thể thấy rằng, giải pháp tối ưu nhất cho vấn đề  này là trao tư cách pháp lý cho thực thể AI, coi nó là một chủ thể độc lập với các chủ thể hiện tại, từ đó xây dựng khung pháp lý riêng điều chỉnh các vấn đề pháp lý liên quan đến thực thể AI.

Thứ hai, cần quy định rõ các nhóm tội phạm cụ thể mà sản phẩm thực thể AI có thể phạm tội. Các sản phẩm AI là một thực thể xã hội khác với cá nhân và pháp nhân. Về bản chất, một số AI không tồn tại dưới dạng vật thể mà chỉ tồn tại dưới dạng thuật toán, phần mềm nhưng để làm việc tốt hơn, nó được trang bị thêm động cơ, hình dạng,... Theo chúng tôi, có thể quy định hầu hết các tội với con người và pháp nhân đối với AI đặc biệt là các nhóm tội xâm phạm an toàn công cộng (Chương XIX BLHS 2015), xâm phạm tính mạng, sức khỏe con người (Chương XIV BLHS 2015). Đối với từng nhóm tội, nếu AI thực hiện sẽ phải chịu TNHS, nhà lập pháp cần quy định cụ thể trong điều luật về tội phạm đó, tức là cần có nội dung liệt kê các tội phạm mà AI có thể phạm phải trong phần các tội phạm của BLHS.

Thứ ba, cần quy định rõ các điều kiện thực thể AI phải chịu TNHS. Trong quá trình nghiên cứu TNHS của pháp nhân, chúng tôi nhận thấy rằng có thể áp dụng các điều kiện chịu TNHS của pháp nhân đối với TNHS của các sản phẩm AI. Xét về bản chất, các pháp nhân hoàn toàn có khả năng phạm tội thông qua các hoạt động và ý chí tập thể của các thành viên của họ. Đó là những người lãnh đạo, đại diện của pháp nhân, người vạch ra, người chỉ đạo hoặc người thực hiện các chính sách của pháp nhân, thì tội phạm được coi là do chính pháp nhân thực hiện. Xét về đặc điểm của AI trong giai đoạn này cũng mang những nét tương tự, trong thời đại công nghệ 4.0 như hiện nay, AI chưa có khả năng phát triển đến mức “siêu việt” để có khả năng phạm tội như một con người. Chúng vẫn chịu sự điều chỉnh, lập trình của con người. Một sản phẩm AI được đưa vào hoạt động cũng cần phải có sự đăng ký sở hữu trí tuệ, được sự cấp phép của cơ quan có thẩm quyền, cần có chủ sở hữu (có thể là người lập trình hoặc người sử dụng). Nhà làm luật Việt Nam khi quy định vấn đề này cần phải xác định rõ chủ sở hữu của AI - những chủ thể mà hành vi, lỗi của họ có thể dẫn tới TNHS đối với AI. Như vậy, TNHS ở đây là TNHS đồng thời, TNHS của AI không loại trừ TNHS của cá nhân về cùng một loại tội phạm, có nghĩa, về nguyên tắc nếu chủ sở hữu đã thực hiện một tội phạm (dù là cố ý hoặc vô ý) vì lợi ích hoặc trong khuôn khổ hoạt động của các sản phẩm AI thì cả AI và chủ sở hữu đó phải chịu TNHS về cùng loại tội phạm đó. Tuy nhiên, trong tương lai, khả năng sản phẩm AI tự mình thực hiện hành vi phạm tội mà vượt qua sự kiểm soát của con người, khi đó TNHS của AI là TNHS độc lập.

Thứ tư, để bảo đảm tính răn đe, nghiêm khắc của pháp luật, cần xây dựng hình phạt phù hợp để xử lý triệt để các vụ án liên quan đến sản phẩm AI gây thiệt hại. Giả sử một sản phẩm AI phải chịu TNHS, bị truy tố, đã xét xử và bị kết án. Sau khi kết án, tòa án phải tuyên hình phạt cho sản phẩm AI đó. Nếu tuyên hình phạt cho AI, làm thế nào để có thể thi hành án với một sản phẩm AI? Ví dụ, chúng ta có thể bắt một con robot phạm tội ngồi tù được không? Trong khi AI có thể là những cỗ máy hữu hình (như robot, xe tăng…) hoặc cũng có thể AI tồn tại dưới dạng phi vật thể như một phần mềm được cài đặt, một thuật toán…, vậy hình phạt nào phù hợp sẽ được áp dụng với chúng? Theo chúng tôi, do AI phạm tội, gây thiệt hại đối với xã hội, thì có thể quy định hình phạt “tử hình” áp dụng đối với sản phẩm của AI. Đối với cá nhân, việc áp dụng hình phạt tử hình là tước bỏ quyền sống của người phạm tội, việc quy định hình phạt tử hình đối với sản phẩm AI cũng có thể đạt kết quả tương tự. Ví dụ:  phá hủy robot, xóa phần mềm AI trong các sản phẩm. Sau khi thực hiện hình phạt này, thực thể AI không còn cơ hội để thực hiện hành vi phạm tội. Việc xóa bỏ AI sẽ loại bỏ sự tồn tại độc lập của các sản phẩm AI. Sau khi thi hành hình phạt, các sản phẩm AI không còn sự điều khiển của AI nữa, trở thành một cỗ máy vô tri, không còn khả năng hoạt động gây hại cho xã hội.

Tóm lại, AI ngày càng phát triển nhanh chóng và tác động tới mọi mặt kinh tế, giáo dục, xã hội của các quốc gia. Tuy nhiên, bên cạnh những lợi ích to lớn, sự phát triển của AI có mặt trái đang làm dấy lên những quan ngại về các rủi ro tiềm ẩn, về những thiệt hại gây ra cho xã hội… Do đó, cơ quan có thẩm quyền ở Việt Nam cần đánh giá tác động gây hại cho xã hội từ các thực thể AI, từ đó, pháp luật Việt Nam cần “đi trước, đón đầu” xem xét, ban hành các quy định vấn đề TNHS của sản phẩm AI trong pháp luật hình sự nhằm sự chủ động ngăn ngừa, xử lý tội phạm do AI gây ra, từ đó, góp phần duy trì trật tự, trị an xã hội.

NGUYỄN KHÁNH LINH - NGUYỄN CÔNG VŨ - TRẦN ĐÌNH HẢI NAM - ĐOÀN ĐỨC MẠNH (Sinh viên Học viện Tòa án)

[1] S. Russell,  P. Norvig  (2009), “Artificial  Intelligence:  A  Modern Approach, 3rd Global Edition, Pearson”.

[2] National Science and Technology Council (2016),  “Committee on Technology, Preparing for the Future of Artificial Intelligence”, Government Report (Washington, D.C.: Executive Office of the President).

[3] Trần Gia Hiển, “Quản lý trí tuệ nhân tạo (AI): Kinh nghiệm từ Liên minh Châu Âu và khuyến nghị cho Việt Nam”, Tạp chí Nghiên cứu công nghiệp và thương mại, số 86/2023.

[4] Xem Bài viết: Trách nhiệm pháp lý của trí tuệ nhân tạo - Kiến nghị về cách tiếp cận của Pháp luật Việt Nam, https://www.misa.vn/142919/trach-nhiem-phap-ly-cua-tri-tue-nhan-tao-kien-nghi-ve-cach-tiep-can-cua-phap-luat-viet-nam/.

[5] Xem Gabriel Hallevy, “The Criminal Liability of Artificial Intelligence Entities: From Science Fiction to Legal Social Control”, Akron Intellectual Property Law Journal, 3/2016.

[6] Xem Gabriel Hallevy, “The Criminal Liability of Artificial Intelligence Entities: From Science Fiction to Legal Social Control”, Akron Intellectual Property Law Journal, 3/2016.

[7] Xem: Nam Hồng, Trần Quân (2019), “Khi trí tuệ nhân tạo rơi vào tay khủng bố”, https://cand.com.vn/Khoa-hoc-Van-Minh/Khi-tri-tue-nhan-tao-roi-vao-tay-khung-bo-i517456/.

[8] Xem: Hữu Dương, “Vì sao AI nguy hiểm”, Báo điện tử Quân đội nhân dân, https://www.qdnd.vn/giao-duc-khoa-hoc/cac-van-de/vi-sao-ai-nguy-hiem-723863.