Ứng dụng trí tuệ nhân tạo trong hệ thống pháp luật Việt Nam: cơ hội, thách thức và định hướng phát triển

Bài viết phân tích các ứng dụng cụ thể của AI trong hệ thống pháp luật Việt Nam, đánh giá những lợi ích và thách thức, đồng thời đề xuất các giải pháp nhằm thúc đẩy việc ứng dụng AI trong lĩnh vực này.

1. Ứng dụng AI trong công tác xây dựng và kiểm tra văn bản pháp luật

1.1. Rà soát văn bản quy phạm pháp luật

Việc rà soát, kiểm tra văn bản quy phạm pháp luật (VBQPPL) là một trong những nhiệm vụ quan trọng của Bộ Tư pháp và các cơ quan liên quan. Tuy nhiên, với hơn 60.000 văn bản đang còn hiệu lực, công tác này gặp nhiều khó khăn về thời gian và nguồn lực. Để giải quyết vấn đề này, Bộ Tư pháp đã phối hợp với Bộ Khoa học và Công nghệ cùng Tập đoàn CMC phát triển trợ lý ảo hỗ trợ rà soát VBQPPL1. Trợ lý ảo này có khả năng:

- Phát hiện mâu thuẫn về hình thức của văn bản.

- Kiểm tra hiệu lực của các văn bản, căn cứ và văn bản tham chiếu.

- Tìm kiếm, xác định các điều, khoản, điểm, các VBQPPL liên quan đến quy định cần rà soát.

Kết quả thử nghiệm cho thấy, trợ lý ảo đã hỗ trợ hiệu quả trong công tác rà soát, giảm thiểu thời gian và nâng cao độ chính xác trong việc phát hiện các quy định mâu thuẫn, chồng chéo.

1.2. Phát triển hệ thống hỗ trợ soạn thảo và thẩm định văn bản

AI cũng được ứng dụng trong việc hỗ trợ soạn thảo và thẩm định VBQPPL. Các hệ thống AI có thể phân tích dữ liệu từ các văn bản pháp luật hiện hành, đưa ra các đề xuất chỉnh sửa, bổ sung hoặc loại bỏ các quy định không còn phù hợp, từ đó giúp nâng cao chất lượng và tính khả thi của các văn bản pháp luật.

2. Ứng dụng AI trong hoạt động tư pháp

2.1. Trợ lý ảo cho Thẩm phán

Theo Kế hoạch số 49/KH-TANDTC ngày 15/3/2022 về triển khai áp dụng phần mềm trợ lý ảo cho Thẩm phán, Tòa án nhân dân tối cao đã triển khai phần mềm nhằm hỗ trợ tra cứu nhanh các văn bản pháp luật, chỉ dẫn áp dụng pháp luật cho các tình huống pháp lý cụ thể, quy định pháp luật, án lệ và bản án có tình huống pháp lý tương tự để tham khảo. Mục tiêu của việc triển khai này là:

- Đảm bảo việc áp dụng đúng, thống nhất pháp luật.

- Giúp cho phần mềm Trợ lý ảo ngày càng thông minh hơn thông qua quá trình sử dụng và đóng góp ý kiến của các Thẩm phán.

2.2. Phân tích và dự báo xu hướng xét xử

AI có khả năng phân tích dữ liệu từ các vụ án đã xét xử để nhận diện các xu hướng, mô hình và yếu tố ảnh

 hưởng đến quyết định của Tòa án. Việc ứng dụng AI trong phân tích và dự báo xu hướng xét xử giúp nâng cao tính minh bạch và công bằng trong hoạt động tư pháp, đồng thời hỗ trợ các Thẩm phán trong việc đưa ra quyết định chính xác và hợp lý.

3. Ứng dụng AI trong công tác tư vấn và giáo dục pháp luật

3.1. Phát triển ứng dụng tư vấn pháp luật trực tuyến

Các ứng dụng như VN Law Advisor, AI Luật đã được phát triển nhằm cung cấp dịch vụ tư vấn pháp luật trực tuyến cho người dân và doanh nghiệp. Những ứng dụng này sử dụng AI để giải đáp tự động các vấn đề về pháp luật, đồng thời cung cấp thông tin về các văn bản quy phạm pháp luật hiện hành. Việc sử dụng AI trong tư vấn pháp luật giúp tiết kiệm thời gian, chi phí và nâng cao hiệu quả trong việc tiếp cận thông tin pháp lý.

3.2. Hỗ trợ cán bộ, công chức trong công tác pháp lý

AI cũng được ứng dụng trong việc hỗ trợ cán bộ, công chức trong công tác pháp lý tại các cơ quan nhà nước. Ví dụ, ứng dụng AI tra cứu luật đã được giới thiệu và tập huấn sử dụng cho cán bộ và công chức tại các phường, quận, giúp nâng cao hiệu quả công tác pháp lý tại cơ sở.

4. Thách thức và rủi ro khi ứng dụng AI trong hệ thống pháp luật

4.1. Vấn đề về dữ liệu

4.1.1. Dữ liệu pháp lý thiếu đồng bộ, phân tán và chưa chuẩn hóa

Một đặc trưng của hệ thống pháp luật Việt Nam là sự đa tầng và phức tạp, với hàng chục nghìn VBQPPL đang còn hiệu lực, trải dài từ Hiến pháp, luật, pháp lệnh đến nghị định, thông tư, văn bản hướng dẫn. Tuy nhiên, các VBQPPL này:

- Được lưu trữ rải rác tại nhiều cơ quan khác nhau như Văn phòng Quốc hội, Bộ Tư pháp, Văn phòng Chính phủ, các bộ chuyên ngành.

- Không thống nhất về định dạng số: nhiều văn bản chỉ tồn tại dưới dạng file ảnh, PDF không thể tìm kiếm nội dung.

- Thiếu siêu dữ liệu (metadata) cần thiết như ngày ban hành, ngày hiệu lực, văn bản thay thế, căn cứ pháp lý gốc, điều khoản liên quan…

Điều này khiến việc thiết lập cơ sở dữ liệu có thể đọc được bằng máy (machine-readable legal corpora) vốn là điều kiện tiên quyết để huấn luyện mô hình AI - trở nên rất khó khăn.

4.1.2. Thiếu dữ liệu bản án, án lệ và quyết định hành chính công khai

Một nguồn dữ liệu đặc biệt quan trọng trong pháp luật là các bản án và quyết định giải quyết vụ việc của Tòa án, cơ quan hành chính, thanh tra, kiểm toán… Đây là kho dữ liệu phản ánh cách áp dụng pháp luật trên thực tế, là nền tảng để xây dựng các hệ thống AI tư vấn, dự báo hoặc so sánh án lệ. Tuy nhiên:

- Chỉ một phần nhỏ bản án của Tòa án nhân dân các cấp được công khai trên Cổng thông tin điện tử Tòa án nhân dân tối cao.

- Nhiều bản án bị làm mờ tên, địa điểm, hoặc thiếu thông tin cần thiết để phân tích pháp lý (ví dụ: lập luận của tòa, chứng cứ, tình tiết giảm nhẹ…).

- Quyết định hành chính (ví dụ: xử phạt vi phạm hành chính, giải quyết khiếu nại…) ít khi được công bố công khai hoặc không chuẩn hóa về cấu trúc.

Việc thiếu dữ liệu này khiến các hệ thống AI khó xây dựng mô hình đủ chính xác và khách quan, đặc biệt trong các nhiệm vụ như dự đoán kết quả xét xử, gợi ý hướng giải quyết tranh chấp, hay đánh giá tính hợp pháp của một quyết định hành chính.

4.1.3. Thiếu liên thông và chia sẻ dữ liệu giữa các cơ quan

Tình trạng “đóng silo” dữ liệu giữa các cơ quan pháp luật là một thực trạng phổ biến. Các hệ thống dữ liệu của Tòa án, Viện kiểm sát, Thanh tra Chính phủ, Bộ Công an… vận hành riêng rẽ, không chia sẻ hoặc liên thông với nhau. Điều này gây ra:

- Lãng phí nguồn lực, trùng lặp dữ liệu.

- Khó khăn khi tích hợp hệ thống AI dùng chung cho nhiều đơn vị.

- Không thể tạo ra các mô hình AI đa chiều, có khả năng học liên ngành giữa hình sự, dân sự, hành chính.

Ví dụ: Trong một vụ án hình sự liên quan đến tranh chấp dân sự phát sinh từ hợp đồng giả cách, nếu dữ liệu từ cơ quan điều tra, tòa án dân sự và cơ quan thi hành án không được liên thông, AI không thể đánh giá đầy đủ ngữ cảnh pháp lý để đưa ra tư vấn đúng.

4.1.4. Vấn đề cập nhật, kiểm duyệt và độ tin cậy của dữ liệu

Ngay cả khi dữ liệu được số hóa và tích hợp vào hệ thống AI, vẫn tồn tại nguy cơ dữ liệu không được cập nhật đúng hạn hoặc thiếu kiểm duyệt chất lượng. Một số rủi ro bao gồm:

- Văn bản đã bị bãi bỏ nhưng vẫn xuất hiện trong cơ sở dữ liệu huấn luyện của AI.

- Trợ lý ảo đưa ra tư vấn dựa trên dự thảo luật hoặc văn bản chưa có hiệu lực.

- Mẫu hợp đồng, hướng dẫn pháp lý lưu trữ trong dữ liệu AI không phù hợp với pháp luật hiện hành.

Hệ quả là người dân hoặc cán bộ pháp lý sử dụng AI có thể bị dẫn dắt sai lệch, dẫn đến sai sót pháp lý, thậm chí gây thiệt hại pháp lý hoặc kinh tế.

4.2. Vấn đề về pháp lý

4.2.1. Thiếu quy định pháp lý điều chỉnh trực tiếp AI trong lĩnh vực pháp luật

Hiện nay, chưa có văn bản pháp luật nào ở cấp luật hoặc nghị định chuyên biệt điều chỉnh việc ứng dụng AI trong lĩnh vực tư pháp, hành chính pháp lý hoặc luật sư. Những khoảng trống pháp lý đáng lưu ý gồm:

- Trách nhiệm pháp lý khi AI cung cấp thông tin sai lệch, gây thiệt hại cho người sử dụng.

- Cơ chế công nhận và giới hạn pháp lý của các công cụ như chatbot pháp lý, trợ lý ảo trong hoạt động xét xử, công chứng, thi hành án...

- Tiêu chuẩn đánh giá tính hợp pháp, hợp lý và khách quan của quyết định pháp lý nếu có yếu tố “đóng góp” từ AI.

Ví dụ: Một ứng dụng tư vấn pháp luật tự động do doanh nghiệp cung cấp có thể hướng dẫn sai về trình tự nộp đơn khởi kiện, dẫn đến việc người dân bị Tòa án từ chối thụ lý. Trong trường hợp này, ai là người chịu trách nhiệm: nhà cung cấp phần mềm, người sử dụng, hay cơ quan sử dụng phần mềm đó?

4.2.2. Xung đột giữa nguyên tắc pháp lý truyền thống và cách thức vận hành của AI

Hệ thống pháp luật Việt Nam dựa trên nguyên tắc “nhân văn, công bằng, trách nhiệm và minh bạch”. Trong khi đó, AI lại hoạt động chủ yếu theo các thuật toán xác suất và thống kê, thiếu khả năng “hiểu” khái niệm công lý, bối cảnh văn hóa - xã hội, hoặc giá trị đạo đức pháp lý.

Một số xung đột tiềm tàng có thể bao gồm:

- AI có thể đưa ra các kết quả “hiệu quả về mặt kỹ thuật” nhưng vi phạm quyền con người, quyền riêng tư, hoặc dẫn đến phân biệt đối xử.

- Các công cụ gợi ý hình phạt (sentencing algorithms), nếu áp dụng máy móc, có thể làm xói mòn vai trò cá nhân hóa của Thẩm phán trong lượng hình.

- Nguyên tắc “Tòa án xét xử độc lập, chỉ tuân theo pháp luật” có thể bị ảnh hưởng nếu Thẩm phán dựa quá nhiều vào gợi ý của hệ thống AI mà không thực sự tự cân nhắc.

4.2.3. Thiếu cơ chế kiểm định, chứng nhận và cấp phép cho hệ thống AI pháp lý

Khác với các thiết bị y tế hay phần mềm kế toán vốn phải có chứng nhận tiêu chuẩn trước khi triển khai, hiện nay tại Việt Nam:

- Không có tiêu chuẩn kỹ thuật cụ thể cho phần mềm AI pháp luật.

- Không có cơ quan chuyên trách kiểm định chất lượng và đạo đức của hệ thống AI ứng dụng trong tư pháp.

- Không có yêu cầu về công khai nguồn dữ liệu huấn luyện hoặc thuật toán sử dụng, dẫn đến nguy cơ “AI hộp đen”.

Tình trạng này tiềm ẩn rủi ro nghiêm trọng khi các hệ thống chưa kiểm duyệt có thể được sử dụng trong môi trường pháp lý chính thức mà không có ai chịu trách nhiệm về độ chính xác hoặc độ an toàn.

4.2.4. Vấn đề pháp lý liên quan đến quyền riêng tư và bảo vệ dữ liệu cá nhân

Các hệ thống AI pháp lý - đặc biệt là trợ lý ảo, công cụ phân tích vụ án, hoặc ứng dụng dự đoán xét xử - đều phải tiếp cận, xử lý khối lượng lớn dữ liệu cá nhân, bao gồm thông tin về:

- Danh tính, nghề nghiệp, thu nhập của các bên liên quan.

- Tình trạng hôn nhân, sức khỏe, lịch sử tư pháp, v.v.

- Dữ liệu hành vi trong quá trình sử dụng phần mềm (ví dụ: thói quen tìm kiếm, hồ sơ vụ việc đã tra cứu).

Trong khi đó, Luật Bảo vệ dữ liệu cá nhân năm 2023 và các văn bản liên quan vẫn chưa quy định rõ:

- Các giới hạn cụ thể đối với việc trích xuất dữ liệu từ bản án, quyết định Tòa án để dùng trong AI.

- Trách nhiệm bảo mật, lưu trữ và xử lý dữ liệu pháp lý nhạy cảm.

- Cơ chế xin phép, rút lại, hoặc khiếu nại khi người dân không đồng ý để dữ liệu của mình được hệ thống AI sử dụng.

Nếu không được kiểm soát chặt chẽ, việc thu thập và xử lý dữ liệu pháp lý qua AI có thể vi phạm quyền riêng tư, gây tổn hại uy tín cá nhân và tạo ra các nguy cơ lạm dụng dữ liệu trong môi trường mạng.

4.3. Rủi ro về chất lượng và độ tin cậy của AI

4.3.1. Phụ thuộc vào chất lượng dữ liệu đầu vào

Hệ thống AI hoạt động dựa trên cơ chế học từ dữ liệu (machine learning), do đó chất lượng của đầu ra phụ thuộc hoàn toàn vào dữ liệu đầu vào. Trong khi đó, hệ thống dữ liệu pháp luật tại Việt Nam hiện nay còn:

- Phân mảnh, thiếu tính liên kết giữa các cơ quan (Bộ Tư pháp, Tòa án nhân dân tối cao, Kiểm sát nhân dân, v.v.).

- Thiếu chuẩn hóa định dạng dữ liệu số của văn bản quy phạm pháp luật, bản án, án lệ.

- Còn tồn tại nhiều bản án không được công bố công khai, gây thiếu hụt dữ liệu huấn luyện cho AI.

Ví dụ: Một trợ lý ảo pháp luật có thể đưa ra tư vấn sai hoặc không đầy đủ nếu không có dữ liệu về các bản án chưa được cập nhật. Điều này đặc biệt nguy hiểm nếu người dân hoặc cán bộ pháp luật quá phụ thuộc vào kết quả của AI mà không đối chiếu với thực tiễn.

4.3.2. Khả năng lý giải của AI còn hạn chế

Một đặc điểm quan trọng của tư duy pháp lý là tính lập luận và giải thích minh bạch. Tuy nhiên, các hệ thống AI, đặc biệt là AI học sâu (deep learning), thường hoạt động như một “hộp đen” nghĩa là khó truy nguyên được vì sao hệ thống lại đưa ra kết luận A thay vì B.

Trong xét xử, nếu một hệ thống AI gợi ý hướng giải quyết một vụ án mà không đưa ra được cơ sở pháp lý rõ ràng, Thẩm phán sẽ không thể sử dụng gợi ý đó như một nguồn tham khảo tin cậy. Tương tự, nếu chatbot pháp luật trả lời người dân bằng các kết luận ngắn gọn, không dẫn chiếu điều luật cụ thể hoặc không lý giải bằng lập luận pháp lý, điều này có thể dẫn đến sai lệch nhận thức pháp luật trong cộng đồng.

4.3.3. Nguy cơ “thiên lệch thuật toán” (algorithmic bias)

AI học từ dữ liệu quá khứ - nhưng bản thân dữ liệu pháp lý trong quá khứ không phải lúc nào cũng công bằng. Nếu hệ thống học từ dữ liệu án lệ mà trong đó tồn tại thiên lệch về giới tính, vùng miền hoặc nhóm xã hội, AI có thể “vô tình hợp pháp hóa” các thiên lệch này. Ví dụ:

- Nếu các bản án trong quá khứ thường có mức phạt nhẹ hơn cho bị cáo nam, hệ thống AI học theo có thể mặc định “đề xuất nhẹ tay” với giới tính này.

- Các vụ án kinh tế một số nơi thường có mức bồi thường cao hơn các tỉnh lẻ do điều kiện kinh tế, nhưng AI có thể hiểu nhầm đây là chuẩn chung.

Nếu không có cơ chế kiểm định chất lượng dữ liệu và kiểm soát thuật toán, AI có thể tái sản sinh bất công thay vì hỗ trợ công lý.

4.3.4. Nguy cơ lạm dụng và phụ thuộc vào AI

Một rủi ro tiềm ẩn khác là tâm lý “phó mặc” cho AI trong hoạt động pháp lý, đặc biệt trong các cơ quan có hạn chế về năng lực số hoặc thiếu chuyên gia pháp luật. Trong các văn phòng công chứng, bộ phận tư vấn doanh nghiệp, thậm chí ở cấp xã/phường, cán bộ có thể dựa hoàn toàn vào hệ thống trả lời tự động, mà không thực sự đánh giá lại kết quả hoặc tham khảo thêm các văn bản hướng dẫn chính thức.

Điều này có thể dẫn đến:

- Tư vấn pháp luật sai lệch, gây thiệt hại cho người dân hoặc doanh nghiệp.

- Ban hành quyết định hành chính không đúng căn cứ pháp luật.

- Gia tăng khiếu nại, khiếu kiện và mất niềm tin vào pháp luật.

4.3.5. Thiếu hành lang pháp lý và chuẩn kiểm định cho AI pháp lý

Hiện nay, Việt Nam chưa có một cơ chế kiểm định độc lập đối với các ứng dụng AI sử dụng trong hệ thống pháp luật. Các câu hỏi chưa có lời giải rõ ràng gồm:

- Thế nào là một trợ lý pháp luật ảo “đủ điều kiện vận hành”?

- Cơ quan nào chịu trách nhiệm khi AI đưa ra tư vấn sai?

- Có cần đăng ký, kiểm duyệt trước khi triển khai chatbot pháp luật trong doanh nghiệp hoặc cơ quan công quyền?

Việc thiếu khung pháp lý rõ ràng không chỉ làm chậm quá trình áp dụng AI, mà còn khiến người dân và cán bộ pháp luật không dám tin tưởng vào các công cụ mới.

Kết luận

Việc ứng dụng trí tuệ nhân tạo (AI) trong hệ thống pháp luật Việt Nam là xu hướng tất yếu trong quá trình chuyển đổi số quốc gia và hiện đại hóa nền hành chính - tư pháp. AI mang lại nhiều tiềm năng to lớn: từ việc hỗ trợ soạn thảo và kiểm tra văn bản pháp luật, tự động hóa tư vấn pháp lý, đến phân tích bản án, dự đoán xu hướng xét xử và hỗ trợ Thẩm phán ra quyết định. Trong những năm gần đây, Việt Nam đã bước đầu thử nghiệm một số mô hình ứng dụng AI vào hoạt động pháp lý, cho thấy những hiệu quả tích cực về mặt thời gian, chi phí và chất lượng xử lý thông tin.

Tuy nhiên, để AI thực sự phát huy hiệu quả trong lĩnh vực pháp luật, cần nhìn nhận rõ những thách thức cốt lõi đang tồn tại: bao gồm vấn đề thiếu dữ liệu pháp lý chuẩn hóa và minh bạch; những khoảng trống pháp lý điều chỉnh AI; rủi ro về thiên lệch thuật toán, tính minh bạch và khả năng giải thích; cũng như nguy cơ xâm phạm quyền riêng tư cá nhân trong quá trình xử lý dữ liệu pháp luật.

Vì vậy, trong thời gian tới, Nhà nước cần sớm ban hành một hành lang pháp lý chuyên biệt cho việc phát triển và ứng dụng AI trong lĩnh vực pháp luật, đồng thời chú trọng đến các vấn đề:

- Xây dựng hạ tầng dữ liệu pháp lý quốc gia thống nhất, mở và có khả năng đọc hiểu được bằng máy.

+ Ban hành Quy chuẩn dữ liệu pháp lý quốc gia (Legal Data Standard): định nghĩa cấu trúc metadata bắt buộc (số, ngày, chủ thể, loại văn bản, lĩnh vực luật, các điều/khoản liên quan, chỉ dẫn án lệ), dùng XML/JSON-LD theo schema chung để đảm bảo máy có thể đọc-hiểu và liên thông.

+ Yêu cầu tất cả VBQPPL, án lệ, quyết định phải xuất bản đồng thời ở dạng con người-đọc (pdf/html) và máy-đọc (structured data) khi công bố. (Phù hợp với mục tiêu xây dựng CSDL ngành, kết nối dữ liệu).

+ Thành lập Cổng dữ liệu ngành Tòa án làm “single source of truth” (kho dữ liệu chính thức), gồm API công khai (public) và API bảo mật cho hệ thống nội bộ tòa án. Giai đoạn 1: tích hợp dữ liệu bản án, văn bản; Giai đoạn 2: tích hợp hồ sơ vụ án điện tử và dữ liệu tố tụng. (Thời hạn, phân công theo KH-540).

+ Ban hành quy chế quản trị dữ liệu: người chịu trách nhiệm dữ liệu (data steward) tại mỗi đơn vị, quy trình cập nhật, kiểm duyệt, logging (nhật ký thay đổi), và KPI chất lượng dữ liệu. Triển khai chương trình làm sạch dữ liệu (data cleansing), gắn mã định danh văn bản và chuẩn hóa tên/thuật ngữ pháp lý.- Thiết lập tiêu chuẩn kỹ thuật, đạo đức và pháp lý cho các hệ thống AI ứng dụng trong tư pháp và hành chính pháp lý.

+ Chứng nhận an toàn & tin cậy cho mô-đun AI (model cards, data sheets): mô tả nguồn dữ liệu huấn luyện, phạm vi áp dụng, giới hạn, độ chính xác theo nhóm vụ việc, rủi ro sai sót.

+ Yêu cầu giải thích (explainability): mọi kết quả, khuyến nghị pháp lý do AI cung cấp phải kèm “lộ trình suy luận” (ví dụ: nguồn văn bản, điều luật tham chiếu, án lệ tương tự).

+ Kiểm thử định kỳ (periodic red-teaming, bias testing): thử nghiệm trên tập dữ liệu kiểm định độc lập trước khi triển khai rộng.

+ Quy tắc đảm bảo minh bạch (người dùng biết khi nào đang tương tác với AI), công bằng (không phân biệt đối xử theo khuôn mẫu), và bảo mật thông tin cá nhân (tuân thủ luật bảo vệ dữ liệu).

+ Xây dựng quy trình báo lỗi/điều chỉnh khi AI đưa ra kết luận sai lệch; dữ liệu phản hồi từ Thẩm phán sẽ được dùng để cải thiện mô-hình (human-in-the-loop).

+ Ban hành Nghị định/Thông tư chuyên ngành quy định: phạm vi được phép sử dụng AI trong tư pháp (tra cứu, gợi ý, phân tích — không thay thế quyết định); tiêu chí chấp thuận (certification) cho sản phẩm AI trước khi đưa vào dùng trong hệ thống tòa án. (Phù hợp mục tiêu chuyển đổi số của KH-534).- Quy định rõ trách nhiệm pháp lý và giới hạn sử dụng AI, đảm bảo vai trò trung tâm của con người - đặc biệt là Thẩm phán, luật sư, công chức pháp lý trong mọi quyết định pháp luật.

+ Nguyên tắc “Con người là trung tâm”

Luật/Thông tư phải ghi rõ: quyền quyết định cuối cùng thuộc Thẩm phán (hoặc cán bộ có thẩm quyền). AI chỉ là công cụ hỗ trợ ra quyết định. Mọi quyết định pháp luật không thể chỉ dựa vào kết quả chưa được con người kiểm chứng.

+ Phân định trách nhiệm khi AI tham gia

Nếu sai sót do dữ liệu/thuật toán (ví dụ: dữ liệu huấn luyện sai, lỗi mô-hình): nhà cung cấp/đơn vị phát triển chịu trách nhiệm về khía cạnh kỹ thuật.

Nếu sai sót do nhân viên tòa án (bỏ qua cảnh báo, sử dụng ngoài phạm vi): người sử dụng chịu trách nhiệm hành chính/định chế theo quy định nội bộ và pháp luật chuyên ngành.

Buộc bảo hiểm nghề nghiệp/ trách nhiệm pháp lý công nghệ đối với các hệ thống AI quan trọng.

+ Cơ chế giám sát và khiếu nại

Thành lập Ủy ban giám sát AI trong tư pháp (ở cấp TANDTC), tiếp nhận khiếu nại, rà soát hồ sơ các trường hợp nghi ngờ sai lệch do AI; công bố báo cáo định kỳ. (Liên thông với Ban Chỉ đạo chuyển đổi số).

- Đẩy mạnh đào tạo pháp lý kết hợp công nghệ, giúp đội ngũ cán bộ tư pháp thích ứng với sự thay đổi và vận hành hệ thống AI một cách có trách nhiệm.

+ Chương trình đào tạo tổng thể

Xây dựng chương trình bắt buộc “AI cơ bản cho pháp lý” cho Thẩm phán, luật sư, chánh án, gồm: hiểu biết về mô-hình ML/NLP, giới hạn của AI, hiểu báo cáo giải thích mô-hình, và kỹ năng rà soát kết quả AI.

Chứng chỉ bắt buộc để được cấp quyền sử dụng hệ thống AI trong xét xử.

+ Đào tạo kỹ thuật cho đội ngũ IT tòa án

Đào tạo chuyên sâu về quản trị dữ liệu, vận hành mô-hình, kiểm thử an toàn, triển khai bản vá (patching) và bảo trì.

Hợp tác với trường đại học, viện nghiên cứu và doanh nghiệp công nghệ để thiết kế chương trình liên tục (upskilling). (Phù hợp với chỉ đạo tăng cường nguồn lực công nghệ tại KH-534).

Chỉ khi vừa thúc đẩy đổi mới sáng tạo, vừa đảm bảo kỷ cương pháp luật và quyền con người, thì AI mới có thể trở thành công cụ hỗ trợ đắc lực cho công lý, thay vì trở thành yếu tố làm méo mó công bằng và làm suy giảm niềm tin của xã hội vào pháp luật.

HOÀNG LÂM (Thư ký Tòa án quân sự Quân khu 1)

1 Viện Nghiên cứu Ứng dụng Công nghệ CMC ATI, CMC ATI và Nhiệm Vụ Xây Dựng Trợ lý ảo hỗ trợ xây dựng và tổ chức thực hiện văn bản quy phạm pháp luật (VBQPPL) và Trợ lí ảo công dân, https://cmcati.vn/tro-ly-ao-xay-dung-va-to-chuc-thuc-hien-vbqp-phap-luat-va-tro-ly-ao-cong-dan/?utm_source=chatgpt.com, truy cập ngày 10/5/2025.

Ảnh minh hoạ - Nguồn: Internet.