• Quảng cáo: 0246.265.2654
Tiếng Việt
English
logo
ĐOÀN KẾT - NGHĨA TÌNH - TRÁCH NHIỆM - VÌ NẠN NHÂN CHẤT ĐỘC DA CAM - "TOÀN DÂN TÍCH CỰC ĐÓNG GÓP Ý KIẾN VÀO DỰ THẢO BÁO CÁO CHÍNH TRỊ TẠI ĐẠI HỘI XIV CỦA ĐẢNG"

Quản lý AI theo mức độ rủi ro: Tôn trọng quyền riêng tư và lấy con người làm trung tâm

Đóng góp ý kiến vào dự án Luật Trí tuệ nhân tạo, nhiều ĐBQH nêu quan điểm, các quy định pháp lý về AI phải cân bằng giữa thúc đẩy đổi mới sáng tạo, thu hút đầu tư và tăng tính cạnh tranh với phòng ngừa, hạn chế rủi ro và bảo vệ người sử dụng. Trong đó, phát triển đi đôi với quản lý, lấy con người làm trung tâm, tôn trọng quyền riêng tư và áp dụng cách quản lý theo mức độ rủi ro.    

Phó Chủ tịch Quốc hội Lê Minh Hoan điều hành phiên Quốc hội thảo luận về dự án Luật Trí tuệ nhân tạo

Tiếp tục chương trình Kỳ họp thứ 10, chiều 27/11, dưới sự điều hành của Phó Chủ tịch Quốc hội Lê Minh Hoan, Quốc hội thảo luận ở hội trường về dự án Luật Trí tuệ nhân tạo. Một trong những nội dung nhận được sự quan tâm của nhiều ĐBQH tại phiên thảo luận là các giải pháp quản lý cấp độ rủi ro do AI gây ra đời sống, kinh tế-xã hội...

Đề cập phân loại rủi ro và danh mục hệ thống trí tuệ nhân tạo (AI) rủi ro cao (Điều 11 và Điều 12), đại biểu Thạch Phước Bình – Đoàn ĐBQH tỉnh Vĩnh Long nhấn mạnh, phân loại rủi ro là “linh hồn” của Luật AI. Tuy nhiên, hiện dự thảo vẫn chưa đưa ra tiêu chí phân loại mang tính định lượng. Danh mục hệ thống AI “rủi ro cao” đang được quy định tương đối rộng, bao gồm cả các lĩnh vực mà thực tiễn chưa xuất hiện rủi ro đáng kể. Điều này có thể tạo ra “gánh nặng tuân thủ” không cần thiết, đặc biệt với doanh nghiệp nhỏ và vừa.

Với lý lẽ nêu trên, đại biểu Thạch Phước Bình đề nghị: Một là, rà soát lại danh mục rủi ro cao, theo hướng chỉ tập trung vào những hệ thống có thể gây tác động lớn tới quyền con người, quyền riêng tư, sức khỏe, tài chính và an toàn xã hội. Hai là, thiết lập cơ chế cập nhật linh hoạt danh mục này trên cơ sở tham vấn chuyên gia, hiệp hội ngành hàng và tổ chức nghiên cứu. Ba là, gắn tiêu chí rủi ro vào các đặc tính kỹ thuật của mô hình như tính tự động, khả năng tự học, tính không dự đoán được và quy mô sử dụng.

Đối với dữ liệu, quyền riêng tư và bảo vệ người dùng (từ Điều 14 đến Điều 18), đại biểu Thạch Phước Bình cho rằng, dữ liệu là “nhiên liệu” của AI, nhưng các quy định hiện hành chưa đồng bộ với dự thảo Luật Bảo vệ dữ liệu cá nhân. Cần làm rõ mức độ xử lý cho phép đối với dữ liệu nhạy cảm, dữ liệu trẻ em và dữ liệu sinh trắc học. Đồng thời, cần bổ sung nghĩa vụ đánh giá tác động dữ liệu khi triển khai AI rủi ro cao. Đối với người dùng AI, dự thảo Luật đã đề cập một số quyền cơ bản, nhưng vẫn thiếu các quyền quan trọng theo chuẩn quốc tế như quyền từ chối quyết định hoàn toàn tự động hoặc quyền yêu cầu giải thích. Đây là những quyền rất quan trọng để giúp người dân không bị tổn thương bởi các quyết định dựa trên AI trong lĩnh vực tài chính, bảo hiểm, y tế hoặc tuyển dụng lao động.

Nêu quan điểm về phân loại rủi ro do AI gây ra, đại biểu Nguyễn Tâm Hùng – Đoàn ĐBQH TP Hồ Chí Minh tán thành quy định nhà cung cấp phải tự phân loại mức rủi ro trước khi lưu hành, song đề nghị Ban soạn thảo xem xét bổ sung rõ cơ chế xác nhận tự động trên Cổng thông tin điện tử một cửa trong thời hạn tối đa 15 ngày đối với hồ sơ đầy đủ nhằm tránh kéo dài thủ tục và tạo môi trường cạnh tranh lành mạnh. Việc bổ sung cơ chế này bảo đảm vừa kiểm soát rủi ro, vừa không làm cản trở tiến độ thương mại hóa sản phẩm AI của doanh nghiệp Việt Nam trong bối cảnh cạnh tranh toàn cầu rất lớn.

Về quản lý hệ thống AI có rủi ro cao được quy định tại Điều 13, đại biểu Nguyễn Tâm Hùng đánh giá cao yêu cầu duy trì biện pháp quản lý rủi ro và nhật ký hoạt động nhưng đề nghị xem xét bổ sung yêu cầu đánh giá tác động đạo đức xã hội ngay từ giai đoạn thiết kế hệ thống dưới dạng báo cáo bắt buộc nộp cùng hồ sơ lưu hành. Đây là yêu cầu phù hợp với chuẩn quốc tế, giúp dự báo rủi ro từ sớm, bảo vệ các nhóm dễ bị tổn thương và nâng cao trách nhiệm giải trình.

Về mô hình AI đa dụng có rủi ro hệ thống tại Điều 16, đại biểu Nguyễn Tâm Hùng đề nghị Ban soạn thảo xem xét bổ sung nghĩa vụ kiểm soát khả năng tự sinh của mô hình khi cho phép mã nguồn chỉ thị hoặc nội dung có thể bị lợi dụng cho mục đích tấn công mạng. Bởi vì, qua nghiên cứu một số tài liệu thực tiễn cho thấy, mô hình AI đa dụng hiện nay không chỉ tạo văn bản hay hình ảnh mà có thể tự sinh ra mã nguồn công cụ tấn công, chỉ thị thực thi quy trình tấn công bằng phương thức gian lận tài chính hoặc công cụ vượt qua hệ thống bảo mật.

Mặc dù nhà phát triển không chủ động cài đặt AI để làm điều đó, nhưng mô hình tự suy diễn từ dữ liệu và kiến thức tích lũy dẫn đến khả năng tạo ra vũ khí số ngoài ý muốn. Chính vì vậy, cần phải có cơ chế cảnh báo, chặn giới hạn đầu ra là cần thiết để bảo đảm an ninh mạng và an ninh quốc gia cũng như trật tự an toàn xã hội trong cái tình hình mới.

Phát triển đi đôi với quản lý, lấy con người làm trung tâm

Liên quan đến những nội dung trên, đại biểu Nguyễn Thị Tuyết Nga – Đoàn ĐBQH tỉnh Quảng Trị khẳng định, cùng với những cơ hội to lớn, AI cũng đặt ra nhiều thách thức mới về an toàn, bảo mật dữ liệu, đạo đức công nghệ và trách nhiệm pháp lý. Vì vậy, việc ban hành Luật trí tuệ nhân tạo là cần thiết. Đây không chỉ là biện pháp quản lý rủi ro, mà còn là đòn bẩy quan trọng nhằm thúc đẩy đổi mới sáng tạo, bảo vệ quyền lợi của người dân và nâng cao năng lực cạnh tranh của quốc gia trong thời đại công nghệ số.

Tuy nhiên, việc xây dựng Luật AI đối diện với nhiều thách thức: Một là, tính đa dạng và tốc độ phát triển công nghệ. AI bao gồm nhiều loại khác nhau. Mỗi loại có rủi ro khác nhau, nên luật cần đủ linh hoạt để áp dụng nhưng không cản trở đổi mới.

Hai là, Luật cần phải cân bằng giữa đổi mới và quản lý. Nếu quy định quá chặt sẽ hạn chế nghiên cứu, phát triển. Nếu quá lỏng, lại không bảo vệ được người dân và xã hội trước các rủi ro.

Ba là, sự đa chiều về pháp lý, đạo đức và xã hội. AI tác động đến quyền riêng tư, công bằng, việc làm, an ninh và đạo đức. Do đó, Luật AI phải đảm bảo hài hòa giữa quyền cá nhân, lợi ích cộng đồng và phát triển kinh tế.

Bốn là, khó dự đoán rủi ro và hậu quả. Mô hình AI mới có thể tạo ra những tác động không lường trước. Việc luật “quá sớm” hoặc “quá cứng” có thể không hiệu quả.)

Năm là, thiếu sự đồng bộ quốc tế. AI là công nghệ toàn cầu, nếu luật quốc gia khác biệt lớn với tiêu chuẩn quốc tế, sẽ khó hợp tác, kiểm soát rủi ro và cạnh tranh trên thị trường toàn cầu.  

Với những thách thức nêu trên, đại biểu Nguyễn Thị Tuyết Nga nhất trí cao với quan điểm và nguyên tắc xây dựng Luật AI phải bảo đảm phát triển đi đôi với quản lý, lấy con người làm trung tâm, tôn trọng quyền riêng tư và áp dụng cách quản lý theo mức độ rủi ro. Luật cũng phải linh hoạt và hài hòa với chuẩn mực quốc tế để không cản trở đổi mới sáng tạo. Việc ban hành luật khung là tối ưu, giúp đặt ra các nguyên tắc nền tảng, điều chỉnh chi tiết bằng văn bản dưới luật để khi công nghệ thay đổi nhanh, bảo đảm quản lý hiệu quả mà không làm chậm sự phát triển của AI.  

Phát triển AI bền vững đòi hỏi một hệ sinh thái trong đó Nhà nước tạo ra luật chơi, trong đó thị trường là người chơi và xã hội là người giám sát. Xác định đúng vai trò mỗi bên sẽ đảm bảo AI phát triển thành công và mang lại lợi ích cho mọi người.

Trên cơ sở như vậy, đại biểu Phạm Trọng Nghĩa – Đoàn ĐBQH tỉnh Lạng Sơn nhấn mạnh, các quy định pháp lý về AI phải cân bằng giữa một bên là thúc đẩy đổi mới sáng tạo, thu hút đầu tư và tăng tính cạnh tranh với một bên là phòng ngừa, hạn chế rủi ro và bảo vệ người sử dụng. Đây cũng là 02 trụ cột của Dự thảo Luật AI. Nghị quyết số 57 của Bộ Chính trị yêu cầu đưa thể chế thành một lợi thế cạnh tranh trong phát triển khoa học, công nghệ, đổi mới sáng tạo và chuyển đổi số.

Ngày 19/02/2025, Quốc hội ban hành Nghị quyết số 193/2025/QH15 về thí điểm một số cơ chế, chính sách đặc biệt để tạo đột phá phát triển khoa học, công nghệ, đổi mới sáng tạo và chuyển đổi số quốc gia. Báo cáo số 853/BC-CP ngày 02/10/2025 của Chính phủ gửi đến Kỳ họp này cho thấy (tại trang 15): Nhiều cơ chế, chính sách thí điểm chưa có tiền lệ cho nên quá trình áp dụng khó tránh khỏi sự lúng túng, cần có thời gian để điều chỉnh phù hợp và tiếp tục hoàn thiện. Vì vậy, đại biểu Phạm Trọng Nghĩa đề nghị Cơ quan soạn thảo tiếp tục rà soát làm rõ tính vượt trội trong các quy định của dự thảo Luật, nhất là so sánh với các quốc gia khác để sửa đổi, bổ sung bảo đảm tính khả thi và góp phần nâng cao năng lực cạnh tranh quốc gia. Trong đó, đề nghị bổ sung quy định ưu đãi, ưu tiên sử dụng AI Việt nhất là trong các dự án sử dụng nguồn lực công với quan điểm Nhà nước là khách hàng tiên phong của AI Việt.

Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng giải trình ý kiến của các ĐBQH tại phiên họp

Giải trình những ý kiến của các ĐBQH liên quan đến quản lý rủi ro từ AI, Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng nhấn mạnh, việc sớm có Luật AI là thực sự cần thiết để chúng ta phát triển AI một cách chủ động và có hệ thống để thu hút đầu tư, để phát triển đất nước nhanh và bền vững.

Đề cập về quản lý rủi ro do AI tạo ra, Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng cho biết, Nhà nước yêu cầu đánh giá rủi ro, kiểm thử độc lập và trách nhiệm giải trình với đầu ra nơi rủi ro trở thành hiện thực. Nhà nước quản lý bằng tiêu chuẩn an toàn, cơ chế hậu kiểm và các chế tài khi phát sinh hậu quả. Như vậy, quản trị AI không phải là phát minh ra một triết lý hoàn toàn mới mà đã kế thừa kinh nghiệm quản lý trí tuệ của con người áp dụng cho một công cụ mạnh hơn và nhanh hơn.

Về phát triển AI lấy con người làm trung tâm, Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng khẳng định, nguyên tắc tối cao là AI phải phục vụ con người và không thay thế vai trò quyết định của con người.  Yêu cầu minh bạch là người dân phải biết khi nào họ tương tác với AI, quy định trách nhiệm pháp lý khi AI gây thiệt hại. Cơ quan soạn thảo đã bổ sung quy định trách nhiệm rõ ràng của các bên liên quan như nhà phát triển, nhà cung cấp, nhà triển khai và người sử dụng.

Về quản lý AI dựa trên mức độ rủi ro, Cơ quan soạn thảo đã nghiên cứu, tiếp thu ý kiến của các ĐBQH theo hướng có ba mức độ rủi ro: thấp, trung bình và cao; đồng thời bổ sung một điều về các hành vi bị cấm. Về tiền kiểm AI rủi ro cao, trong dự án Luật đã đưa ra hình thức, nghĩa vụ tối thiểu trước khi triển khai cộng với hậu kiểm.

Phó Chủ tịch Quốc hội Lê Minh Hoan phát biểu kết luận phiên họp

Phát biểu kết luận phiên họp, Phó Chủ tịch Quốc hội Lê Minh Hoan đề nghị Chính phủ khẩn trương, nghiêm túc nghiên cứu, tiếp thu đầy đủ và giải trình thấu đáo ý kiến của các ĐBQH, cơ quan chủ trì thẩm tra, trong đó tập trung vào một số nội dung như: Bảo đảm thể chế hóa đầy đủ các chủ trương của Đảng, chính sách của Nhà nước, nhất là Nghị quyết 52 của Bộ Chính trị về một số chủ trương, chính sách, chủ động tham gia cuộc cách mạng công nghiệp lần thứ tư; Nghị quyết 57 về đột phá phát triển khoa học công nghệ, đổi mới sáng tạo và chuyển đổi số quốc gia; Nghị quyết 59 về hội nhập quốc tế trong tình hình mới; Nghị quyết 66 về đổi mới công tác xây dựng và thi hành pháp luật và các nghị quyết có liên quan khác. Bên cạnh đó, rà soát kỹ lưỡng, bảo đảm tính khả thi các quy định của dự án Luật, đảm bảo tính đồng bộ, thống nhất của dự án Luật với hệ thống pháp luật và các dự án luật khác có liên quan đang trình Quốc hội xem xét, thông qua.

Ngoài ra, Phó Chủ tịch Quốc hội Lê Minh Hoan cũng đề nghị Chính phủ, cơ quan chủ trì soạn thảo tiếp tục với tinh thần quyết liệt, khẩn trương phối hợp chặt chẽ với Ủy ban Khoa học, Công nghệ và Môi trường và các cơ quan liên quan nghiên cứu, giải trình thấu đáo các các ý kiến đóng góp của các ĐBQH tại hội trường, những ý kiến phát biểu tại Tổ và các ý kiến góp ý khác của các cơ quan, tổ chức để hoàn thiện dự án luật, bảo đảm chất lượng, tiến độ trình Quốc hội thông qua tại kỳ họp này.

Nguồn: Cổng TTĐT Quốc hội

Bình luận

Gửi bình luận
Bình luận

    Tin khác