Cần luật hoá các quy tắc về đạo đức AI

Sức mạnh của AI là lời nhắc nhở chúng ta về tầm quan trọng của các biện pháp giúp bảo vệ quyền lợi của mỗi cá nhân trong các vấn đề liên quan đến dữ liệu

Nhà nghiên cứu Phạm Thanh Long chia sẻ tại toạ đàm. Ảnh: Phương Anh

Chắc hẳn nhiều người trong số chúng ta đã rơi vào tình huống sau khi trò chuyện với người xung quanh về một đồ vật, thì không lâu sau, những quảng cáo liên quan đến món đồ đấy tràn ngập trên các ứng dụng điện thoại. Điều này khiến nhiều người không khỏi lo lắng: Liệu chúng ta có đang bị các nền tảng khác nhau theo dõi và đánh cắp dữ liệu hay không?

Đó chỉ là một trong muôn vàn tình huống có thể xảy ra trong một đời sống xã hội mà AI đang dần thâm nhập vào mọi ngõ ngách. Vào đầu năm 2023, các cuộc gọi thoại với hình ảnh, giọng nói của người thân, bạn bè bằng công nghệ Deepfake làm cho người nghe khó phân biệt thật giả đã xuất hiện ở Việt Nam… Những tình huống như thế khiến chúng ta đặt câu hỏi: làm thế nào để tự bảo vệ mình trước con dao hai lưỡi AI?

Vấn đề này đã được thảo luận trong toạ đàm “Rủi ro đạo đức với trí tuệ nhân tạo” do Tia Sáng tổ chức tại Không gian Sáng tạo Trung nguyên vào ngày 28/7 vừa qua. Trích dẫn khái niệm được các nhà khoa học EU thống nhất, nhà nghiên cứu Phạm Thanh Long (Trung tâm Phân tích Dữ liệu Insight, Đại học Tổng hợp Cork, Ireland) nhấn mạnh, AI đã xuất hiện từ lâu và không còn là một khái niệm xa lạ với chúng ta, đó “là các hệ thống máy tính có thể thực hiện các nhiệm vụ thường yêu cầu đến sự thông minh (ví dụ như ra quyết định, đạt được mục tiêu, lập kế hoạch, học tập, lý luận, v.v…)”. Điều làm nên sức mạnh của AI không chỉ là những thuật toán mà còn là ở dữ liệu. Dữ liệu này là đầu vào để trí tuệ nhân tạo (AI) đề xuất các phương án phù hợp, chị nói.

Hiện tại, các ứng dụng thu thập dữ liệu về nhu cầu, lứa tuổi, sở thích của người dùng theo cách các nền tảng mà chúng ta hay truy cập vô cùng phổ biến. Do đó, theo nhận định của chị, “dữ liệu riêng tư của người dùng lúc này đã chuyển thành hàng hoá”. Điều này không thực sự xấu bởi sẽ có lúc AI gợi ý được những mặt hàng đúng với nhu cầu của người dùng, nhưng đôi khi nó có thể đưa đến các rắc rối liên quan đến bảo mật thông tin, rò rỉ dữ liệu, lừa đảo.

Tuy nhiên có một vấn đề là các hệ thống AI có thể thực hiện các nhiệm vụ đó dựa trên những mục tiêu do con người thiết lập với chỉ một số ít hướng dẫn rõ ràng”, chị Long nói.

Với sự phát triển mạnh mẽ của AI trong vài năm trở lại đây, đặc biệt là từ khi ChatGPT ra đời, vấn đề về đạo đức AI đang trở thành trung tâm của các cuộc thảo luận trên khắp thế giới. “Đạo đức là tập hợp các phép tắc hành xử để bảo vệ các giá trị mà mỗi cá nhân, cộng đồng coi trọng”, phó giáo sư khoa học máy tính Mai Tấn Tài (Đại học Thành phố Dublin, Ireland) chia sẻ tại toạ đàm. Theo anh, chính phủ các nước cần luật hoá các quy tắc về đạo đức AI, đặc biệt là về dữ liệu riêng tư của cá nhân. Đó là căn cứ để các bên liên quan như nhà lập trình, doanh nghiệp, người dùng v.v. phát triển AI theo hướng cải thiện chất lượng cuộc sống.

Từ trái sang phải: anh Mai Tấn Tài, chị Phạm Thanh Long và anh Lê Công Thành (Giám đốc công ty công nghệ InfoRe về xử lý dữ liệu lớn và ứng dụng trí tuệ nhân tạo tại Việt Nam). Ảnh: Phương Anh

Một trong những khu vực tiên phong luật hoá các vấn đề liên quan đến bảo vệ thông tin cá nhân là Liên minh châu Âu (EU). Sau qua quá trình làm luật gần 10 năm, bắt đầu từ năm 2009, đến 25/5/2018, GDPR (General Data Protection Regulation – Quy định Bảo vệ Dữ liệu Chung) đã được chính thức áp dụng thống nhất trên toàn EU. GDPR được coi là bộ quy tắc cung cấp cho công dân EU quyền kiểm soát nhiều hơn đối với dữ liệu cá nhân.

Cụ thể, các cơ quan, tổ chức có các hoạt động xử lý dữ liệu cá nhân (kể cả tự động bằng máy) như thu thập, ghi lại, cấu trúc, tổ chức, sử dụng, lưu trữ, sửa đổi, chia sẻ, tiết lộ, xóa và hủy dữ liệu cá nhân phải chịu sự ràng buộc của Luật.

GDPR là cơ sở để EU tiếp tục xây dựng Đạo luật AI, Ngày 14/5 vừa qua, Nghị viện châu Âu đã thông qua quan điểm đàm phán về Đạo luật AI nhằm khuyến khích việc áp dụng AI đáng tin cậy và lấy con người làm trung tâm. Đạo luật này xếp hạng AI theo bốn “mức độ rủi ro”, gồm Rủi ro không thể chấp nhận được; Rủi ro cao; Rủi ro hạn chế; Rủi ro tối thiểu hoặc Không có rủi ro. Dựa trên mức độ này, những người có liên quan trong quá trình vận hành AI sẽ được trao quyền, đồng thời cũng có các nghĩa vụ nhất định.

Dù chưa có luật riêng cho AI nhưng Việt Nam cũng đã có những động thái quan trọng về bảo vệ dữ liệu cá nhân. Vào ngày 1/7, Nghị định số 13/2023/NĐ-CP của Chính phủ về bảo vệ dữ liệu cá nhân đã chính thức có hiệu lực, tạo hành lang pháp lý nhằm bảo vệ dữ liệu cá nhân tại Việt Nam, giảm thiểu tối đa những nguy cơ và hệ quả của các hành vi xâm phạm dữ liệu cá nhân.

Phó giáo sư khoa học máy tính Mai Tấn Tài cho rằng mỗi cá nhân nên biết cách bảo vệ dữ liệu của mình. Ảnh: Phương Anh

“Nỗ lực luật hoá, đưa ra các nghị định, thông tư hướng dẫn như vậy sẽ giúp chúng ta sử dụng và phát triển AI một cách hợp lý hơn”, anh Mai Tấn Tài khẳng định. Bên cạnh đó, theo anh, “bản thân mỗi cá nhân cũng nên biết cách bảo vệ dữ liệu của mình. Chúng ta nên cập nhật nhiều hơn về tình hình AI để bảo vệ bản thân trước các mối nguy”.

Đồng tình với ý kiến trên, chị Phạm Thanh Long cho rằng sức mạnh của AI là lời nhắc nhở chúng ta về tầm quan trọng của các biện pháp giúp bảo vệ quyền lợi của mình trong các vấn đề liên quan đến dữ liệu. Theo chị, GDPR và Đạo luật AI của EU sẽ là những điển hình để Việt Nam có thể tham khảo, xây dựng các quy tắc phù hợp cho mình. “5 năm trước GDPR đã ra đời tại EU, biết đâu 5 năm sau chúng ta sẽ có một Đạo luật AI của Việt Nam thì sao”, chị bày tỏ hy vọng.

Tác giả

(Visited 7 times, 1 visits today)