TiaSang
Chủ nhật, Ngày 5 tháng 7 năm 2020
Quản lý khoa học

Châu Âu sẽ quy định chặt chẽ công nghệ AI có rủi ro cao

03/03/2020 08:42 -

Ủy ban Châu Âu mới tiết lộ kế hoạch kiểm soát chặt chẽ trí tuệ nhân tạo (AI) của mình, khác với cách tiếp cận công nghệ tương đối thoáng ở Hoa Kỳ và Trung Quốc.

EC sẽ soạn thảo các luật mới - trong đó có lệnh cấm đối với hệ thống AI dạng “hộp đen” mà con người không thể giải thích – để quản lý những công nghệ có rủi ro cao như thiết bị y tế và xe tự lái. Mặc dù các quy định rộng và chặt chẽ hơn bất kỳ quy tắc nào từng có của EU, trong cuộc họp báo tuyên bố kế hoạch, Chủ tịch Ủy ban châu Âu Ursula von der Leyen cho biết mục tiêu của họ là “thúc đẩy niềm tin chứ không phải sự sợ hãi”. Kế hoạch này cũng gồm các biện pháp nâng cấp cho Chiến lược AI của EU năm 2018 và dự kiến bơm hàng tỷ euro vào R&D trong thập kỉ tới.

Tuy  vậy, đề xuất này chưa chốt hẳn. Trong 12 tuần tiếp theo, các chuyên gia, nhóm vận động hành lang và công chúng có thể cân nhắc kế hoạch trước khi việc soạn thảo luật cụ thể được nghiêm túc bắt đầu. Bất kỳ quy định cuối cùng nào cũng cần Nghị viện châu Âu và chính phủ các quốc gia phê duyệt – điều này khó có thể xảy ra ngay trong năm nay.

Châu Âu đang có cách tiếp cận AI thận trọng hơn so với Hoa Kỳ và Trung Quốc. EC hy vọng quy định này sẽ giúp châu Âu giành được lòng tin của người dùng, từ đó thúc đẩy việc áp dụng AI rộng rãi hơn. Ủy ban châu Âu muốn ràng buộc các quy tắc khi sử dụng AI có rủi ro cao trong các lĩnh vực chăm sóc sức khỏe, giao thông vận tải hoặc tư pháp hình sự. Tiêu chí xác định rủi ro sẽ bao gồm nhiều cân nhắc, chẳng hạn liệu ai đó có thể bị tổn thương (ví dụ trường hợp xe tự lái, thiết bị y tế) hoặc bị mất tiếng nói nếu phải chịu ảnh hưởng từ các quyết định của máy tính (ví dụ trường hợp AI tuyển dụng nhân sự hoặc kiểm tra công việc)

Đối với các kịch bản rủi ro cao, Ủy ban muốn ngăn chặn các AI “hộp đen” bằng cách yêu cầu phải có sự giám sát của con người. Các quy tắc cũng sẽ chi phối việc sử dụng tập dữ liệu lớn để huấn luyện hệ thống AI, đảm bảo dữ liệu từ nguồn hợp pháp, có thể truy xuất nguồn gốc và có phạm vi đủ rộng để huấn luyện. 

Luật cũng sẽ thiết lập việc ai chịu trách nhiệm cho hành động của hệ thống AI, ví dụ như công ty sử dụng hoặc công ty thiết kế ra hệ thống đó. Việc phát triển các ứng dụng rủi ro cao phải được chứng minh tuân thủ các quy tắc trước khi được triển khai tại EU. Ủy ban cũng lên kế hoạch cung cấp các chứng nhận “AI đáng tin cậy” để khuyến khích tự nguyện tuân thủ sử dụng AI có độ rủi ro thấp. Nếu một hệ thống AI được chứng nhận bị phát hiện vi phạm quy tắc có thể bị phạt tiền.

Ủy ban cho biết sẽ “khởi động một cuộc tranh luận rộng rãi tại châu Âu” về hệ thống nhận dạng khuôn mặt, một kiểu AI nhận biết được từng người trong đám đông mà không cần được đồng ý. Mặc dù các nước EU như Đức đã công bố kế hoạch triển khai hệ thống nhận diện khuôn mặt, nhưng các thành viên của ủy ban cho biết các hệ thống này thường vi phạm luật riêng tư của EU, gồm cả những quy tắc đặc biệt dành cho cảnh sát thi hành nhiệm vụ.

Theo Pauwels, một cựu quan chức của Ủy ban, ngành công nghiệp AI đến nay đã chứng tỏ rằng nó “thiếu tầm nhìn chuẩn tắc một cách tràn lan”. Nhưng Vestager nêu, đã có 350 doanh nghiệp cho biết sẵn sàng tuân thủ các nguyên tắc đạo đức do nhóm tư vấn AI đưa ra.

Kế hoạch AI mới này không chỉ bao gồm các quy định. Ủy ban sẽ đưa ra một “kế hoạch hành động” về việc tích hợp AI vào các dịch vụ công cộng như vận tải và chăm sóc sức khỏe. Nó sẽ nâng cấp cho Chiến lược phát triển AI từng công bố năm 2018 có mức đầu tư nghiên cứu trị giá 1,5 tỷ Euro. Ủy ban đang kêu gọi thêm R&D - cho các trung tâm kiểm nghiệm AI xuất sắc và một thỏa thuận đối tác công nghiệp AI mới có thể có mức đầu tư hàng tỷ Euro. Bên cạnh đó, EU cũng phác thảo một chiến lược riêng nhằm thúc đẩy chia sẻ dữ liệu để hỗ trợ một phần cho sự phát triển của AI.

Ngô Hà dịch

Nguồn: www.sciencemag.org/news/2020/02/europe-plans-strictly-regulate-high-risk-ai-technology)

Tags: