Công nghệ nhận diện khuôn mặt hay câu hỏi đạo đức trong thời đại dữ liệu

Công nghệ nhận diện gương mặt (FRT) cần được phát triển và sử dụng sao cho tôn trọng quyền con người và đảm bảo tính minh bạch, trách nhiệm, cân nhắc kỹ lưỡng các giá trị nhân văn ngay từ lúc được sáng tạo ra.

Bức tranh “Las Meninas” của Diego Velázquez.

Trên thực tế, EU đã ban hành các quy định cấm sử dụng FRT trong thời gian thực, trừ một số ngoại lệ cho mục đích thực thi pháp luật. Việc quản lý FRT đòi hỏi sự cam kết mạnh mẽ từ nhà nước để bảo vệ quyền con người và duy trì sự ổn định của xã hội. Chỉ khi có một khung pháp lý rõ ràng và hiệu quả, chúng ta mới có thể khai thác được tiềm năng của công nghệ này mà không phải trả giá bằng sự tự do và quyền con người của chính mình.

Bức tranh “Las Meninas” của Diego Velázquez, được vẽ vào năm 1656, là một trong những tác phẩm nghệ thuật nổi tiếng nhất và phức tạp nhất trong lịch sử. Bức tranh này nổi bật với việc thể hiện nhiều lớp của sự quan sát, phản chiếu và góc nhìn, tạo ra một cấu trúc thị giác phức tạp và đầy ý nghĩa. Trong “Las Meninas”, Velázquez, với vai trò là cả họa sĩ và nhân vật trong tranh, đã tạo ra một lớp quan sát thứ ba – không chỉ từ góc nhìn của người xem mà còn từ cách các nhân vật trong tranh đang quan sát lẫn nhau.

Công nghệ nhận diện khuôn mặt (FRT) hoạt động theo cách tương tự, với mục tiêu ghi lại và phân tích hình ảnh cá nhân. Các hệ thống FRT thu thập và phân tích dữ liệu từ khuôn mặt của người dùng, tương tự như cách các nhân vật trong bức tranh “Las Meninas” đang quan sát và phản chiếu lẫn nhau. Những phân tích về dữ liệu hình ảnh của hệ thống này tạo ra một lớp quan sát thứ ba tương tự như trong bức tranh “Las Meninas”. Có thể nói công nghệ FRT đóng vai trò như một “họa sĩ” hiện đại khi sử dụng các thuật toán để phân tích và nhận diện các đặc điểm khuôn mặt, tương tự như cách Velázquez sử dụng bút vẽ để tạo ra hình ảnh và tương tác với người xem. Trong bối cảnh công nghệ FRT, các bên liên quan là người sử dụng – bao gồm cả các cơ quan công quyền và các công ty công nghệ – đều có thể tham gia vào việc thu thập và phân tích dữ liệu sinh trắc học. Bên sử dụng công nghệ FRT không chỉ là người quản lý và triển khai hệ thống mà còn là người tác động đến cách mà dữ liệu được thu thập và sử dụng. Chủ thể dữ liệu, hay những cá nhân mà dữ liệu khuôn mặt của họ được ghi lại và phân tích, đóng vai trò tương tự như các nhân vật trong tranh. Họ không chỉ là đối tượng bị quan sát mà còn là một phần của quá trình quan sát, ảnh hưởng đến cách dữ liệu của họ được hiểu và quản lý. Sự tương tác giữa công nghệ, người sử dụng và chủ thể dữ liệu tạo ra một lớp quan sát phức tạp, phản ánh mối quan hệ đa chiều giữa các bên liên quan trong việc nhận diện và quản lý thông tin cá nhân. Điều đáng lưu ý là công nghệ không chỉ thay đổi cách chúng ta tương tác và sống mà còn phản ánh các giá trị, niềm tin và giả định xã hội của chúng ta. Mỗi công nghệ được phát triển và triển khai đều mang trong nó các lựa chọn và quyết định của con người, từ đó hình thành một bức tranh về những gì chúng ta coi trọng và mong muốn trong xã hội.

1. Công nghệ nhận diện khuôn mặt và những câu hỏi về đạo đức

Về mục đích sử dụng, FRT là một công nghệ dựa trên xác suất, được thiết kế để tự động nhận diện cá nhân dựa trên khuôn mặt của họ nhằm xác thực (authenticate) hoặc nhận diện (identify). Cụ thể, xác thực là quá trình xác nhận danh tính dựa trên dữ liệu đã được cung cấp. Ví dụ, một số ngân hàng đã áp dụng FRT để xác thực danh tính của khách hàng khi họ thực hiện các giao dịch trực tuyến hoặc truy cập vào tài khoản ngân hàng qua ứng dụng di động. Trong trường hợp này, xác thực là quá trình ngân hàng xác nhận rằng người thực hiện giao dịch là chính chủ tài khoản. Khách hàng cần chụp một bức ảnh khuôn mặt của mình qua ứng dụng ngân hàng, và hệ thống FRT sẽ so sánh khuôn mặt này với dữ liệu đã được lưu trữ từ trước để đảm bảo tính chính xác. Trong khi đó, nhận diện là phương pháp xác nhận một khuôn mặt chưa được ghi nhận trên hệ thống với cơ sở dữ liệu lớn (big data) để xác định danh tính của một người. Ví dụ, trong các tình huống kiểm tra danh tính tại quầy giao dịch, ngân hàng có thể sử dụng máy quét khuôn mặt để xác định danh tính của một người mà không cần sự can thiệp trực tiếp của nhân viên. Hệ thống sẽ so sánh khuôn mặt của khách hàng với một cơ sở dữ liệu lớn chứa hàng triệu bức ảnh khuôn mặt đã được lưu trữ. Nếu hệ thống nhận diện được khuôn mặt này, nó sẽ cung cấp thông tin chi tiết về cá nhân đó, giúp nhân viên ngân hàng dễ dàng thực hiện các bước tiếp theo mà không cần kiểm tra thủ công.

Một ứng dụng điển hình về việc sử dụng FRT là nền tảng cho thuê nhà trực tuyến Airbnb. Để tăng cường bảo mật và cải thiện trải nghiệm người dùng, Airbnb đã tích hợp công nghệ FRT để xác thực danh tính bằng cách so sánh ảnh khuôn mặt người dùng với tài liệu nhận diện cá nhân và cơ sở dữ liệu khi đăng ký tài khoản hoặc thực hiện giao dịch quan trọng. Công nghệ FRT giúp tăng cường bảo mật bằng cách ngăn chặn việc giả mạo danh tính và giảm thiểu nguy cơ lừa đảo, đồng thời cung cấp một phương pháp xác thực nhanh chóng và tiện lợi, không cần nhập mật khẩu phức tạp. Nhờ vào việc sử dụng FRT, Airbnb có thể bảo vệ thông tin của người dùng và mang lại trải nghiệm an toàn, tiện lợi hơn.

Với sự phát triển của AI, công nghệ này có thể sử dụng hình ảnh được lưu trữ trong hệ thống và hoạt động độc lập mà không cần can thiệp của con người. Về phương pháp thu thập và xử lý dữ liệu đầu vào, công nghệ này cho phép so sánh các hình ảnh khuôn mặt số (digital face), được thu thập qua camera giám sát (CCTV) hoặc ảnh chụp, để xác định liệu các hình ảnh được đưa vào so sánh có phải là của cùng một người hay không. Việc so sánh các video thu được từ CCTV với các hình ảnh trong cơ sở dữ liệu được gọi là công nghệ nhận diện khuôn mặt trực tiếp (LFR). Tại Singapore, sân bay Changi đã sử dụng công nghệ LFR để tăng cường an ninh và cải thiện trải nghiệm của hành khách. Khi hành khách tiến hành kiểm tra an ninh, hệ thống có thể nhanh chóng so sánh khuôn mặt của họ với ảnh trong hộ chiếu hoặc vé máy bay để xác minh danh tính. Khi các video được sử dụng với dữ liệu thu thập trong quá khứ, phương pháp này được gọi là nhận diện khuôn mặt hồi cứu (RFR). Ví dụ, nếu một hành khách bị nghi ngờ và có yêu cầu kiểm tra an ninh, hệ thống có thể tra cứu các video từ các camera trong khu vực để xác định xem họ có phải là người cần tìm không. Tương tự, trong các vụ điều tra tội phạm, các cơ quan thực thi pháp luật tại San Francisco đã sử dụng công nghệ RFR để truy xuất dữ liệu video từ camera giám sát trong các khu vực công cộng.  Ngoài ra, các ứng dụng di động cho phép chụp ảnh và kiểm tra cá nhân để nhận diện họ thuộc loại nhận diện khuôn mặt do người điều khiển khởi xướng (OIFR). Hành khách có thể chụp ảnh khuôn mặt của họ khi đăng ký trực tuyến để kiểm tra nhanh tại các điểm kiểm tra tự động trong sân bay, giúp rút ngắn thời gian chờ đợi và tăng cường sự thuận tiện trong quy trình đi lại.

Dù FRT mang lại nhiều lợi ích, công nghệ này vẫn gây nhiều lo ngại về độ chính xác và quyền riêng tư. FRT không chỉ dừng lại ở việc nhận diện mà còn có thể phân tích cảm xúc, tính cách và thậm chí là trạng thái tâm lý của con người. Điều này đặt ra những câu hỏi quan trọng về quyền riêng tư và tính minh bạch trong việc sử dụng dữ liệu sinh trắc học, điển hình như vụ việc liên quan đến Clearview AI, một công ty công nghệ đã thu thập hàng tỷ hình ảnh từ internet để xây dựng cơ sở dữ liệu nhận diện khuôn mặt. Clearview AI đã phát triển một hệ thống nhận diện khuôn mặt có khả năng không chỉ nhận diện danh tính mà còn phân tích các đặc điểm cảm xúc và hành vi dựa trên hình ảnh khuôn mặt. Hệ thống này gây ra sự lo ngại lớn về quyền riêng tư khi công ty sử dụng hình ảnh từ các mạng xã hội và các trang web công cộng mà không cần sự đồng ý của các cá nhân. Các báo cáo cho thấy, Clearview AI đã hợp tác với nhiều cơ quan thực thi pháp luật và các tổ chức tư nhân, cho phép họ truy cập vào cơ sở dữ liệu khổng lồ này để tìm kiếm và nhận diện cá nhân trong các cuộc điều tra. Vấn đề nổi bật ở đây là các hình ảnh sinh trắc học không thể thay đổi hay xóa bỏ, khiến cho việc lạm dụng hoặc rò rỉ dữ liệu trở thành một mối đe dọa nghiêm trọng.


Không chỉ có ClearviewAI, Công ty Biometric Facial Recognition của Trung Quốc đã bị chỉ trích vì sử dụng công nghệ FRT để phân tích không chỉ các đặc điểm nhận diện mà còn cảm xúc và tâm trạng của người dân. Các tổ chức nhân quyền đã cảnh báo rằng việc phân tích cảm xúc có thể dẫn đến việc kiểm soát và giám sát người dân một cách tinh vi và không minh bạch. Ngoài ra, ứng dụng di động Reface cũng đã gặp phải chỉ trích vì tính năng thay đổi khuôn mặt trong video của người dùng mà không được sự đồng ý rõ ràng. Mặc dù Reface cung cấp tính năng giải trí, việc thu thập và lưu trữ hình ảnh khuôn mặt người dùng đã đặt ra mối lo ngại về quyền riêng tư và sự an toàn của dữ liệu sinh trắc học.

FRT không chỉ dừng lại ở việc nhận diện mà còn có thể phân tích cảm xúc, tính cách và thậm chí là trạng thái tâm lý của con người. Điều này đặt ra những câu hỏi quan trọng về quyền riêng tư và tính minh bạch trong việc sử dụng dữ liệu sinh trắc học

Ngoài ra, việc thiết kế và triển khai công nghệ này đã dẫn đến những lo ngại về sự thiên kiến và bất cân xứng cấu trúc quyền lực giữa các bên liên quan. Tại các nước phương Tây, phần lớn nhân lực trong ngành công nghệ thường là nam giới người da trắng, điều này vô tình ảnh hưởng đến sự phát triển của các công nghệ như FRT. Nếu FRT chủ yếu được đào tạo dựa trên khuôn mặt của nam giới da trắng, thì khi áp dụng công nghệ này cho dữ liệu liên quan đến khuôn mặt của người không phải da trắng hoặc nữ giới, sẽ xảy ra những vấn đề thiên kiến dẫn đến những quyết định dựa trên FRT thiếu chính xác. Tiêu biểu nhất là công trình nghiên cứu Timnit Gebru cùng với các đồng nghiệp “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification” vào năm 2018 đã chỉ ra rằng các mô hình AI, đặc biệt là những mô hình được đào tạo trên các tập dữ liệu không đa dạng, thường có sự thiên lệch nghiêm trọng. Ví dụ, các hệ thống nhận diện khuôn mặt có thể hoạt động kém chính xác hơn với các nhóm người không phải da trắng, phụ nữ, và các nhóm dân tộc thiểu số. Công trình này nhấn mạnh rằng sự thiếu đa dạng trong dữ liệu huấn luyện có thể dẫn đến kết quả phân biệt và ảnh hưởng tiêu cực đến quyền lợi của những nhóm này. Ngay cả khi dữ liệu đầu vào được điều chỉnh, các hệ thống vẫn có thể bị thiên kiến do cố gắng đáp ứng nhu cầu của người mua và người sử dụng trong suốt quá trình huấn luyện (training), từ đó có thể làm sai lệch hệ thống, đặc biệt khi các thuật toán được áp dụng và phát triển theo thời gian. Vì thế, FRT làm tăng thêm sự phức tạp liên quan đến vấn đề trách nhiệm và quyền lực. 

2. Những mảnh ghép trong bức tranh pháp lý toàn cầu về điều chỉnh công nghệ 

Cho đến nay, công nghệ FRT đã được triển khai rộng rãi trên toàn thế giới mà không có sự hạn chế, minh bạch, đồng thuận hay kiểm tra một cách thống nhất. Đáng lưu ý, việc sử dụng FRT bởi các cơ quan thực thi pháp luật là một ngoại lệ, nhưng chỉ được áp dụng trong những trường hợp rõ ràng và phải tuân thủ nguyên tắc cân xứng và cần thiết. Tiêu biểu, Liên minh xhâu Âu (EU) đã xây dựng một khung pháp lý chặt chẽ và toàn diện để bảo vệ quyền riêng tư và dữ liệu cá nhân, nổi bật là Quy định về Bảo vệ Dữ liệu chung (GDPR). Vào năm 2021, Nghị viện châu Âu cũng ban hành một nghị quyết về trí tuệ nhân tạo, đặc biệt là về FRT, nhấn mạnh: “Các hình thức sử dụng công nghệ nhận diện khuôn mặt có ảnh hưởng khác nhau đối với việc bảo vệ quyền cơ bản. Việc triển khai FRT bởi các cơ quan thực thi pháp luật nên được giới hạn cho những mục đích rõ ràng, tuân thủ đầy đủ các nguyên tắc cân xứng và cần thiết, cũng như các quy định pháp luật hiện hành. Việc sử dụng FRT cần phải tuân thủ các yêu cầu về tối thiểu hóa dữ liệu, chính xác dữ liệu, hạn chế lưu trữ, bảo mật dữ liệu và trách nhiệm.” Tuyên bố này đóng vai trò rất quan trọng để bảo vệ nguyên tắc của quyền riêng tư, đảm bảo độ chính xác của dữ liệu và các yêu cầu về tối thiểu hóa sử dụng dữ liệu cá nhân. Dù công nghệ có thể đạt được độ chính xác cao và đáp ứng yêu cầu về trách nhiệm, tính hợp pháp, công bằng và minh bạch, không thể loại trừ nguy cơ rằng dữ liệu đầu vào của hệ thống có thể là giả và khả năng hệ thống bị đánh lừa, dẫn đến các quyết định sai lầm.

Nếu FRT chủ yếu được đào tạo dựa trên khuôn mặt của nam giới da trắng, thì khi áp dụng công nghệ này cho dữ liệu liên quan đến khuôn mặt của người không phải da trắng hoặc nữ giới, sẽ xảy ra những vấn đề thiên kiến dẫn đến những quyết định dựa trên FRT thiếu chính xác.

Tại mỗi quốc gia trong EU và Vương quốc Anh đều có cơ quan quản lý bảo vệ dữ liệu, với trách nhiệm giám sát, tiếp nhận khiếu nại và điều tra. Các cơ quan này có nhiệm vụ giám sát và đảm bảo việc tuân thủ các quy định bảo vệ dữ liệu và quyền riêng tư trên toàn khu vực, cũng như có động thái can thiện và thậm chí khởi xướng điều tra ngay cả khi không có khiếu nại từ công dân. Đáng lưu ý là các cơ quan quản lý này có ngân sách lớn và đội ngũ pháp lý mạnh mẽ, giúp đảm bảo trách nhiệm của các nhà cung cấp dịch vụ dựa trên công nghệ FRT.

Khác với EU, quy định về quyền riêng tư tại Mỹ lại khá phân mảnh và không đồng bộ dù đây là một trong những quốc gia đầu tiên thông qua các quy định về quyền tự do thông tin vào năm 1966,  trong khi công nghệ FRT vẫn được sử dụng phổ biến bởi các cơ quan thực thi pháp luật. Một nghiên cứu cho thấy điều này là  ảnh hưởng đến hơn 117 triệu người dân ở độ tuổi trưởng thành, chiếm hơn một phần ba tổng dân số của quốc gia. Mặc dù việc triển khai FRT rất rộng rãi, người dân thường có rất ít khả năng yêu cầu các nhà điều hành FRT chịu trách nhiệm nếu công nghệ bị lạm dụng. Mặc dù các bang tại Mỹ có ban hành một số luật bảo vệ quyền riêng tư điều chỉnh theo từng ngành, quốc gia này lại không có luật bảo vệ dữ liệu tổng quát tương tự như GDPR. Các luật này được thực thi bởi Ủy ban Thương mại Liên bang, nhưng không thể so sánh với các cơ quan bảo vệ dữ liệu ở châu Âu. Do đó, việc triển khai FRT mà không có cơ quan quy định để điều tra là một vấn đề đáng lo ngại, vì nó phụ thuộc vào các hành động bảo vệ bằng pháp lý của cá nhân để lên án các hành vi sai trái. Thêm vào đó, sự khác biệt về chính sách và quy định giữa các bang cũng như thiếu sự nhấn mạnh nguyên tắc minh bạch một cách thống nhất cũng là những vấn đề đáng quan tâm tại nước này.

Sân bay Changi, Singapore đã sử dụng công nghệ LFR để tăng cường an ninh và cải thiện trải nghiệm của hành khách. Ảnh: The Straits Times.

Dù vậy, cách tiếp cận của EU, với quy định nghiêm ngặt, bảo vệ quyền riêng tư và bảo mật dữ liệu tốt hơn nhưng có thể làm giảm khả năng đổi mới và tăng chi phí tuân thủ. Ngược lại, cách tiếp cận của Mỹ, với sự linh hoạt và ít quy định hơn, khuyến khích đổi mới và đầu tư nhưng có thể dẫn đến việc bảo vệ quyền riêng tư và dữ liệu kém hơn. Sự cân bằng giữa bảo vệ quyền riêng tư và thúc đẩy đổi mới công nghệ là một thách thức quan trọng trong việc thiết lập các quy định về dữ liệu. Từ đó, có thể thấy rằng việc cân bằng giữa bảo vệ quyền riêng tư và khuyến khích đổi mới công nghệ không chỉ là thách thức về quy định nhằm kiểm soát mà còn liên quan mật thiết đến việc xây dựng các hệ thống công nghệ tôn trọng và nâng cao giá trị của con người trong môi trường số. Bên cạnh các băn khoăn về đánh đổi giữa phát triển kinh tế bằng công nghệ và quyền riêng tư, công nghệ, đặc biệt là AI và tự động hóa, nhiều nhà hoạch định chính sách và làm luật cũng tâm tư rằng liệu công nghệ có thực sự phục vụ con người, hay nó đang định hình lại cuộc sống và cách thức làm việc của con người theo những cách không mong muốn? Chính sách và pháp luật cần phải phản ứng trước các thay đổi thời cuộc này dựa trên các nền tảng nào?

3. Lý thuyết Nhân văn số: Công nghệ là tấm gương phản chiếu hình ảnh của con người

Khả năng tự động hóa các hoạt động nhận thức của con người là một khía cạnh cách mạng của khoa học máy tính. Đối với nhiều nhiệm vụ, máy móc đã vượt qua những gì con người có thể đạt được về tốc độ, độ chính xác và thậm chí là suy luận phân tích. Lý thuyết Nhân văn số (Digital Humanism) là một quan điểm triết học và xã hội nhằm giải quyết những thách thức mà công nghệ số đặt ra cho con người và xã hội. Khái niệm này nhấn mạnh rằng trong bối cảnh công nghệ đang phát triển nhanh chóng, con người cần đứng ở trung tâm của quá trình phát triển và ứng dụng công nghệ. Công nghệ phải phục vụ các giá trị và nhu cầu của con người, thay vì làm thay đổi hoặc áp đặt các giá trị đó. Lý thuyết này không phê phán công nghệ, mà còn khuyến khích việc sử dụng công nghệ một cách có trách nhiệm để thúc đẩy tiến bộ xã hội và bảo vệ các quyền cơ bản của con người.

Cụ thể, Lý thuyết Nhân văn số đề xuất các công nghệ số, như trí tuệ nhân tạo (AI), dữ liệu lớn (Big Data), và mạng xã hội, nên được phát triển và điều chỉnh sao cho không chỉ tập trung vào hiệu quả kinh tế, mà còn phải xem xét đến tác động xã hội, đạo đức và nhân văn. Về mặt bản chất, công nghệ số không xuất hiện từ hư không. Chúng được định hình bởi các lựa chọn mặc thị lẫn minh định của người sáng tạo dựa trên tập hợp các giá trị, chuẩn mực, lợi ích kinh tế và giả định về cách thế giới xung quanh con người vận hành. Các lựa chọn này vẫn còn đang được ẩn giấu trong các chương trình phần mềm triển khai thuật toán mà người thường không thể nhìn thấy. Điều này thúc đẩy việc thiết kế các hệ thống công nghệ minh bạch, có trách nhiệm, và thúc đẩy sự tham gia dân chủ của mọi người trong việc định hình tương lai số. Nói cách khác, công nghệ cũng chính là tấm gương phản chiếu hình ảnh của chính chúng ta. Vì thế, lý thuyết này cũng kêu gọi sự hợp tác liên ngành giữa các lĩnh vực như công nghệ, khoa học xã hội, và nhân văn để phát triển các giải pháp công nghệ phù hợp với các giá trị nhân bản. 

Lý thuyết Nhân văn số (Digital Humanism) là một quan điểm triết học và xã hội nhằm giải quyết những thách thức mà công nghệ số đặt ra cho con người và xã hội. Khái niệm này nhấn mạnh rằng trong bối cảnh công nghệ đang phát triển nhanh chóng, con người cần đứng ở trung tâm của quá trình phát triển và ứng dụng công nghệ.

Dù không đề cập trực tiếp, bản thân nhà nghiên cứu Timnit Gebru đã từng nêu rõ quan điểm rằng việc chỉ tập trung vào khả năng chính xác của các hệ thống AI mà bỏ qua các vấn đề về mục đích và sự cần thiết của công nghệ là không đủ. Các công ty công nghệ cần phải tự đặt ra câu hỏi về giá trị và mục đích của công nghệ ngay từ đầu, thay vì chỉ chú trọng vào lợi ích kinh tế mà nó mang lại. Điều này phản ánh sự quan tâm sâu sắc đến việc đảm bảo rằng công nghệ được phát triển và triển khai không chỉ có hiệu quả mà còn công bằng và phù hợp với các tiêu chuẩn đạo đức và nhân văn.

Theo lý thuyết này, FRT cần được phát triển và sử dụng sao cho tôn trọng quyền con người và đảm bảo tính minh bạch, trách nhiệm, cân nhắc kỹ lưỡng các giá trị nhân văn ngay từ lúc được sáng tạo ra. Trên thực tế, EU đã ban hành các quy định cấm sử dụng FRT trong thời gian thực, trừ một số ngoại lệ cho mục đích thực thi pháp luật. Từ đó, có thể thấy nhà nước cần phải nhận thức rõ trách nhiệm của mình trong việc bảo vệ các quyền con người trong thời đại công nghệ. Điều này không chỉ bao gồm việc ban hành các quy định pháp lý mà còn phải đảm bảo rằng các công nghệ như FRT được sử dụng một cách minh bạch và có trách nhiệm. Sự thất bại trong việc điều chỉnh và kiểm soát công nghệ này không chỉ đe dọa đến quyền con người mà còn gây ra những hậu quả nghiêm trọng đối với sự ổn định và trật tự xã hội.

Tóm lại, việc quản lý FRT đòi hỏi sự cam kết mạnh mẽ từ phía nhà nước để bảo vệ quyền con người và duy trì sự ổn định của xã hội. Chỉ khi có một khung pháp lý rõ ràng và hiệu quả, chúng ta mới có thể khai thác được tiềm năng của công nghệ này mà không phải trả giá bằng sự tự do và quyền con người của chính mình. Nhiệm vụ của nhà hoạch định chính sách và làm luật là không chỉ là hạn chế những mặt tiêu cực của công nghệ thông tin và truyền thông, mà còn khuyến khích đổi mới tập trung vào con người. Giống như “Las Meninas” phản ánh nhiều lớp ý nghĩa về quyền lực và sự quan sát, công nghệ cần được nhìn nhận trong một bức tranh toàn diện, nơi các yếu tố kỹ thuật và nhân văn được kết hợp để xây dựng một xã hội công bằng và tôn trọng quyền con người.□

—–

Tài liệu tham khảo: 

• Werthner, H., Prem, E., Lee, E. A., & Ghezzi, C. (Eds.). (2021). Perspectives on digital humanism. Springer.

• Wright, E. (2019). The future of facial recognition is not fully known: Developing privacy and security regulatory mechanisms for facial recognition in the retail sector. Fordham Intellectual Property, Media & Entertainment Law Journal, 29, 611–685.

• Van der Ploeg, I. (2005). Biometric identification technologies: Ethical implications of the informatization of the body. BITE Policy Paper 1.

• Almeida, D., Shmarko, K., & Lomas, E. (2022). The ethics of facial recognition technologies, surveillance, and accountability in an age of artificial intelligence: A comparative analysis of US, EU, and UK regulatory frameworks. AI Ethics, 2(3), 377-387. https://doi.org/10.1007/s43681-021-00077-w. Epub 2021 Jul 29. PMID: 34790955; PMCID: PMC8320316.

• Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. In Proceedings of the 2018 Conference on Fairness, Accountability, and Transparency (pp. 77-91). PMLR. https://proceedings.mlr.press/v81/buolamwini18a.html

• European Parliament (2021). Resolution on Artificial Intelligence in Criminal Law and its Use by the Police and Judicial Authorities in Criminal Matters. Doc No (2020/2016(INI)) para 25.

Tác giả

(Visited 227 times, 1 visits today)