10 vấn đề đạo đức của AI (Kỳ 1)

Mặc dù trí tuệ nhân tạo (AI) ngày càng xâm nhập và chi phối hành vi con người, trong mọi mặt của đời sống, nhưng đạo đức của AI và robot vẫn là một lĩnh vực còn rất non trẻ, chưa có những vấn đề nào trong lĩnh vực này được bàn luận đủ thấu đáo và cũng chẳng có một cơ quan có thẩm quyền nào giám sát. Bài viết này nỗ lực tổng kết những vấn đề mà chúng ta đang phải đối mặt và đề xuất hướng kiểm soát cho những khía cạnh vẫn đang bỏ ngỏ.

Nguồn: Wired

1 .Quyền riêng tư và giám sát

Không gian số đang ngày càng mở rộng mạnh mẽ: Thu thập và lưu trữ dữ liệu giờ đây đều được thực hiện trên môi trường số, cuộc sống của chúng ta cũng ngày càng được số hóa, và tất cả các dữ liệu số đều được kết nối trên một và chỉ một Internet. AI giúp tăng cường cả khả năng thu thập và phân tích dữ liệu tình báo. Và dữ liệu tình báo này không chỉ đến từ việc giám sát một vài đối tượng trong “tầm ngắm” mà còn đến từ cả việc giám sát toàn dân. 

Cùng lúc đó, việc kiểm soát ai được thu thập dữ liệu nào, ai được quyền truy cập vào dữ liệu đó ngày càng trở nên khó khăn trong thế giới số. Và rất nhiều công nghệ AI mới còn khuếch đại vấn đề vốn đã đáng lo ngại này thêm. Chẳng hạn như, công nghệ nhận dạng khuôn mặt trong ảnh và video cho phép xác nhận, thu thập thông tin cá nhân và tìm kiếm từng cá nhân. Kết quả là, “trong đại dương dữ liệu rộng lớn này thể nào cũng đủ các mảnh ghép tạo nên bức chân dung hoàn thiện một cách đáng sợ về cá nhân mỗi chúng ta”. 

Dấu vết dữ liệu mà chúng ta để lại chính là cách mà chúng ta trả cho những dịch vụ “miễn phí” – nhưng dĩ nhiên không ai nói cho chúng ta biết về quá trình thu thập dữ liệu cũng như giá trị của thứ vật liệu thô mới mẻ này, và chúng ta bị thao túng để tiếp tục để lại nhiều dữ liệu đó hơn nữa. Đối với “5 gã khổng lồ” – Amazon, Google/Alphabet, Microsoft, Apple, Facebook, phần thu thập dữ liệu chính trong việc kinh doanh của họ dựa trên sự lừa dối và lợi dụng sự yếu đuối, kéo dài mãi sự chây lì, tạo ra sự nghiện ngập và thao túng con người. Mục tiêu tối thượng của mạng xã hội và hầu hết Internet trong “nền kinh tế giám sát” này là thu hút, duy trì và định hướng sự chú ý – để rồi có nguồn cung dữ liệu – “Giám sát là mô hình kinh doanh của Internet”. Có cố đến mấy để thoát ra, có thực hành “chủ nghĩa tối giản” đến đâu thì dường như những công dân của thời đại ngày nay đều mất đi một mức độ tự chủ cần thiết để có thể vừa dứt áo khỏi internet nhưng vẫn có thể tiếp tục cuộc sống và công việc của họ một cách hoàn toàn bình thường. Chúng ta đã mất quyền sở hữu, mất quyền kiểm soát dữ liệu của chính mình. 

Dường như những công dân của thời đại ngày nay đều mất đi một mức độ tự chủ cần thiết để có thể vừa dứt áo khỏi internet nhưng vẫn có thể tiếp tục cuộc sống và công việc của họ một cách hoàn toàn bình thường. Chúng ta đã mất quyền sở hữu, mất quyền kiểm soát dữ liệu của chính mình. 

Những hệ thống AI thu thập dữ liệu cá nhân của chúng ta thường tiết lộ những thông tin mà chúng ta không muốn ai biết, hoặc ta còn không nghĩ là nó tồn tại. Thậm chí quan sát hành vi trên mạng cũng đủ để tiết lộ về trạng thái tâm thần của một người. Trong những dòng cuối cùng của cuốn Homo Deus, Harari đã từng hỏi về hệ quả của AI: 

“Điều gì sẽ xảy ra với xã hội, với chính trị và cuộc sống hằng ngày khi những thuật toán vô ý thức nhưng lại vô cùng thông minh hiểu chúng ta hơn chúng ta hiểu chính mình?”

Thực ra, hiện nay đã có những kĩ thuật bảo toàn quyền riêng tư và che giấu danh tính các cá nhân và các nhóm người và chúng đã trở thành một tiêu chuẩn trong khoa học dữ liệu. Nó bao gồm kĩ thuật ẩn danh (tương đối), kiểm soát quyền truy cập và các mô hình khác cho phép hoạt động tính toán, phân tích dữ liệu được thực hiện với dữ liệu được mã hóa một phần hoặc toàn bộ. Một vài công ty cũng tự nguyện chấp hành việc bảo vệ quyền riêng tư của người dùng vì coi đó như một lợi thế cạnh tranh khiến cho sản phẩm của họ có thể bán với giá cao hơn. 

Nhưng dựa vào sự tự nguyện là không đủ, cái khó là làm thế nào để có thể luật hóa việc bảo vệ quyền riêng tư, yêu cầu cả nhà nước cho đến các cá nhân phải tuân thủ. Luật này phải xác định được đâu là pháp nhân chịu trách nhiệm, cách thức chứng minh một hoạt động sai phạm, có lẽ là phải chứng minh cả động cơ, cách tìm tòa án có khả năng giải quyết…và giám sát/ép buộc việc thực thi phán quyết sau cùng. Tất cả những hành lang pháp lí sẵn có lâu đời về bảo vệ quyền con người như quyền lợi người tiêu dùng, trách nhiệm của nhà sản xuất hay những trách nhiệm dân sự và bảo vệ quyền sở hữu trí tuệ hiện nay đều hoặc là không đề cập, hoặc là rất khó áp dụng lên sản phẩm số. Điều đó có nghĩa rằng các công ty số vẫn có thể quen với việc thử sản phẩm trên người dùng mà không phải sợ trách nhiệm trong khi đó vẫn được giữ bí mật công nghệ của mình hết sức chặt chẽ. 

2. Thao túng hành vi

Vấn đề đạo đức của AI trong giám sát vượt ra ngoài phạm vi việc thu thập dữ liệu và điều hướng sự chú ý của người dùng: Nó còn bao gồm việc sử dụng dữ liệu đó để thao túng hành vi, cả trên mạng lẫn ngoài đời, theo cách rút bớt lý trí và sự tự chủ ra khỏi các lựa chọn. Dĩ nhiên là thao túng hành vi là việc xưa như trái đất, nhưng sử dụng AI đưa vấn đề này lên một tầm cao mới. Người dùng vốn đã có sự tương tác mạnh mẽ với hệ thống dữ liệu rồi và bản thân dữ liệu đã có một hiểu biết sâu sắc những gì mà các cá nhân cung cấp cho nó, không ngạc nhiên khi người dùng trở nên yếu đuối trước những cú “hích”, sự thao túng và lừa gạt của hệ thống. “Trên cơ” người dùng vì có quá nhiều dữ liệu, các thuật toán tha hồ nhắm đến các cá nhân hoặc nhóm người với hiểu biết chắc chắn rằng điều gì có thể làm “lung lay” các quyết định của họ. Thực tế thì các hoạt động như game và buôn bán chất gây nghiện hiện nay đang được kiểm soát chặt chẽ, nhưng thao túng và nghiện trên mạng thì không hề bị sờ gáy – kể cả khi nó đã trở thành mô hình cốt lõi của internet. 

Đó còn chưa kể là mạng xã hội giờ đã trở thành một địa điểm sáng giá để tuyên truyền chính trị. Một ví dụ đó là nó điều hướng hành vi bầu cử của người dùng trong vụ bê bối Facebook – Campridge Analytica. 

Ngoài ra, các công nghệ AI “làm giả” đang khiến cho những gì vốn có bằng chứng đáng tin cậy trở nên đáng ngờ vực – nào là bức ảnh giả, ghi âm giả, video giả. Rồi sẽ rất sớm thôi, rất dễ để ngụy tạo (chứ không chỉ là điều chỉnh) các nội dung chữ viết, ảnh, video “giả như thật” với bất kì nội dung nào mà người ta muốn. Kể cả tương tác theo thời gian thực hết sức phức tạp giữa người với người trên môi trường mạng qua tin nhắn, cuộc gọi điện thoại, gọi video cũng có thể làm giả hết. Cuối cùng, chúng ta không thể tin vào những tương tác trên môi trường số nhưng đồng thời chúng ta lại ngày càng trở nên phụ thuộc vào các tương tác đó. 

Có nhiều nỗ lực để phát hiện và loại bỏ các thiên kiến trong một hệ thống AI, nhưng hầu như nó đều ở giai đoạn sơ khai. Hơn nữa, các giải pháp kĩ thuật có nhiều hạn chế mà rất khó để vượt qua. 

Việc kiểm soát vấn đề này vấp phải một loạt các nghịch lý. Thứ nhất là để đào tạo các kĩ thuật học máy trong AI luôn cần một lượng dữ liệu lớn. Vậy nên chất lượng của một sản phẩm số sẽ tỉ lệ thuận với dữ liệu nó thu thập được. Hay nói cách khác là người ta sẽ có động cơ đánh đổi quyền riêng tư và quyền của người dùng với dữ liệu để phát triển sản phẩm. Thứ hai là các cuộc đấu tranh đòi quyền trên mạng hiện vấp phải cản trở do hoạt động vận động hành lang mạnh mẽ của các công ty nhiều tiền và quyền, các dịch vụ và các cơ quan chính phủ vốn dựa vào hoạt động giám sát. 

3. Sự mơ hồ của các hệ thống AI 

Các hệ thống AI để hỗ trợ việc ra quyết định tự động và đưa ra các phân tích dự báo là một phần của cấu trúc quyền lực mà trong đó “chúng ta tạo ra một quy trình để đưa ra quyết định mà sự tham gia của con người là rất hạn chế”. Tuy nhiên, đồng thời những người chịu ảnh hưởng của những quyết định đó không có cách nào để hiểu được quá trình mà hệ thống đó đưa ra phán quyết như vậy. Tức là, hệ thống AI hoàn toàn “mơ hồ” với người đó. 

Nếu hệ thống đó liên quan tới kĩ thuật học máy, thì nó còn “mơ hồ” với cả các chuyên gia, kĩ sư chế tạo – họ cũng không biết máy đã xác định một hình mẫu/quy luật như thế nào, thậm chí là hình mẫu/quy luật đó là gì họ cũng chịu. Sự thiên kiến trong các hệ thống và cơ sở dữ liệu sẽ ngày càng trầm trọng bởi sự mơ hồ này. 

Rất nhiều hệ thống AI dựa trên kĩ thuật học máy trong mạng thần kinh mô phỏng hoạt động như sau: trích xuất quy luật/mẫu hình từ một cơ sở dữ liệu cho trước, đi kèm hoặc không đi kèm với đáp án “đúng”. Với kĩ thuật này, việc “học” của máy sẽ là nắm bắt mẫu hình/quy luật trong dữ liệu được dán nhãn theo cách có lợi để đưa ra quyết định, nhưng kĩ sư lập trình thì không thực sự biết được máy thực sự nắm được quy luật nào. Hơn nữa, các chương trình máy học này sẽ tiến hóa dần dẫn, nên với dữ liệu mới hoặc với đáp án mới, các hình mẫu/quy luật mà máy học được sẽ thay đổi. Nói chung, quyết định của máy sẽ hoàn toàn “mơ hồ” với người dùng và kĩ sư lập trình. Hơn nữa, chất lượng của chương trình học máy sẽ phụ thuộc rất lớn vào dữ liệu mà nó được cung cấp, tức là “đầu vào là rác thì đầu ra cũng là rác”. Bởi vậy, nếu dữ liệu có “mùi” thiên kiến (chẳng hạn như dữ liệu của cảnh sát về màu da của những người tình nghi) thì kết quả mà chương trình đưa ra cũng sẽ mang âm hưởng thiên kiến đó. 

Hiện nay đã có những đề xuất về một mô tả dữ liệu chuẩn đối với một bộ dữ liệu, giúp cho việc xác định những thiên kiến như vậy khả thi hơn. Cũng có một số nghiên cứu đáng kể gần đây về giới hạn của các hệ thống học máy trong việc lọc các dữ liệu phức tạp. Ngoài ra, cũng có những kĩ thuật báo cáo và giải trình thuật toán để “làm rõ và chỉ rõ cấu trúc quyền lực, thiên kiến và các ảnh hưởng mà những chương trình tính toán có thể gây ra cho xã hội”. Kĩ thuật này không phải là tạo ra một AI có khả năng lí giải được quá trình suy luận của nó – đây là một điều bất khả thi. 

Liên minh châu Âu cũng lường trước được việc nhiều khách hàng không hài lòng với các quyết định mà máy đưa ra nên đã cho họ quyền “được máy giải thích”. Nhưng việc thực hiện điều luật này đến mức nào vẫn là một dấu hỏi. Nhiều người còn cho rằng điều luật này hơi bị “tiêu chuẩn kép” khi đòi hỏi máy phải giải trình quyết định của mình – một điều rất khó về mặt kĩ thuật trong khi con người nhiều khi còn chẳng làm được điều đó. 

4. Thiên kiến trong các hệ thống đưa ra quyết định

Các hệ thống AI tự động hỗ trợ đưa ra quyết định và “phân tích dự báo” vận hành dựa trên dữ liệu và đưa ra một “kết quả đầu ra”. Kết quả này có thể là thứ hết sức nhỏ nhặt trong đời sống chúng ta như gợi ý nhà hàng hợp với gu của chúng ta cho đến những thứ nghiêm trọng hơn như quyết định từ chối đơn xin vay vốn của chúng ta, từ chối ta được nhận ghép tạng hay khép ta vào diện tình nghi là tội phạm. “Phân tích dự báo” ngày càng được sử dụng rộng rãi vì càng rẻ và càng dễ trong nhiều lĩnh vực từ kinh doanh cho đến y tế để dự đoán những bước phát triển trong tương lai. 

Một trong những “phân tích dự báo” mà chúng ta nên lo sợ đó là “dự báo an ninh” – có thể làm xói mòn sự tự do trong không gian công cộng, vì ai mà bị vào “tầm ngắm”, bị “dự đoán hành động” thì gần như họ chẳng còn quyền nào nữa. Người ta lo sợ về một hình thức an ninh dựa vào các tình huống tương lai, nơi lực lượng cảnh sát sẽ lường trước và trừng phạt những hành động mới chỉ là dự kiến chứ không phải là chờ đến khi sai phạm đã xảy ra rồi mới kết tội như hiện nay. 

Sự thiên kiến của một hệ thống AI xảy ra theo hai hướng:

Hướng thứ nhất đến từ người tạo ra và sử dụng hệ thống AI. Một trong những thiên kiến rất phổ biến đó là người ta thường phán xét một vụ việc dựa trên những dữ kiện thực sự chẳng liên quan (chẳng hạn nghĩ đến người Hồi giáo là người ta cho rằng người đó là khủng bố – trong khi đó tôn giáo của một người không có liên hệ gì với việc người ta là khủng bố hay không). Một thiên kiến khác đó là hệ thống nhận thức của loài người thường diễn dịch thông tin theo hướng công nhận những gì họ vốn đã tin từ trước. 

Hướng thiên kiến thứ hai nằm ở chính bản thân dữ liệu dùng để huấn luyện AI. Một cơ sở dữ liệu sẽ chỉ trung dung đối với một vấn đề nhất định, nhưng khi cũng dữ liệu đó sử dụng cho một vấn đề khác, nó sẽ trở nên thiên kiến. Một ví dụ đó là hệ thống COMPAS dùng để dự báo liệu một bị cáo có tiếp tục phạm tội hay không thì trở nên khá thành công (độ chính xác là 65.2%) khi áp dụng trên một nhóm người ngẫu nhiên nhưng lại thất bại khi chỉ áp dụng trên nhóm các bị cáo người da đen (hệ thống này dự báo nhiều người da đen tái phạm tội hơn hẳn mức thực tế). 

Có nhiều nỗ lực để phát hiện và loại bỏ các thiên kiến trong một hệ thống AI, nhưng hầu như nó đều ở giai đoạn sơ khai. Hơn nữa, các giải pháp kĩ thuật có nhiều hạn chế mà rất khó để vượt qua. 

5. Tương tác giữa người và robot

Nếu như AI có thể dùng để thao túng con người tin theo và hành động trái với tự chủ của họ thì nó cũng có thể được dùng để tạo ra những robot nguy hiểm mà cách vận hành và diện mạo của nó dùng để lừa dối và đe dọa lòng tự trọng của con người. Con người rất dễ gắn bó cảm xúc của mình với đồ vật và đồng cảm với nó, đặc biệt là khi các đồ vật đó có vẻ ngoài giống với sinh vật sống. Đặc tính này khiến con người (hoặc động vật) dễ bị lợi dụng để nảy sinh tình cảm với robot hoặc AI – một thứ không có ý thức và càng không có cảm xúc. Đặc biệt là có những trường hợp, sự tương tác giữa người và người không nên bị thay thế bởi robot: như chăm sóc, tình yêu và tình dục

Về robot chăm sóc: 

Có nhiều người biện luận rằng, chúng ta sẽ cần robot chăm sóc trong một xã hội đang già hóa. Nhưng luận điểm này dựa trên một nhận thức hết sức méo mó, cho rằng con người càng sống lâu thì càng cần nhiều sự chăm sóc, nhưng xã hội không có khả năng thu hút nhiều nhân lực con người vào lĩnh vực chăm sóc này. Đó còn chưa kể là quan niệm này thể hiện sự phân biệt đối xử với tuổi tác (cứ người già là cần chăm sóc). Hơn nữa, nó còn bỏ qua bản chất của việc tự động hóa, không chỉ đơn giản là thay thế còn người mà thực chất là cho phép con người làm việc hiệu quả hơn.

Robot thực sự và có khả năng áp dụng khả thi ở thì tương lai trong lĩnh vực chăm sóc sẽ là loại robot hỗ trợ để tự động hóa một số nhiệm vụ kĩ thuật. Chúng chỉ là “robot chăm sóc” theo nghĩa là thực hiện các nhiệm vụ trong môi trường điều dưỡng chứ không phải theo nghĩa một con người “chăm sóc” cho bệnh nhân. Hiệu quả của việc “được chăm sóc” nằm ở thành ý trong việc chăm sóc, điều mà robot không thể có được. Rủi ro mà robot chăm sóc có thể gây ra, đó là sẽ ngày càng ít đi tình thương trong sự chăm sóc, nếu như càng ngày người ta càng cần ít người điều dưỡng. Hơn nữa, bản thân việc chăm sóc người khác cũng tốt cho bản thân tinh thần của người điều dưỡng. Một hệ thống “giả vờ”, “bắt chước” việc chăm sóc sẽ mang tính lừa dối và sẽ dẫn đến hậu quả tồi tệ – trừ khi sự lừa dối đó được bù đắp bằng hiệu quả đáng kể. 

Về robot tình dục:

Có người cho rằng giữa con người và một sự vật vô tri có thể nảy sinh tình bạn. Có thể tình bạn kiểu đó sẽ có nhiều lợi ích, nhưng nó cũng thiếu đi chiều sâu. Sự lừa dối là một vấn đề lớn bởi một robot không có ý gì trong bất kì những gì nó nói cũng như có bất kì tình cảm nào với một con người. Thì đúng, trả tiền cho sự lừa dối có vẻ là một phần quan trọng trong ngành công nghiệp tình dục truyền thống. 

Nhưng cần phải nói rằng, có những lo lại đi kèm với vấn đề tình dục, liên quan đến sự đồng thuận, đến những quan ngại về thẩm mĩ và lo lắng về con người sẽ bị “mục ruỗng” bởi một số trải nghiệm. Nghe có vẻ cổ hủ nhưng hành vi của con người luôn chịu ảnh hưởng của những trải nghiệm, và những sản phẩm khiêu dâm cũng như robot tình dục sẽ củng cố thêm quan điểm của người sử dụng nó, cho rằng người khác chỉ là đồ vật để thỏa mãn nhục cảm hay thậm chí là đối tượng để lạm dụng và bạo hành. Và quan điểm đó rồi sẽ hủy hoại trải nghiệm tình dục và khoái cảm. Theo hướng này, một “Chiến dịch chống lại Robot tình dục” biện luận rằng các thiết bị này sẽ là sự tiếp nối của hình thức nô lệ và mại dâm.□

Nguyễn Quang – Hảo Linh  lược thuật

Nguồn: https://plato.stanford.edu/entries/ethics-ai/ 

Tác giả

(Visited 432 times, 1 visits today)