10 vấn đề đạo đức của AI (Kỳ 2)

Ở kỳ này, bài viết sẽ phân tích những vấn đề đạo đức của AI trong một tương lai xa hơn, nhưng không kém phần đáng sợ và nghiêm trọng.

Tự động hóa số nhân bản rất dễ và rất rẻ nên sự thay đổi trên thị trường lao động sẽ khốc liệt hơn cả trước đây.

6. Tự động hóa và nghề nghiệp

Trước đây, sự tự động hóa thay thế cơ bắp của con người, nhưng ngày nay tự động hóa số sẽ thay thế tư duy và việc xử lý thông tin của con người. Khác với máy móc, tự động hóa số nhân bản rất dễ và rất rẻ và điều đó có thể đồng nghĩa với việc sự thay đổi trên thị trường lao động sẽ khốc liệt hơn cả trước đây. Vậy nên, những câu hỏi chính sẽ là: Ảnh hưởng bây giờ có gì khác? Liệu sự ra đời của những nghề nghiệp mới và sự thịnh vượng mới liệu có đuổi kịp sự biến mất của những nghề nghiệp cũ? Và kể cả khi ảnh hưởng không có gì khác với trước đây, chi phí chuyển đổi là bao nhiêu và ai sẽ chi trả cho nó? Liệu chúng ta có cần điều chỉnh để có một sự phân phối công bằng về chi phí và lợi ích của tự động hóa số? 

Về nguyên tắc, giới nghiên cứu đã nắm rõ ảnh hưởng của tự động hóa lên thị trường lao động diễn ra theo hai hướng: (1) Cách tương tác giữa các nhóm người lao động với kĩ năng khác nhau và công nghệ mới, tác động tới nhu cầu lao động (2) Hiệu ứng cân bằng của sự phát triển công nghệ thông qua một chuỗi những thay đổi trong nguồn cung lao động và thị trường sản phẩm. 

Người ta nhìn thấy điều sẽ xảy ra trong thị trường lao động do tác động của AI và tự động hóa robot là “sự phân cực công việc”: những công việc kĩ thuật trình độ cao sẽ được nhà tuyển dụng khao khát và được trả lương cao, những công việc dịch vụ kĩ năng thấp cũng sẽ được nhà tuyển dụng rất cần nhưng lại được trả lương rất thấp, nhưng những công việc đòi hỏi bằng cấp trung bình ở trong những nhà máy và văn phòng – tức là đại đa số những công việc hiện nay – đang trong trạng thái chấp chới bị xóa sổ vì nó là những việc dễ đoán và có khả năng bị tự động hóa cao nhất. 

Nền kinh tế AI khả năng sẽ không phân chia của cải công bằng vì, thứ nhất, nó vận hành trong một môi trường về cơ bản là không chịu sự kiểm soát và rất khó quy trách nhiệm; thứ hai, nó hoạt động trong những thị trường có đặc tính “kẻ thắng sẽ chiếm tất”; thứ ba, “nền kinh tế mới” của các nền công nghiệp dịch vụ số này dựa trên tài sản phi vật thể, hay còn được gọi là “chủ nghĩa tư bản không cần tiền”.

AI và tự động hóa, không có nghi ngờ gì, sẽ đem đến sự tăng trưởng năng suất đáng kể và tổng tài sản trên toàn cầu vì thế sẽ tăng. Nhà kinh tế học Keynes đã dự báo rằng ở khoảng năm 2030, tốc độ tăng trưởng năng suất toàn cầu sẽ là 1% mỗi năm và loài người sẽ tiến đến “thời đại xả hơi”. Thực ra, chúng ta đã đạt đến mức độ mà Keynes dự đoán vào năm 2030, nhưng chúng ta vẫn chưa được “xả hơi” mà vẫn đang làm việc – vẫn tiếp tục tiêu thụ và sáng tạo, và đặc biệt còn nhiều hơn ở cấp tổ chức. Harari đã giải thích rằng sự phát triển kinh tế này cho phép nhân loại vượt qua đói kém, dịch bệnh và chiến tranh – và giờ chúng ta dùng AI để hướng tới sự bất tử và hạnh phúc vĩnh hằng. 

Tuy nhiên chúng ta có đạt được điều đó không? Vấn đề của thất nghiệp là vấn đề của cải trong xã hội được phân chia công bằng như thế nào. Lí tưởng ra thì nó phải được phân chia dưới một bức “rèm mù”, nghĩa là bất kì ai, không phân biệt vị trí xã hội nào, cũng phải được hưởng sự tự do và phúc lợi cơ bản để có thể sống hạnh phúc nhất. Tuy nhiên, nền kinh tế AI khả năng sẽ không làm được điều đó vì ba đặc điểm sau: Thứ nhất, nó vận hành trong một môi trường về cơ bản là không chịu sự kiểm soát và rất khó quy trách nhiệm về một ai. Thứ hai, nó hoạt động trong những thị trường có đặc tính “kẻ thắng sẽ chiếm tất” – nơi dung dưỡng cho sự độc quyền nảy nở nhanh chóng. Thứ ba, “nền kinh tế mới” của các nền công nghiệp dịch vụ số này dựa trên tài sản phi vật thể, hay còn được gọi là “chủ nghĩa tư bản không cần tiền”. Điều đó nghĩa là rất khó để có thể kiểm soát những tập đoàn công nghệ số đa quốc gia không hề dựa vào một nhà máy hay địa điểm cụ thể nào. Ba đặc điểm trên cảnh bảo ta rằng, nếu ta dựa hoàn toàn vào bàn tay thị trường tự do để phân chia của cải trong xã hội, kết quả sẽ cực kì bất công: và đó thực ra là thứ chúng ta đã chứng kiến rồi. 

Một trong những câu hỏi thú vị nhưng chưa được nhiều người chú ý đó là liệu sự phát triển AI có thực sự bền vững về môi trường hay không: Như bất kì hệ thống tính toán nào, hệ thống AI tạo ra những rác thải rất khó tái chế và nó tiêu thụ một lượng điện năng khủng khiếp, đặc biệt là để huấn luyện các hệ thống học máy (và còn cả để “đào” tiền mã hóa nữa). Và dường như, xã hội nói chung đang phải gánh vác một phần chi phí này. 

Năm 1942, nhà văn Issac Asimov đã nêu về ý tưởng đạo đức của máy tính.

7. Các hệ thống tự hành

Thế nào là một hệ thống tự hành vẫn là câu hỏi nhiều tranh cãi. Một quan điểm được nhiều người ủng hộ liên quan đến tranh luận triết học cho rằng sự tự chủ có thể là nền tảng cho việc chịu trách nhiệm và việc làm người. Theo đó, một vật thể có trách nhiệm thì tức là nó có khả năng tự chủ nhưng không có chiều ngược lại. Vì vậy, nguy hiểm thay, sẽ có những hệ thống được trao một mức độ tự chủ công nghệ mà không phải lo nghĩ về vấn đề trách nhiệm. Một quan điểm khác ít được ủng hộ hơn và kĩ thuật hơn, cho rằng tự chủ ở robot mang tính tương đối và sẽ hình thành chậm chạp: Một hệ thống được cho là tự chủ sẽ phải tôn trọng sự điều khiển của con người ở một mức nào đó. Đây là vấn đề tồn tại song song với sự thiên kiến và mơ hồ của AI vì tự chủ cũng liên quan đến mối quan hệ quyền lực: Ai sẽ kiểm soát hệ thống? Ai sẽ chịu trách nhiệm? 

Trường hợp về phương tiện tự lái

Người ta hứa hẹn xe tự lái sẽ giảm thiểu đáng kể những thiệt hại mà con người gây ra khi lái xe hiện nay – 1/1 triệu người tử vong vì tai nạn xe cộ, và con số đó lớn hơn nhiều nếu tính những người bị thương, môi trường ô nhiễm, mặt đất tràn ngập bê tông và nhựa đường, xe đỗ chật như nêm trong thành phố… Viễn cảnh thì tươi đẹp nhưng khi những tình huống khó xử trên đường xuất hiện, các phương tiện tự lái này sẽ hành động thế nào, các rủi ro và trách nhiệm sẽ được phân chia ra sao trong hệ thống vô cùng phức tạp mà nó đang vận hành? 

Khi xảy ra sự cố do xe tự lái, trách nhiệm thuộc về ai? Luật pháp các nước EU cho rằng nếu trước đây trách nhiệm thuộc về chỉ người lái, thì giờ còn phải chia cho cả nhà sản xuất lẫn người vận hành hệ thống công nghệ…

Khi nhắc đến xe tự hành, người ta nói nhiều đến một tình huống gọi là “vấn đề xe đẩy”. Tình huống kinh điển này chứa rất nhiều mâu thuẫn và nghịch lí. Một phiên bản đơn giản nhất của tình huống này đó là có một xe đẩy trên đường ray đang lao đến và có khả năng đâm chết năm người, trừ phi nó được điều hướng sang một ray khác nhưng lại có một người đang đứng trên đó – cũng sẽ chết nếu chiếc xe đẩy đi vào con đường này. Tình huống này không có mục tiêu đặt ra một vấn đề đạo đức hay chứa đựng một đáp án đúng nào cả. Nó chỉ là một thử nghiệm tư duy, đặt con người ta vào tình thế hiểu rất rõ hệ quả của các lựa chọn, lựa chọn nào cũng khó khăn nhưng không thể không chọn. Nó là một công cụ lý thuyết để xem xét sự khác biệt giữa việc cố tình làm và đành phải làm, giữa hệ quả dự tính và hệ quả đành phải chấp nhận, giữa cách tiếp cận thông thường và cách tiếp cận khi biết trước nguyên nhân-kết quả. Tuy “vấn đề xe đẩy” được nhắc đến nhiều nhưng chưa ai có khả năng đề ra một cách tiếp cận mới hoặc kỹ thuật mới trong việc lập trình cho AI đối mặt với những mâu thuẫn tương tự. 

Các vấn đề đạo đức khác trong việc lái xe như phóng nhanh, vượt ẩu, không giữ khoảng cách giữa các xe… lại là sự xung đột giữa việc theo đuổi lợi ích của cá nhân và lợi ích chung của mọi người. Tất cả những điều này đều được quy định trong luật đường bộ. Hiện nay người ta vẫn ưu tiên lập trình chiếc xe tuân thủ luật tuyệt đối hơn là “phục tùng lợi ích của người lái” hay “đạt hiệu quả di chuyển tối đa”.  Nhưng có phải lúc nào tuân theo luật cũng là điều nên làm? Sẽ cần có những điều kiện nhất định đòi hỏi chiếc xe phải “phá luật”. Nhưng đây là vấn đề của luật đường bộ nói chung, khi nào châm chước hiệu quả và lợi ích của người lái lên trên luật đường bộ, chứ không chỉ đơn thuần là việc lập trình AI như thế nào. 

Viễn cảnh về xe tự lái thì tươi đẹp nhưng nhiều vấn đề xuất hiện.

Một vấn đề nữa là khi xảy ra sự cố, trách nhiệm thuộc về ai? Luật pháp các nước EU cho rằng nếu như trước đây trách nhiệm thuộc về chỉ người lái, thì giờ đây nó còn phải chia cho cả nhà sản xuất lẫn người vận hành hệ thống công nghệ… Tuy nhiên luật pháp một số nước khác, như Mỹ thì kém chặt chẽ hơn, chưa quy định trách nhiệm thuộc về ai nên những người chủ các phương tiện tự hành cũng như những nạn nhân tiềm năng của nó đều là “chuột bạch”. 

Trường hợp vũ khí tự hành

Bộ Quốc Phòng Mỹ cách đây gần 40 năm đã hình dung ra một viễn cảnh mà thay vì họ gửi ra thực địa những tên lửa đã được định hướng sẵn và những phương tiện điều khiển từ xa, giờ họ có thể tung ra những phương tiện hoàn toàn tự hành trên đất, biển, không trung, có khả năng thực hiện một loạt các nhiệm vụ trinh sát và tấn công. 

Viễn cảnh đó từng bị cho là nực cười nhưng giờ thì nó đã thành sự thật một phần nào đó. Luận điểm chống lại hệ thống vũ khí tự hành hiện nay đó là nó thúc đẩy việc giết người ngoài vòng pháp luật, miễn trừ con người khỏi trách nhiệm, và vì thế tạo điều kiện nảy sinh chiến tranh và chết chóc nhiều hơn. 

Một câu hỏi khác đặt ra đó là việc sử dụng vũ khí tự hành trong chiến tranh khiến cuộc chiến đó khốc liệt hơn hay đỡ tệ đi? Có người nhìn về mặt tích cực cho rằng sẽ ít tội phạm chiến tranh và tội phạm trong chiến tranh. Nhưng điều đó không có nghĩa rằng máy móc thì không giết người. Vũ khí tự hành thì cũng vẫn là vũ khí, đó còn chưa kể dù được lập trình chính xác đến đâu, nó vẫn có khả năng mắc những sai lầm mà con người không lường trước được. Đó còn chưa kể, các vũ khí này không chỉ được dùng trong chiến tranh thông thường mà trong cả những xung đột vũ trang của các thế lực phi chính phủ, bao gồm cả tội phạm. 

Bước ngoặt của những sự kiện sau khi siêu trí tuệ AI ra đời là “điểm kì dị” mà từ điểm đó, sự phát triển của AI nằm ngoài khả năng kiểm soát của con người và rất khó dự đoán được nữa.

Người ta cũng cho rằng các vũ khí tự hành không thể tuân thủ Luật Nhân đạo quốc tế, vốn đòi hỏi sự tuân thủ nguyên tắc phân biệt giữa lực lượng vũ trang và dân thường, sự chênh lệch về mặt lực lượng và vũ trang trong một xung đột quân sự, vốn không phải lúc nào cũng khả thi đối với máy móc. 

Đã có nhiều thảo luận liên quan đến việc làm sao để giữ việc sử dụng các vũ khí tự hành này một cách “có ý nghĩa”. Cũng có những tranh cãi về những khó khăn trong việc xác định trách nhiệm khi các vũ khí này giết người và người ta cũng phát hiện ra nhiều “lỗ hổng trách nhiệm” – những tình huống mà cả người và máy móc đều thoát khỏi trách nhiệm. Nhưng mặt khác, chúng ta phải chấp nhận rằng, có thể không phải sự kiện nào xảy ra cũng có một người phải chịu trách nhiệm. Vấn đề thực sự ở đây là sự phân chia rủi ro giữa các đối tượng liên quan như thế nào. Nhiều phân tích rủi ro chỉ ra rằng, điều quan trọng là phải xác định được ai là người có khả năng chịu rủi ro, ai là người hưởng lợi từ đó và ai là người ra quyết định. 

8. Đạo đức của máy

Đạo đức của máy lấy máy làm chủ thể chứ không phải là con người sử dụng chiếc máy đó. Tạo ra một chiếc máy có đạo đức, nhiều người giải thích rằng, đó là “đảm bảo rằng các hành vi của chiếc máy đó với người sử dụng và cả những máy móc khác là chấp nhận được về mặt đạo đức”. Có người đưa ra định nghĩa một cách tham vọng và lý tưởng hơn, cho rằng một AI có đạo đức là một AI có khả năng “cân nhắc các giá trị xã hội, các quan ngại về mặt đạo đức; cân đong giữa các ưu tiên về giá trị giữa những đối tượng khác nhau trong muôn vàn tình huống văn hóa; giải thích được quyết định của mình và đảm bảo sự minh bạch”. 


Tuy nhiên, người ta cũng quan sát thấy rằng các robot được lập trình để tuân thủ những nguyên tắc đạo đức thì cũng rất dễ bị điều chỉnh để tuân thủ những nguyên tắc phi đạo đức. 

Ý tưởng về đạo đức của máy tính có thể được viết dưới dạng luật đã quá nổi tiếng trong tác phẩm của Issac Asimov vào năm 1942: Luật đầu tiên – một robot không được làm con người bị thương, hoặc thấy con người gặp nguy hiểm mà lại làm ngơ. Luật Thứ hai – một robot phải nghe lệnh của con người ngoại trừ những lệnh đó trái với Luật đầu tiên. Luật Thứ ba – một robot phải bảo vệ sự tồn tại của chính mình miễn là sự bảo vệ đó không xung đột với luật Thứ nhất và Thứ hai. 

Tuy nhiên chính Asimov cũng đưa ra một loạt câu chuyện về ba điều luật này có thể xung khắc với nhau như thế nào và áp dụng chúng cũng “rất có vấn đề” trong một tổ chức có sự phân chia quyền lực từ thấp – cao. 

Vẫn chưa có một thống nhất nào về “đạo đức của máy” vì giờ đây người ta chỉ cần máy tính “đủ dùng” là được. Những quan niệm về việc trao cho máy móc một chủ thể đạo đức vẫn là một tờ giấy trắng. 

9. Chủ thể đạo đức nhân tạo

Khi máy tính không chỉ được lập trình để hành động theo những nguyên tắc đạo đức mà còn nhiều hơn thế, nó được gọi là “chủ thể đạo đức nhân tạo”, tức là nó có cả quyền và nghĩa vụ. 

Nghĩa vụ của robot: 

Hầu hết mọi người đều đồng tình rằng, trách nhiệm giải trình, trách nhiệm pháp lý và tinh thần thượng tôn pháp luật là những yêu cầu cơ bản phải tuân thủ khi tạo ra một công nghệ mới, nhưng vấn đề trong trường hợp của robot đó là những tiêu chí này được thực hiện như thế nào và có thể xác định trách nhiệm ra sao. Khi một robot hoạt động, nó có phải chịu trách nhiệm, chịu phán xét của pháp luật và phải giải trình hành động của nó hay không? Hay thậm chí người ta phải nghĩ đến sự phân chia rủi ro trước cả khi thảo luận về trách nhiệm nói chung? 

Không nên hiểu nghĩa vụ của robot là vấn đề cụ thể của AI mà là vấn đề của cả hệ thống quyền lực kiểm soát và tạo ra nó.

Việc phân chia rủi ro trong thế giới truyền thống người ta đã làm từ lâu: người sản xuất ra chiếc xe hơi phải chịu trách nhiệm về an toàn kỹ thuật của nó, một người lái xe phải có trách nhiệm lái sao cho đúng, người thợ sửa chữa phải chịu trách nhiệm bảo dưỡng tận tâm, chính quyền phải chịu trách nhiệm về điều kiện đường sá…

Về cơ bản, ảnh hưởng của các quyết định và hành động dựa trên AI thường là kết quả của vô số những tương tác giữa rất nhiều bên: từ người thiết kế, người lập trình, người sử dụng, người làm phần mềm, phần cứng… Sự phân công công việc như vậy đi kèm với sự phân chia trách nhiệm. 

Bởi vậy, nghĩa vụ của robot này không nên hiểu là vấn đề cụ thể của AI mà là vấn đề của cả hệ thống quyền lực kiểm soát và tạo ra nó.

Quyền của robot  

Một vài người cho rằng cần phải cân nhắc một cách nghiêm túc xem liệu các robot hiện nay có nên được trao quyền hay không. Nhưng phần lớn còn lại đều trả lời là không. Người ta cho rằng những quy định pháp luật định cân nhắc cho robot một số quyền và nhiệm vụ là “không cần thiết về mặt đạo đức và quá phức tạp về mặt pháp lí” vì nó không phục vụ lợi ích gì của con người cả. 

Nhiều người cho rằng việc cho robot một chủ thể đạo đức nhân tạo cũng không hẳn là một việc làm đạo đức cho lắm. Trong cộng đồng các nhà nghiên cứu về “nhận thức nhân tạo”, họ lo ngại rằng liệu có ổn không khi ta có ràng buộc phải hành xử một cách có đạo đức với một thực thể vô tri, chẳng hạn như không được làm hại nó hoặc kết thúc sự tồn tại của nó bằng cách tắt nó đi. 

10. Điểm kì dị  

Điểm kì dị và siêu trí tuệ ở một vài nơi, mục đích tạo ra AI của họ được cho là hướng đến một “Trí tuệ nhân tạo chung” (Artificial General Intelligence – AGI), đối lập với AI thực hiện các nhiệm vụ “hẹp” và kĩ thuật. Đó là một “AI mạnh” – “những máy tính được cài đúng chương trình có khả năng hiểu và đạt được những trạng thái nhận thức khác”. 

Ý tưởng về điểm kì dị có thể giải thích là một hướng phát triển của trí tuệ nhân tạo. Khi đó, AI đạt đến một hệ thống có trí thông minh ngang với con người, và hệ thống đó bản thân nó lại có thể tạo ra các hệ thống AI khác vượt xa trí tuệ con người – siêu trí tuệ. Những hệ thống siêu trí tuệ AI đó có khả năng tự cải thiên mình và tự phát triển thành các hệ thống thậm chí còn thông minh hơn. Bước ngoặt của những sự kiện sau khi siêu trí tuệ AI ra đời là “điểm kì dị” mà từ điểm đó, sự phát triển của AI nằm ngoài khả năng kiểm soát của con người và rất khó dự đoán được nữa. 

Một trong những “dự báo” về sự tăng tốc đến điểm kì dị của máy tính là của Kurzweil. Ông đã chỉ ra rằng năng lực tính toán của máy tính đã tăng theo hàm mũ (gấp đôi mỗi hai năm kể từ 1970, khớp với Định luật Moor về số lượng bán dẫn trong máy tính, và tiếp tục tăng trưởng như vậy trong một thời gian dài ở tương lai). Kurzweil dự đoán rằng vào năm 2010, siêu máy tính sẽ đạt đến năng lực tính toán của con người và vào năm 2030, viễn cảnh về việc “tải trí óc” con người lên máy tính sẽ thành hiện thực và điểm kì dị sẽ xảy ra vào năm 2045. Dĩ nhiên ông cũng nhận thức được rằng cái giá để tăng khả năng tính toán của máy tính không phải là rẻ nhưng vào những năm gần đây thì ngày càng nhiều tài trợ khổng lồ đổ vào các công ty AI. Các nhà khoa học dự đoán rằng, từ năm 2012-1018, năng lực tính toán để đào tạo một hệ thống AI có thể tăng trưởng gấp đôi chỉ trong hơn ba tháng, tức là mỗi hai năm sẽ tăng 300.000 lần, vượt xa tưởng tượng của Kurzweil. 

Nhưng con đường đến “siêu trí tuệ” không chỉ thông qua việc tăng trưởng năng lực tính toán mà còn nhiều cách khác, chẳng hạn như mô phỏng toàn diện bộ não của con người trên máy tính, sự kết hợp giữa thực thể sinh học và máy móc… 

Mặc dù việc gắn liền giữa siêu trí tuệ với năng lực tính toán trong nhận định của Kurzweil có thiếu sót nhưng có một điều ông đã đúng. Đó là loài người thường đánh giá thấp sự tăng trưởng theo hàm mũ. Một bài kiểm tra nhỏ: Nếu bạn bước theo cách mà mỗi bước chân sau bước một đoạn dài gấp đôi bước chân trước thì bạn sẽ đi bao xa trong 30 bước? (đáp án: gần ba lần so với khoảng cách từ Trái đất đến Mặt trăng). Hẳn vậy, hầu hết sự phát triển của AI là do sự sẵn có của các bộ vi xử lý ngày càng có tốc độ nhanh hơn, khả năng lưu trữ lớn hơn và được đầu tư hào phóng hơn. Và nó sẽ tiếp tục như vậy trong tương lai. 

Cũng có nhiều quan điểm cho rằng điểm kì dị sẽ không xảy ra hoặc ít nhất là nó không đe dọa đến nhân loại. Nhưng kể cả khi nó khó xảy ra, thì vẫn có khả năng đáng kể sự phát triển của AI đi sai hướng. Triết học vốn không hoàn toàn là một môn khoa học, AI và robotics cũng vậy. Bởi vậy, đây vẫn là một chủ đề đáng bàn.  

Mối đe dọa sống còn từ siêu trí tuệ

Nghĩ về siêu trí tuệ trong tương lai xa nổi lên câu hỏi liệu nó có dẫn đến sự tuyệt chủng của loài người, hay còn gọi là “đe dọa hiện sinh”. Hệ thống siêu trí tuệ có thể có ưu tiên xung đột với sự hiện diện của loài người trên Trái đất và quyết định chấm dứt sự tồn tại đó – và bởi nó có trí tuệ vượt trội hơn chúng ta, nó có quyền năng để làm điều đó (hoặc cũng có thể nó kết liễu con người một cách tình cờ vì nó thực sự không quan tâm cho lắm).

Trong bài báo này, chúng tôi muốn bạn đọc cần nghĩ cho một tương lai xa. Liệu điểm kì dị (hay bất kì một sự kiện thảm khốc nào) có xảy ra trong 30, 300 năm hay 3000 năm nữa cũng không quá quan trọng. Có lẽ có một mẫu hình trong vũ trụ này cho thấy các loài thông minh sẽ khám phá ra AI vào một lúc nào đó và vì thế mà dẫn đồng loại của mình đến bờ diệt vong. “Bộ lọc vĩ đại” đó cũng củng cố thêm cho “Nghịch lý Fermi” (Fermi Paradox) lí giải rằng tại sao vẫn không có dấu hiệu sự sống nào trong khoảng vũ trụ mà ta đã biết dù khả năng ta phát hiện ra một nơi như vậy ngày càng cao. Sẽ là một tin tồi tệ nếu ta nhận ra rằng “bộ lọc vĩ đại đó” đang ở phía trước mình chứ không phải là đã ở đằng sau chúng ta. 

Kiểm soát siêu trí tuệ? 

Theo nghĩa hẹp, vấn đề kiểm soát là liệu con người còn duy trì được quyền kiểm soát với AI một khi nó trở thành siêu trí tuệ hay không? Theo nghĩa rộng hơn, đó là vấn đề của việc liệu chúng ta có thể đảm bảo hệ thống AI sẽ phát triển theo hướng tích cực hay không? Việc kiểm soát siêu trí tuệ này dễ hay khó phụ thuộc rất nhiều vào tốc độ phát triển của một siêu trí tuệ. 

Một khía cạnh khác của vấn đề này là chúng ta có thể quyết định một chức năng này của AI là cần thiết, đáng theo đuổi nhưng rồi về sau mới phát hiện ra nó có những hệ quả không thể lường trước, quá nguy hiểm tới nỗi ta thà không có nó còn hơn. Nó chính là vấn đề cổ đại của vua Midas từng ước mọi thứ mình chạm vào đều biến thành vàng ròng. □

Hảo Linh – Nguyễn Quang lược thuật

Nguồn: https://plato.stanford.edu/entries/ethics-ai/

Tác giả