Biến đổi khí hậu hay AI sẽ dẫn tới tận thế? 

Trong một nghiên cứu lớn, các nhà khoa học đã xem xét những rủi ro lớn nhất đối với sự sống còn của con người. Biến đổi khí hậu bị tụt lại phía sau và chiến tranh hạt nhân chỉ chiếm vị trí thứ tư. Các nhà dự báo hàng đầu giờ đây lo sợ về một mối nguy hiểm hơn tất cả.


Điều này được thể hiện qua dữ liệu từ hãng cung cấp dịch vụ tài chính hàng đầu toàn cầu Bloomberg: chỉ trong tháng vừa qua đã có 255 câu chuyện đề cập đến nguy cơ tuyệt chủng của loài người.

Một nguy cơ gần đây xuất hiện ngày càng nhiều trên các bản tin về chủ đề này, đó là nguy cơ hủy diệt loài người bởi trí tuệ nhân tạo (AI). Nguy cơ AI trừ khử loài người đã tăng lên trong nghiên cứu xem xét các kịch bản đối với ngày tận thế.

Trong nghiên cứu, các nhà khoa học cố gắng định lượng xác suất sụp đổ sắp xảy ra của nền văn minh nhân loại. Các nhóm chuyên gia khác nhau được hỏi về đánh giá của họ về rủi ro hiện hữu.

Tất cả các nhà dự báo đều thống nhất ở một điểm: trong vài thập kỷ tới, không có gì đe dọa nhân loại bằng máy móc và phần mềm thông minh chống lại người tạo ra chúng. Tuy nhiên, chuyên gia trong các lĩnh vực khác nhau lại có những ước tính rất khác nhau về mức độ rủi ro do AI gây ra.

Chính các chuyên gia trong lĩnh vực trí tuệ nhân tạo lại cảnh báo ồn ào nhất về AI, khoảng 3% thậm chí còn cho rằng AI có thể xóa sổ nhân loại trong tương lai không xa.

Các nhà dự báo cũng cho rằng nguy cơ xóa sổ nhân loại do chiến tranh hạt nhân thấp hơn các nguyên nhân khác. Các nhà chiến lược quân sự dự báo nguy cơ này ở mức 0,55%, nhìn chung các chuyên gia khác dự đoán nguy cơ này ở mức 0,19%.

Nhìn chung các nhà dự báo đều nhất trí xác suất nguy cơ nhân loại bị xóa sổ do các thảm họa tự nhiên vào khoảng 0,004%. Con số này cho thấy nguy cơ này hầu như khó có thể xảy ra. Thảm họa thiên nhiên có thể dẫn đến sự tuyệt chủng của loài người bao gồm một tiểu hành tinh hoặc sao chổi tác động đến kích thước của loài khủng long giết chết 66 triệu năm, một cơn bão mặt trời khổng lồ hoặc một vụ nổ tinh tú. 

Trong khi đó, sự phát triển AI vượt quá kiểm soát của con người được các nhà dự báo đánh giá như một rủi ro lớn nhất. Một AI độc hại phát điên, lan rộng khắp thế giới và không thể ngăn chặn vẫn là mối đe dọa lớn nhất đối với sự tồn vong của nhân loại.

Năm ngoái, trong một cuộc khảo sát, một số nhà nghiên cứu và phát triển AI hàng đầu hiện nay cũng đã bày tỏ lo lắng về một kịch bản tồi tệ nhất – AI có thể dẫn tới dự diệt vong của loài người trong tương lai. Nhìn chung cho rằng AI có nhiều khả năng mang lại lợi ích nhưng thực sự cũng có nguy cơ trở thành thảm họa. 48% số người được hỏi cho biết họ nghĩ rằng có 10% hoặc nhiều khả năng hơn là tác động của AI sẽ “cực kỳ tồi tệ (ví dụ: dẫn đến sự tuyệt chủng của loài người).” Dẫu sao đây là tin mừng, vì ít ra các nhà phát triển AI còn lo ngại về các nguy cơ để thúc đẩy các giải pháp giám sát, ngăn chặn kịch bản đáng tiếc xảy ra. 

Tuy nhiên hiện nay, việc phát triển AI còn quá mới mẻ, các quy định luật pháp còn chưa theo kịp tiến bộ rất nhanh chóng của công nghệ. Chẳng hạn, một công ty công nghệ tự chế tạo vũ khí hạt nhân chắc chắn là không hợp pháp nhưng các công ty tư nhân đang xây dựng những hệ thống mà chính họ thừa nhận sẽ có khả năng trở nên nguy hiểm hơn nhiều so với vũ khí hạt nhân thì vẫn còn rất ít khung pháp lý điều chỉnh.

Nhưng khi công nghệ AI ngày càng phát triển và có nhiều ứng dụng, càng không thể bỏ qua các dự báo về nguy cơ của AI. Cựu giám đốc điều hành Google Mo Gawdat kể câu chuyện về việc ông bắt đầu quan tâm đến AI tổng quát (những máy tính được cài đúng chương trình có khả năng hiểu và đạt được những trạng thái nhận thức khác) khi nghiên cứu cách người máy sử dụng AI có thể tự học cách nhặt bóng. Sau nhiều lần thất bại, AI đã tự học được cách nắm lấy quả bóng và đưa nó cho các nhà nghiên cứu, giống con người một cách kỳ lạ. “Và tôi chợt nhận ra điều này thực sự đáng sợ,” Gawdat nói. “Chúng ta đang tạo ra Chúa”. □

Xuân Hoài tổng hợp 

Nguồn: https://www.welt.de/wirtschaft/plus246402022/Super-Forecaster-Das-wahrscheinlichste-Szenario-fuer-den-Weltuntergang.html? 

https://www.vox.com/the-highlight/23447596/artificial-intelligence-agi-openai-gpt3-existential-risk-human-extinction

Tác giả

(Visited 13 times, 1 visits today)