Nguy cơ AI ngày càng có khả năng vượt kiểm soát ?
Mặc dù có lượng người dùng lớn và ngày càng chi phối hành vi của con người ở nhiều lĩnh vực, khía cạnh, nhưng các công ty thiết kế các hệ thống trí tuệ nhân tạo (AI) vẫn chưa minh bạch về dữ liệu đào tạo AI cũng như cách AI hoạt động.
Vào tháng ba vừa qua, khi thông tin chi tiết về phiên bản GPT-4 tăng khả năng vượt trội hơn so với ChatGPT hiện có, trong một báo cáo dày tới 100 trang, Công ty Open AI đã bỏ qua một số chi tiết – chẳng hạn như bất cứ thông tin quan trọng nào về cách họ xây dựng [mô hình] hoặc cách thức hoạt động [của mô hình của họ].
Tất nhiên, OpenAI và các công ty khác tương tự đều muốn giữ kín cơ chế hoạt động của các thuật toán của họ, một phần vì sợ công nghệ này có thể bị lạm dụng nhưng một phần khác cũng vì lo lắng bị lộ lọt bí mật công nghệ và bị đối thủ nắm được các yếu tố cạnh tranh.
Nhưng một nghiên cứu do các nhà nghiên cứu tại Đại học Stanford công bố mới đây, đã cho thấy mức độ bí mật – đi cùng những hiểm nguy tiềm ẩn, làm giảm độ tin cậy và an toàn – của các hệ thống AI tiên tiến.
Thiếu minh bạch và hiểm nguy tiềm ẩn
Nhóm nghiên cứu ở Đại học Stanford đã xem xét 10 hệ thống AI khác nhau, chủ yếu là các mô hình ngôn ngữ lớn giống như các mô hình đằng sau ChatGPT và các chatbot khác, bao gồm các ứng dụng như GPT-4 của OpenAI, tương tự là PaLM 2 của Google và Titan Text của Amazon. Báo cáo cũng khảo sát các mô hình do các công ty khởi nghiệp xây dựng, bao gồm Jurassic-2 của AI21 Labs, Claude 2 của Anthropic, Command của Cohere và Inflection-1 của nhà sản xuất chatbot Inflection. Nhóm nghiên cứu cũng khảo sát các mô hình AI mã nguồn mở đang được sử dụng miễn phí, bao gồm cả mô hình tạo hình ảnh Stable Diffusion 2 đang được sử dụng rộng rãi và Llama 2, được Meta phát hành vào tháng bảy năm nay.
Nhóm Stanford đã chấm điểm tính mở của các mô hình này dựa trên 13 tiêu chí khác nhau, bao gồm cả mức độ minh bạch về dữ liệu được sử dụng để huấn luyện mô hình AI – chẳng hạn như cách thu thập dữ liệu, cách chú thích dữ liệu, hay sử dụng dữ liệu có bản quyền hay không. Nghiên cứu cũng đánh giá những thông tin chi tiết về phần cứng được sử dụng để đào tạo mô hình, các khung phần mềm được sử dụng và mức độ tiêu thụ năng lượng của các dự án AI.
Sau khảo sát, các nhà nghiên cứu nhận thấy rằng không có mô hình nào đạt được hơn 54% điểm trên thang đo tính minh bạch trên tất cả các tiêu chí này. Nhìn chung, Titan Text của Amazon được đánh giá là kém minh bạch nhất, trong khi Llama 2 của công ty mẹ của Facebook đánh giá là cởi mở nhất. Nhưng ngay cả một mô hình được đánh giá là có độ mở như Llama 2 cũng được cho là khá “mù mịt”, vì Meta chưa cho thấy cách họ sử dụng dữ liệu để đào tạo hệ thống AI của họ như thế nào, dữ liệu đó đã được thu thập và quản lý như thế nào hoặc ai đã thực hiện công việc đó.
Nathan Strauss, người phát ngôn của Amazon cho biết công ty đang xem xét chặt chẽ chỉ số này. Ông nói: “Titan Text vẫn ở chế độ xem trước riêng tư và sẽ còn quá sớm để đánh giá tính minh bạch của mô hình nền tảng trước khi cung cấp rộng rãi”. Còn Meta và OpenAI thì không bình luận gì về báo cáo của Đại học Stanford.
Rishi Bommasani, nghiên cứu sinh tiến sĩ tại Stanford, người thực hiện nghiên cứu này, cho biết báo cáo đã cho thấy một thực tế là các hệ thống trí tuệ nhân tạo đang trở nên thiếu minh bạch hơn mặc dù ngày càng có tầm ảnh hưởng lớn hơn. Điều này trái ngược hoàn toàn với sự bùng nổ gần đây của AI, khi sự cởi mở đã giúp thúc đẩy những tiến bộ lớn về khả năng của AI bao gồm nhận dạng giọng nói và hình ảnh. Bommasani nói: “Vào cuối những năm 2010, các công ty đã từng minh bạch trong nghiên cứu và xuất bản nhiều hơn”.
Báo cáo của Stanford cũng gợi ý rằng các mô hình không cần phải quá bí mật vì lý do cạnh tranh. Kevin Klyman, một nhà nghiên cứu chính sách tại Stanford, cho biết thực tế là một loạt mô hình AI top đầu cũng đạt điểm minh bạch tương đối cao cho thấy rằng tất cả các mô hình đều có thể trở nên cởi mở hơn mà không thua kém các đối thủ khác.
Một số chuyên gia AI lo ngại về việc thiếu minh bạch trong cách nghiên cứu, phát triển các mô hình AI. Jesse Dodge, nhà khoa học nghiên cứu tại Viện AI của Allen (còn gọi là AI2), một viện nghiên cứu phi lợi nhuận về AI, cho biết: “Đây là thời điểm then chốt trong lịch sử AI. Những người chơi có ảnh hưởng nhất trong cuộc chơi xây dựng hệ thống AI tạo sinh đang ngày càng đóng, không chia sẻ các chi tiết chính về dữ liệu và quy trình của họ”.
AI2 đang cố gắng phát triển một mô hình AI minh bạch hơn nhiều, được gọi là OLMo. Mô hình này đang được đào tạo bằng cách sử dụng dữ liệu từ các web, các ấn phẩm học thuật, sách và bách khoa toàn thư. AI2 có kế hoạch phát hành hệ thống AI đang hoạt động và cả mã đằng sau nó, cho phép những người khác cũng có thể tham gia xây dựng dự án.
Dodge cho biết việc mở rộng quyền truy cập vào dữ liệu đằng sau các mô hình AI mạnh mẽ là đặc biệt quan trọng. Nếu không có quyền truy cập trực tiếp, nhìn chung không thể biết tại sao mô hình AI đó hoạt động như vậy hoặc mô hình đó đang làm những gì. “Nếu không được cung cấp quyền truy cập mở vào các cấu phần xây dựng nên mô hình [trí tuệ nhân tạo], chúng ta sẽ vẫn ở trong tình trạng ‘đóng’, trì trệ và độc quyền.”
Mối nguy như vũ khí hạt nhân?
Không phải đến bây giờ các nhà khoa học mới cảnh báo về mối nguy khi phát triển các mô hình AI – lần đầu tiên trong lịch sử có một công cụ thông minh và có khả năng tự ra quyết định – ngày càng có sức ảnh hưởng lớn tới xã hội, tác động tới hành vi con người mà lại thiếu giải trình, thiếu minh bạch. Nhưng sự phát triển bùng nổ của các mô hình AI trong một hai năm nay đã khiến nhiều nhà nghiên cứu phải lên tiếng, thậm chí đã có cảnh báo rằng trí tuệ nhân tạo có thể gây ra mối đe dọa cho nhân loại ngang với chiến tranh hạt nhân hoặc đại dịch.
Chính phủ các quốc gia cũng đã tập trung vào những rủi ro tiềm ẩn do AI gây ra và cách thức quản lý công nghệ. Mặc dù vậy, các cơ quan quản lý chủ yếu đang lo lắng về các vấn đề như thông tin sai lệch do AI tạo ra và tình trạng mất việc do AI, nhưng giới nghiên cứu về AI đã dấy lên những cuộc thảo luận xa hơn thế nhiều.
Hồi tháng năm vừa qua, những nhân vật có ảnh hưởng hàng đầu trong phát triển trí tuệ nhân tạo, bao gồm Giám đốc điều hành OpenAI Sam Altman và Giám đốc điều hành Google DeepMind Demis Hassabis, Geoffrey Hinton và Yoshua Bengio (hai trong số ba nhà nghiên cứu đã giành được giải thưởng Turing cho công trình tiên phong về mạng lưới thần kinh và thường được coi là “bố già” của AI hiện đại) đã ký vào một tuyên bố chung cảnh báo rằng một ngày nào đó công nghệ AI có thể gây ra mối đe dọa cho nhân loại tương đương với chiến tranh hạt nhân và đại dịch.
“Giảm thiểu nguy cơ tuyệt chủng khỏi AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác, chẳng hạn như đại dịch và chiến tranh hạt nhân, ” tuyên bố chỉ dài một câu đó, do Trung tâm An toàn AI, một tổ chức phi lợi nhuận tuyên bố đã cho thấy những lo ngại về việc thiếu minh bạch, mất kiểm soát khi phát triển AI – đây cũng là vấn đề đã được các nhà triết học tranh luận từ lâu. Trong năm qua, sau một số bước nhảy vọt đáng ngạc nhiên và đáng lo ngại về hiệu suất của thuật toán AI, vấn đề này đã được thảo luận rộng rãi và nghiêm túc hơn rất nhiều.
Max Tegmark, giáo sư vật lý tại Viện Công nghệ Massachusetts và Viện trưởng Viện Tương lai cuộc sống, một tổ chức phi lợi nhuận tập trung vào những rủi ro dài hạn do AI gây ra, cho biết: “Tuyên bố này là một sáng kiến tuyệt vời”. Vào tháng ba, Viện Tegmark đã đăng một lá thư kêu gọi tạm dừng phát triển các thuật toán AI tiên tiến để có thể đánh giá rủi ro trong sáu tháng. Bức thư được hàng trăm nhà nghiên cứu và giám đốc điều hành AI ký, trong đó có cả Elon Musk.
Tegmark cho biết ông hy vọng tuyên bố này sẽ khuyến khích các chính phủ và công chúng xem xét nghiêm túc hơn những rủi ro của AI. Ông nói thêm: “Kết quả lý tưởng là mối đe dọa do AI gây ra cho nhân loại sẽ được phổ biến rộng rãi, cho phép mọi người thảo luận về nó mà không sợ bị chế nhạo”.
Dan Hendrycks, giám đốc Trung tâm An toàn AI, đã so sánh thời điểm hiện nay trong phát triển AI với cuộc tranh luận giữa các nhà khoa học về việc tạo ra vũ khí hạt nhân. “Chúng ta cần có những cuộc đối thoại giống cách mà các nhà khoa học hạt nhân đã thực hiện trước khi chế tạo ra bom nguyên tử”.
Các cảnh báo hiện nay gắn liền với những bước nhảy vọt về hiệu suất của thuật toán AI được gọi là mô hình ngôn ngữ lớn có thể tạo ra văn bản và trả lời các câu hỏi với sự lưu loát đáng kinh ngạc và kiến thức rõ ràng. Những mô hình ngôn ngữ này ngày càng được chứng minh mạch lạc và hiệu quả hơn nữa khi chúng được huấn luyện từ nhiều dữ liệu và máy tính mạnh hơn. Mô hình mạnh nhất được tạo ra cho đến nay, GPT-4 của OpenAI, có thể giải quyết các vấn đề phức tạp, bao gồm cả những vấn đề yêu cầu một số kiến thức lý luận hay có tính trừu tượng.
Các mô hình ngôn ngữ ngày càng có nhiều khả năng hơn, đặc biệt là ứng dụng ChatGPT ra mắt vào cuối năm ngoái đã thu hút sự chú ý của công chúng về sức mạnh – và các vấn đề tiềm ẩn – của các chương trình AI mới nhất. ChatGPT và các chatbot tương tự khác có thể trò chuyện mạch lạc trả lời mọi loại câu hỏi và tỏ ra hiểu biết thực sự. Nhưng những chương trình này cũng thể hiện những định kiến, bịa đặt và có thể xúi giục người dùng hành xử theo những cách kỳ lạ.
Geoffrey Hinton, người được coi là một trong những nhân vật quan trọng và có ảnh hưởng nhất trong lĩnh vực AI, đã rời bỏ công việc tại Google vào tháng tư để nói về mối lo ngại về nguy cơ AI ngày càng có khả năng hoạt động vượt kiểm soát.
“Chúng tôi hiểu rằng mọi người đang lo lắng về việc trí tuệ nhân tạo có thể thay đổi cách chúng ta sống như thế nào. Chúng tôi cũng vậy,” Sam Altman, Giám đốc điều hành của OpenAI, trình bày trước Quốc hội Hoa Kỳ vào đầu tháng năm vừa qua. “Nếu công nghệ này gặp trục trặc, nó có thể sẽ gặp trục trặc lớn.” Cũng trong một bài đăng trên blog cùng thời điểm này, Altman và hai giám đốc điều hành OpenAI khác đã kêu gọi việc giám sát và quản lý AI một cách có trách nhiệm, bằng việc hợp tác trong phát triển AI giữa các nhà sản xuất, nghiên cứu để hình thành nên một tổ chức an toàn AI như cơ chế của Cơ quan Năng lượng Nguyên tử Quốc tế tìm cách kiểm soát việc sử dụng vũ khí hạt nhân.
Tất nhiên, không phải ai cũng đồng tình với kịch bản “ngày tận thế” do AI. Vẫn còn rất nhiều tranh cãi.
Một số người hoài nghi về kịch bản này và cho rằng còn quá sớm, cũng như các hệ thống AI còn quá non trẻ để phải lo lắng. Và một số nhà nghiên cứu AI cho rằng hãy nên nghiên cứu các vấn đề trước mắt hơn, bao gồm cả các vấn đề như tin giả, thông tin sai lệch, hơn là đưa ra các cảnh báo đột ngột về rủi ro dài hạn – chủ yếu mới ở mặt lý thuyết – sẽ làm xao lãng các vấn đề hiện tại.
Nhưng những người khác lại lập luận rằng các hệ thống trí tuệ nhân tạo đang cải thiện nhanh đến mức nó đã vượt qua hiệu suất của con người trong một số lĩnh vực và sẽ sớm vượt qua ở những lĩnh vực khác. Họ nói rằng công nghệ này đã cho thấy những dấu hiệu về khả năng và hiểu biết tiên tiến, làm dấy lên lo ngại rằng siêu trí tuệ AI (Artificial General Intelligence – trí thông minh nhân tạo tổng quát có khả năng tự cải thiện mình và tự phát triển thành các hệ thống thậm chí còn thông minh hơn), có thể sánh ngang hoặc vượt quá hiệu suất ở cấp độ con người ở nhiều hoạt động khác nhau, có thể đã tới rất gần. Do đó, thảo luận về các nguy cơ, các kịch bản trong phát triển trí tuệ nhân tạo không có gì là quá sớm.□
Bảo Như tổng hợp
Nguồn: