Người trẻ Việt Nam có thể sáng tạo và hưởng lợi gì sự bùng nổ AI? Kỳ 1: Xu thế đầu tư lớn cho phát triển AI
Kể từ khi ra đời, sự “thông minh kỳ diệu” của ChatGPT khiến mọi người kinh ngạc về trí tuệ nhân tạo (AI) và đều nghĩ về một “cuộc cách mạng mới” của nhân loại đã bắt đầu...
Thế giới trong cơn sốt AI
Kể từ khi ChatGPT ra đời vào năm ngoái thì đông đảo người dân trên thế giới mới thực sự bị thuyết phục bởi khả năng phi thường của Trí tuệ nhân tạo. Và nơi nơi đều nói đến nó như cây gậy thần phục vụ cho cuộc sống từ nay về sau. Thực ra AI không mới, nó đã có lịch sử nghiên cứu phát triển và ứng dụng thất bại và thành công khoảng tám chục năm, bắt đầu có ý tưởng vào năm 1943, Warren McCullough và Walter Pitts xuất bản cuốn “A Logical Calculus of Ideas Immanent in Nervous Activity” (“Một tính toán logic của những ý tưởng tiềm ẩn trong hoạt động thần kinh”).
Năm 1950: Alan Turing xuất bản “Computing Machinery and Intelligence” (Máy tính và trí thông minh), đề xuất Thử nghiệm Turing, một phương pháp để xác định xem một máy tính có thông minh hay không. Về thực nghiệm thì từ năm 1954: Thí nghiệm dịch máy Georgetown-IBM tự động dịch 60 câu tiếng Nga được chọn cẩn thận sang tiếng Anh. Và cuối cùng năm 1956, cụm từ “Trí tuệ nhân tạo – AI” lần đầu tiên được John McCarthy, định danh tại “Dự án nghiên cứu mùa hè về trí tuệ nhân tạo”. Hội nghị này đã chấp nhận tên gọi và xác định phạm vi và mục tiêu của AI, được coi là sự ra đời của trí tuệ nhân tạo như chúng ta biết ngày nay. Tuy đã có khá nhiều kết quả về ý tưởng cũng như thuật toán và ngôn ngữ lập trình (ví dụ năm 1958, John McCarthy phát triển ngôn ngữ lập trình AI Lisp) nhưng AI cũng không phát triển được mấy suốt hai chục năm do không có được phần cứng tương ứng.
Sau một thời gian dài chìm nghỉm trong im lặng, thậm chí năm 1966, Báo cáo của Ủy ban Tư vấn xử lý ngôn ngữ tự động (ALPAC) của Chính phủ Hoa Kỳ nêu chi tiết về sự thiếu tiến bộ trong nghiên cứu dịch máy, một sáng kiến lớn thời Chiến tranh Lạnh với lời hứa dịch tự động tiếng Nga. Báo cáo ALPAC dẫn đến việc hủy bỏ tất cả các dự án MIT do chính phủ tài trợ. May sao các nhà khoa học và các công ty công nghệ vẫn không bỏ cuộc.
Đỉnh điểm là từ năm 1985, IBM hợp tác cùng với Đại học Carnegie Mellon đến năm 1989 để cho ra đời siêu máy tính Deep Blue. Nó đấu với nhà vô địch thế giới Garry Kasparov lần đầu tiên vào năm 1996 và thua với tỉ số 2 – 4. Năm 1997, sau khi được nâng cấp, nó tái đấu với Kasparov và thắng chung cuộc với 2 ván thắng, 3 ván hòa trong tổng số 6 ván đấu. Chiến thắng này của Deep Blue được coi là một cột mốc trong lịch sử ngành trí tuệ nhân tạo. Khi đã đánh tan được nghi ngờ của công chúng và các nhà quản lý, tiền lại được đổ vào nghiên cứu và phát triển AI không giới hạn trên khắp thế giới.
Các gã khổng lồ công nghệ như Google, Facebook, Amazon, Microsoft, IBM, Intel, Alibaba và SAP đang đầu tư rất nhiều vào nó. Việc đào tạo các mô hình AI lớn có thể rất tốn kém. Chi phí, sức mạnh tính toán và tài nguyên dự kiến sẽ tăng lên. Theo dữ liệu gần đây, 10 công ty hàng đầu đầu tư vào AI là Google, Facebook, Amazon, Microsoft, IBM, Baidu, Intel, Alibaba, Tencent và SAP.
Google với khoản đầu tư khổng lồ 30,7 tỷ USD vào AI. Họ đã sử dụng AI để cải thiện công cụ tìm kiếm và các sản phẩm khác, chẳng hạn như Google Assistant. Facebook, với khoản đầu tư 22,1 tỷ USD, đã sử dụng AI để cải thiện trải nghiệm người dùng trên nền tảng của mình. Amazon, với 10 tỷ USD đầu tư, đã sử dụng AI để cải thiện dịch vụ giao hàng và trợ lý giọng nói Alexa.
Microsoft, với khoản đầu tư 10 tỷ USD, đã sử dụng AI để cải thiện sản phẩm và dịch vụ của mình trong các lĩnh vực như nhận dạng giọng nói và xử lý ngôn ngữ tự nhiên. IBM, với 200 tỷ USD đầu tư, đã và đang sử dụng AI để cải thiện các dịch vụ phân tích dữ liệu và phát triển trợ lý AI của mình là Watson, Baidu, với 200 triệu USD đầu tư, đã và đang sử dụng AI để cải thiện công cụ tìm kiếm và dịch vụ bản đồ của mình.
Intel, với khoản đầu tư 2 tỷ USD, đã và đang phát triển các công nghệ AI để cải thiện hiệu quả sử dụng năng lượng và tính bảo mật trong các thiết bị điện tử. Alibaba, với khoản đầu tư 17 tỷ USD, đã sử dụng AI để cải thiện nền tảng thương mại điện tử và phát triển trợ lý AI, AliMe.
Tencent, với 70 tỷ USD đầu tư, đã và đang sử dụng AI để cải thiện dịch vụ nhắn tin và trò chơi trực tuyến của mình. Cuối cùng, SAP với khoản đầu tư 2 tỷ USD đã sử dụng AI để cải thiện các dịch vụ phân tích dữ liệu và phát triển trợ lý AI của mình, Leonardo. Có thể thấy người khổng lồ ngầm, cao tuổi nhất IBM lại chơi lớn nhất.
Tất cả những hoạt động đầu tư vào AI của các gã khổng lồ công nghệ khiến dấy lên những câu hỏi về việc liệu đây có phải là thời điểm thú vị để Việt Nam gia nhập đường đua kinh doanh mô hình hóa bằng AI? Việt Nam sẽ có nhiều mô hình hơn để nâng cao cuộc sống, xã hội?
Trước khi đi đến giải đáp những câu hỏi này, chúng ta cần bớt mơ mộng, nhìn thẳng vào thực tế để trả lời những câu hỏi sát sườn hơn: đầu tư cho một mô hình AI là bao nhiêu và AI có phải chỉ là thuật toán và phần mềm không?
Chi phí để tạo một mô hình AI như ChatGPT có đắt lắm không?
Chi phí đào tạo một mô hình AI có thể thay đổi đáng kể tùy thuộc vào nhiều yếu tố khác nhau như kích thước của tập dữ liệu, độ phức tạp của mô hình, sức mạnh tính toán cần thiết và thời gian cần thiết cho quá trình đào tạo.
Thật vậy, việc đào tạo các mô hình ngôn ngữ lớn như GPT-3 có thể rất tốn kém do yêu cầu lượng dữ liệu và sức mạnh tính toán khổng lồ. OpenAI, tổ chức đứng sau GPT-3, đã đầu tư nguồn lực đáng kể vào việc đào tạo mô hình, được cho là tiêu tốn hàng triệu USD.
Tuy nhiên, chi phí đào tạo các mô hình AI không chỉ giới hạn ở các mô hình ngôn ngữ quy mô lớn như GPT-3. Các mô hình nhỏ hơn với ít dữ liệu hơn và ít tham số hơn có thể được dùng để đào tạo với chi phí thấp hơn bằng cách sử dụng ít nguồn lực tính toán hơn.
Bất chấp chi phí cao này, hiện nay có các dịch vụ dựa trên đám mây và các mô hình được đào tạo trước cung cấp điểm đầu vào phát triển AI hợp lý hơn, có thể giúp giảm chi phí cho các doanh nghiệp và tổ chức muốn tận dụng công nghệ AI. Hơn nữa, hiện nay có các dịch vụ dựa trên đám mây cung cấp các mô hình AI được đào tạo trước, có thể được truy cập thông qua API và cho phép gia nhập AI với chi phí thấp hơn mà không cần đào tạo chuyên sâu.
Nhìn chung, chi phí đào tạo một mô hình AI có thể khác nhau tùy thuộc vào độ phức tạp của mô hình và nguồn lực cần thiết. Tuy nhiên, có sẵn các tùy chọn giúp giảm chi phí, chẳng hạn như các mô hình được đào tạo trước và dịch vụ dựa trên đám mây.
Các báo cáo gần đây chỉ ra rằng chi phí đào tạo các mô hình AI dự kiến sẽ tiếp tục tăng trong những năm tới. OpenAI dự kiến chi phí đào tạo các mô hình AI lớn sẽ tăng từ 100 triệu USD lên 500 triệu USD vào năm 2030, với chi phí đào tạo một mô hình duy nhất dao động từ 3 triệu USD đến 12 triệu USD. Chi phí đào tạo một mô hình trên tập dữ liệu lớn có thể còn cao hơn, lên tới 30 triệu USD. Mặc dù những tiến bộ trong khối xử lý đồ họa GPU có thể giúp giảm chi phí ở một mức độ nào đó, nhưng xu hướng chung cho thấy chi phí đào tạo các mô hình AI sẽ tăng lên. Điều đáng chú ý là mặc dù những con số này có vẻ đáng kinh ngạc nhưng chúng phản ánh sức mạnh tính toán to lớn và nguồn lực cần thiết để đào tạo các mô hình AI phức tạp. Chi phí này chưa tính đến việc thu thập dữ liệu, đầu tư hoặc thuê Trung tâm tính toán.
Những công ty này chỉ là một vài ví dụ trong số rất nhiều công ty đang đầu tư vào AI. Rõ ràng là công nghệ này ngày càng trở nên quan trọng trong cuộc sống hằng ngày của chúng ta và chúng ta có thể mong đợi được thấy nhiều tiến bộ hơn nữa trong tương lai. 10 công ty hàng đầu đầu tư vào AI là Google, Facebook, Amazon, Microsoft, IBM, Baidu, Intel, Alibaba, Tencent và SAP.
Câu hỏi đặt ra là có phải vấn đề quan trọng sống còn của AI chỉ là phát triển thuật toán và lập trình phần mềm?
Nhầm to! Nếu không có nền tảng vững chắc về các phần cứng đáp ứng yêu cầu, lĩnh vực trí tuệ nhân tạo sẽ không có hoặc không có thể đạt đến mức như ngày nay. Mọi cải tiến do AI điều khiển đều có một phần cứng quan trọng hoạt động ở hậu trường. Yêu cầu phần cứng Trí tuệ nhân tạo đóng một vai trò quan trọng trong việc xác định hiệu quả, tốc độ và năng lực của hệ thống AI.
Các hệ thống trí tuệ nhân tạo được tạo ra để bắt chước trí tuệ của con người, việc này đòi hỏi rất nhiều sức mạnh xử lý. Phần cứng AI phải hỗ trợ các thuật toán phức tạp, xử lý dữ liệu lớn và các phép tính phức tạp trong thời gian thực. Phần cứng hỗ trợ các ứng dụng AI phải phát triển cùng với chúng khi chúng ngày càng trở nên phức tạp.
CPU: Bộ não của hệ thống AI
Các khối xử lý trung tâm (CPU), được gọi là bộ não của máy tính, rất cần thiết cho các yêu cầu phần cứng dành cho AI. CPU truyền thống có thể thực hiện một số tác vụ AI, nhưng khối lượng công việc AI phức tạp đòi hỏi CPU hiệu suất cao với nhiều lõi. Việc thực thi lệnh, quản lý công việc và khả năng tương tác mượt mà của các thành phần phần cứng đều là trách nhiệm của CPU.
GPU: Các thuật toán của AI hầu như là tính toán những ma trận (matrix) và tensor, có số hàng số cột cực lớn nên phải dùng kỹ thuật tính toán song song. Và ngẫu nhiên may mắn thay, trong máy tính có việc xử lý đồ họa cũng tương tự như vậy, thực hiện bởi khối xử lý đồ họa GPU (Graphical Processing Unit). Đặc biệt trong trò chơi, HDVideo … rất cần loại này nên người ta đã phát triển từ lâu, nay lại càng ngày càng mạnh, càng đắt tiền, ví dụ Ndivia chip A100 giá 10.000 USD, H100 giá 40.000 USD (đây là hàng cấm vận, mỗi trung tâm tính toán cho AI cần hàng chục, hàng trăm con chip này).
Tuy nhiên việc GPU cho AI chỉ là sự tận dụng ngẫu nhiên khả năng xử lý song song trong kỹ thuật đồ họa, vừa thừa chức năng, vừa đắt tiền, tiêu tốn nhiều năng lượng chưa phải là tối ưu. Thiên hạ đang đi tìm cách thiết kế những con chip chuyên dụng cho AI.
Ví dụ như Google với khối xử lý Tensor TPU (Tensor Processing Unit) hay IBM với khối xử lý TRÍ TUỆ NHÂN TẠO – AIU (Artificial Intelligence Unit).
TPU: Khối xử lý Tensor (Tensor Processing Unit) của Google.TPU do Google tạo ra, giúp khối lượng công việc AI chạy hiệu quả hơn, đồng thời cải thiện hiệu suất. Do đó, chúng đặc biệt phù hợp cho các hoạt động như nhận dạng hình ảnh, xử lý ngôn ngữ tự nhiên và các mục đích sử dụng khác yêu cầu xử lý dữ liệu phức tạp.
AIUcủa IBM thiết lập một xu hướng mới cho AI sẽ nói kỹ ở phần 2/sau.
Ngoài ra, khi cần thử nghiệm phát triển những ý tưởng mới, hoặc chế tạo những thiết bị xử lý AI đặc chủng mới mà số lượng tiêu thụ dự kiến không lớn (dưới 1000 đơn vị chẳng hạn) thì nên dùngFPGA: Bộ tăng tốc AI có thể định cấu hình. FPGA là những phần cứng có khả năng lập trình cao, có thể được tùy chỉnh để thực hiện các chức năng cụ thể. Chúng rất lý tưởng cho nhiều ứng dụng AI vì tính linh hoạt của chúng, bao gồm xử lý ngôn ngữ tự nhiên và nhận dạng hình ảnh theo thời gian thực.
AI yêu cầu hệ thốngbộ nhớ hiệu quả để lưu trữ và truy xuất dữ liệu cần thiết để xử lý. Để tránh tắc nghẽn truy cập dữ liệu, bộ nhớ tốc độ cao và dung lượng lớn là rất quan trọng. Vì vậy giải pháp lưu trữ, Quản lý dữ liệu lớn cho AI là một khối phần cứng rất đồ sộ và tinh vi. Các ứng dụng trí tuệ nhân tạo sản xuất và sử dụng khối lượng dữ liệu khổng lồ. Khả năng truy xuất dữ liệu nhanh chóng có thể thực hiện được nhờ các tùy chọn lưu trữ tốc độ cao như ổSSDvà ổNVM, giúp tăng hiệu suất của toàn bộ hệ thống AI
Hiểu được phần cứng đằng sau những tiến bộ này là rất quan trọng trong tương lai khi AI ngày càng được tích hợp nhiều hơn vào mọi khía cạnh của cuộc sống của chúng ta. Con đường phía trước rất hấp dẫn vì nó hứa hẹn phần cứng AI hiệu quả và mạnh mẽ hơn nữa sẽ cung cấp năng lượng cho thế hệ thống thông minh tiếp theo.
(còn tiếp)
Theo Khoa học và Phát triển
Đọc thêm Sống với AI Ngành công nghiệp bán dẫn: Cơ hội và tương lai cho Việt Nam ? (Kỳ 1) Ngành công nghiệp bán dẫn: Cơ hội và tương lai cho Việt Nam? (Kỳ 2) Trí tuệ cho cuộc sống |