Nobel Vật lý và Hóa học 2024: Xóa nhòa biên giới giữa các ngành khoa học
Có lẽ chúng ta đang chứng kiến một thời điểm cột mốc của xu hướng liên kết chặt chẽ giữa các ngành trong khoa học đương đại, nhằm đạt được những thành tựu lớn hơn. Nói riêng, đó là vai trò đã và đang trở nên ngày càng quan trọng của AI trong Vật lý, Hóa học, và rất nhiều ngành khoa học truyền thống khác.
Hằng năm, giải Nobel Vật lý và Hóa học được công bố trong hai ngày liên tiếp trong “tuần Nobel” đầu tháng 10, năm nay là ngày 8/10 và 9/10. Điểm thú vị và gây ngạc nhiên cho rất nhiều người là năm nay, cả hai giải này đều được trao cho những thành tựu của trí tuệ nhân tạo (Artificial Intelligence, hoặc AI), một lĩnh vực rất mới và đang phát triển nhanh chóng, trong hai ngành khoa học có truyền thống lâu đời này. Các phát minh được trao giải Nobel Vật lý đều mang tính nền tảng cho khoa học máy tính và trí tuệ nhân tạo, trong khi các phát minh giành giải Nobel thứ hai thể hiện sự kết hợp rõ ràng và mạnh mẽ giữa AI và các vấn đề quan trọng của Hóa học. Có lẽ chúng ta đang chứng kiến một thời điểm cột mốc của xu hướng liên kết chặt chẽ giữa các ngành trong khoa học đương đại, nhằm đạt được những thành tựu lớn hơn. Nói riêng, đó là vai trò đã và đang trở nên ngày càng quan trọng của AI trong Vật lý, Hóa học, và rất nhiều ngành khoa học truyền thống khác.
AI và nguồn cảm hứng từ vật lý
Giải Nobel Vật lý 2024 được trao cho GS. John Hopfield từ Đại học Princeton (Mỹ), người đã “phát minh ra một kiến trúc mạng (Hopfield network) có thể dùng để lưu giữ và tái tạo các cấu trúc và hình thái (của dữ liệu)” và GS. Geoffrey Hinton từ Đại học Toronto (Canada) với phát minh ra máy Boltzmann, “một kiến trúc mạng mới xuất phát từ mạng Hopfield”.1 Các phát minh trên đều mang tính nền tảng cho khoa học máy tính và AI, nhưng đóng góp của cả hai nhà khoa học này sâu rộng và lớn lao hơn thế. Dù vậy, việc trao giải Vật lý cho GS. Hopfield và Hinton gây ngạc nhiên cho nhiều người,2 bởi khi nói đến Vật lý, thật khó để hình dung ra khoa học máy tính và AI. Có lẽ chúng ta cần một góc nhìn toàn cảnh, liên ngành để hiểu rõ hơn về quyết định này.
GS. Hopfield sinh năm 1933, lấy bằng Tiến sỹ Vật lý năm 1958, và có nhiều đóng góp cho Vật lý khi làm việc ở phòng thí nghiệm Bell, Đại học Berkeley, Đại học Princeton, Viện Công nghệ California, và quay lại Đại học Princeton năm 1997. Trong số các nghiên cứu sinh Tiến sỹ ông hướng dẫn có những nhà Vật lý tên tuổi như Gerald Mahan, Bertrad Halperin, và Steven Girvin. Bên cạnh đó, GS. Hopfield cũng có nhiều đóng góp trong Hóa học và Sinh học. Ông là người đề xuất cơ chế tự sửa lỗi trong sao chép DNA, một quá trình hóa sinh quan trọng cho sự sống.
Kiến trúc mạng Hopfield phát minh năm 1982 là một mạng thần kinh nhân tạo (artificial neural network) đơn giản với cấu trúc ảnh hưởng từ mô hình Ising trong Vật lý và cảm hứng từ mạng thần kinh trong cơ thể sống.3 Trong bài báo giới thiệu kiến trúc mạng Hopfield3, phỏng dịch những câu đầu tiên là “Đi từ tính chất điện hóa của các nơron và tương tác của chúng, chúng ta có thể tìm hiểu các chức năng sinh học cơ bản. Từ hiểu biết về những mạch điện đơn giản, chúng ta có thể lên kế hoạch cho một máy tính phức tạp. Tuy nhiên, vì tiến hóa (trong tự nhiên) không theo kế hoạch nào đặt trước, sẽ là hợp lý khi đặt câu hỏi liệu chức năng của một mạng lưới lớn các nơron (trong cơ thể sống) có phải là hiệu ứng tập thể của việc có một số lượng rất lớn các phần tử đơn giản và tương tác giữa chúng”? Đây chính xác cũng là câu hỏi cơ bản của Vật lý thống kê, và “hiệu ứng tập thể” chính là nguồn gốc của rất nhiều tính chất thú vị của những mô hình Vật lý đơn giản như các mô hình Ising và Heisenberg.
Mạng Hopfield cổ điển có một lớp nhiều nơron, minh họa trong trường hơp đơn giản với ba nơron (các hình tròn màu xanh) trên Hình 1. Các nơron, hoặc nút mạng này có trạng thái X1, X2, X3, gửi ra tín hiệu Y1, Y2, Y3, và tương tác với nhau với cường độ W12, W21, W13, W31, W23, và W32 (mỗi nơron tương tác với mọi nơron khác). Các trạng thái X1, X2, X3 là nhị nguyên, nhận một trong hai giá trị rời rạc, +/-1 hoặc 0/1. Trong quá trình huấn luyện (training), các tương tác được cập nhật để tối thiểu hóa một hàm năng lượng. Việc cập nhật tương tác khi huấn luyện rất quen thuộc với lĩnh vực AI, trong khi cấu trúc mô hình, giá trị trạng thái rời rạc, tương tác giữa các nút mạng, và tối thiểu hóa hàm năng lượng rất quen thuộc với Vật lý, cụ thể là các mô hình Ising và mô hình Heisenberg.
Mạng Hopfield có thể lưu giữ rất nhiều cấu trúc dữ liệu, mỗi cấu trúc được biểu diễn bởi một tập hợp các trạng thái của các nơron. Quan trọng hơn, mạng Hopfield có thể khôi phục một cấu trúc dữ liệu bị nhiễu từ một phần nào đó của cấu trúc, nói khác đi là khôi phục tín hiệu đã biến dạng (nhiễu). Giả dụ chúng ta có một mạng 100 nơron. Khi biết trạng thái của 90 nơron, trạng thái của 10 nơron còn lại có thể được khôi phục bằng quá trình tối thiểu hóa hàm năng lượng. Khả năng này có ảnh hưởng rất lớn đến lĩnh vực nhận dạng và khôi phục dữ liệu, chẳng hạn hình ảnh, những vấn đề quan trọng của AI đương đại. Ở đây, người viết lưu ý rằng cơ chế khôi phục dữ liệu cũng được lấy cảm hứng từ hiện tượng trí nhớ khôi phục của não bộ con người: đôi khi chúng ta không nhớ ngay được một sự kiện nào đó, nhưng một gợi ý nhỏ cũng có thể kích hoạt quá trình khôi phục trí nhớ rất nhanh.
Mạng Hopfield cổ điển đơn giản, có những hạn chế nhất định, và đã được nâng cấp sau đó. Cấu trúc của mạng trở nên phức tạp hơn với nhiều lớp nơron, giá trị trạng thái và tương tác trở nên liên tục. Một phát triển quan trọng là khi có thêm những hàm kích hoạt (activation functions) nhất định,4 khả năng lưu giữ của mạng Hopfield được tăng theo cấp số nhân. Trong một phát triển khác, máy Boltzmann đề xuất bởi GS. Geoffrey Hinton, người sinh năm 1947 và được mệnh danh là một “bố già” của AI, là một phiên bản có yếu tố ngẫu nhiên của mạng Hopfield. Trong khi mạng Hopfield có quá trình huấn luyện tất định (deterministics), hàm năng lượng luôn phải đi xuống, thì máy Boltzmann cho phép hàm năng lượng tăng lên với một xác suất nhất định, tuân theo phân bố Boltzmann. Máy Boltmann thiết lập nhiều nguyên tắc nền tảng quan trọng cho các kỹ thuật AI hiện đại như mạng thần kinh nhân tạo, học không giám sát (unsupervised learning – cho phép máy tính có thể tự phân tích dữ liệu mà không cần thêm thông tin bổ sung) hay mô hình có yếu tố ngẫu nhiên (probabilistic models – kỹ thuật dự báo tính đến sự xuất hiện của những sự kiện ngẫu nhiên).
Lấy cảm hứng từ Vật lý và các quá trình Hóa sinh, các GS. Hopfield và Hinton có đóng góp quan trọng cho sự phát triển của AI, và các kỹ thuật này quay lại thay đổi Vật lý. Một ví dụ điển hình là những kiến trúc và kỹ thuật AI hiện đại đã cung cấp một giải pháp tiềm năng cho việc giải phương trình Schrödinger nhiều hạt tương tác,5 trụ cột quan trọng nhất của cơ học lượng tử. Về nguyên tắc, mọi vấn đề trong vật lý lượng tử đều bắt đầu từ việc giải phương trình Schrödinger, nhưng giải được hay không lại là chuyện khác. Đây là vấn đề cơ bản và rất khó của Vật lý mà một trong những giải pháp là quy phương trình Schrödinger nhiều hạt tương tác về phiên bản cho một hạt tưởng tượng có cùng hàm mật độ, và đó là nguồn gốc của phương pháp phiếm hàm mật độ (Density Functional Theory, viết tắt là DFT). Dù được sử dụng rất rộng rãi, DFT không giải quyết được mọi vấn đề, và việc giải phương trình Schrödinger nhiều hạt vẫn rất cần thiết. Các nỗ lực dùng AI cho công việc này là có triển vọng tốt nhưng chưa đi quá xa.5 Có lẽ Ủy ban Nobel đã sử dụng góc nhìn rộng và toàn diện để đánh giá các đóng góp của GS. Hopfield và Hinton trong quyết định trao giải?
Người viết cho rằng việc trao giải thưởng Nobel Vật lý cho cụm công trình AI phản ánh sự công nhận rằng khoa học hiện đại ngày càng mang tính liên ngành, nơi mà những ứng dụng và khám phá lớn có thể bắt nguồn từ sự hiểu biết và sự giao thoa giữa các lĩnh vực khác nhau. Mặc dù công trình không tạo ra một lý thuyết Vật lý mới, nhưng AI có thể áp dụng vào Vật lý như một hướng đi hứa hẹn những nghiên cứu đột phá trong tương lai. Việc trao giải cũng có thể là một lời khẳng định rằng những ứng dụng vượt bậc và có tác động lớn đến thế giới, lấy cảm hứng từ Vật lý, cũng xứng đáng được tôn vinh.
AI và bài toán tưởng chừng vô vọng trong Hóa học
Giải Nobel Hóa học năm 2024 được trao cho GS. David Baker (Đại học bang Washington, Mỹ) cho việc dự đoán cấu trúc và từ đó, thiết kế các phân tử protein mới, TS. Demis Hassabis, và TS. John Jumper, đều thuộc bộ phận Google DeepMind ở London, Anh của Tập đoàn Google, cho công trình tạo ra AlphaFold, một mô hình trí tuệ nhân tạo có thể dự đoán cấu trúc của các phân tử protein ở cấp độ chính xác nguyên tử.6. Ngay sau đó, AlphaFold đã được dùng để dự đoán cấu trúc của 220 triệu phân tử protein, tương đương với hầu như tất cả những protein đã biết trên Trái đất.7
Để hiểu thêm về bản chất và tầm quan trọng của những công trình này, chúng ta bắt đầu từ một nguyên lý căn bản của tự nhiên: cấu trúc của mọi vật chất đều hướng tới trạng thái có năng lượng tối thiểu. Nước chảy chỗ trũng là một ví dụ hằng ngày điển hình cho nguyên lý đó. Trong các khoa học liên quan đến vật chất như Vật lý và Hóa học, rất nhiều trường hợp thành phần của một chất hoặc một phân tử có thể đo được, nhưng cấu trúc nguyên tử, tức là từng nguyên tử một ở vị trí nào trong không gian, thì việc xác định bằng các phương pháp thực nghiệm là rất khó, chậm, hoặc đơn giản là không thực hiện được. Ví dụ, phương pháp (thực nghiệm) đo phổ tia X để giải cấu trúc tinh thể không thể “nhìn” thấy nguyên tử Hydro vì nó quá nhẹ. Vì thế, sử dụng các công cụ tính toán để tìm trạng thái có năng lượng tối thiểu của một tập hợp các nguyên tử, là con đường khả dĩ. Trên nguyên tắc, đây là bài toán tối ưu toàn cục (global optimization), đi tìm cực tiểu toàn cục (global minimum) của hàm năng lượng tương tác giữa các nguyên tử (người viết lưu ý độc giả sự tương tự về nguyên lý đến hàm năng lượng của mạng Hopfield ở trên). Rất nhiều phương pháp dự đoán cấu trúc vật chất trong đó có protein đã được phát triển trong vài chục năm qua. Mỗi phương pháp này phải có một phương án để tính hàm năng lượng và một thuật toán tối ưu toàn cục, chẳng hạn như thuật toán tiến hóa (evolutional algorithm), thuật toán “mô phỏng ủ nhiệt” (simulated annealing), hay tối ưu bầy đàn (particle swarm optimization). Mỗi phương pháp có điểm mạnh và điểm yếu riêng, không lựa chọn nào là hoàn hảo.
Thách thức trong việc tìm cực tiểu toàn cục của hàm năng lượng là rất lớn. Đầu tiên, số lượng các cực tiểu địa phương của hàm năng lượng tăng theo cấp số nhân của số bậc tự do, tức là khoảng gấp ba lần số lượng nguyên tử,8 dẫn đến một nhận xét nổi tiếng năm 1988 rằng việc không dự đoán được cấu trúc của những tinh thể đơn giản là một “bê bối của khoa học”.9 Phân tử protein, được mệnh danh là những viên gạch của sự sống, bao gồm những chuỗi của các axit amin được uốn và quấn vào nhau, tạo thành các cấu trúc 3 chiều hướng tới mức năng lượng tối thiểu. Với số lượng nguyên tử có thể lên đến hàng chục hoặc trăm ngàn, không gian cấu hình và số lượng cực tiểu địa phương của hàm năng lượng thực sự là vô hạn. Tuy nhiên, tình hình chưa hẳn vô vọng. Trong các cấu trúc hoá học hữu cơ, các nguyên tử không thể ở bất cứ đâu. Liên kết hóa học giữa một nguyên tử Carbon và một nguyên tử Hydro ở đâu đó khoảng 1.1 Angstrom10 trong khi liên kết hóa học giữa hai nguyên tử Carbon, tùy bản chất, vào khoảng 1.2 cho đến 1.5 Angstrom. Ngoài ra, góc giữa các liên kết hóa học của các nguyên tử Carbon cũng tương đối xác định, khoảng 109 độ với trạng thái lai hoá sp-3, và khoảng 120 độ với trạng thái lai hoá sp-2. Các ràng buộc này, cùng với các điều kiện khác, nếu được sử dụng, có thể thu hẹp không gian cấu hình của các protein rất nhiều, như cách mà cả ba nhà khoa học nhận giải Nobel năm nay đã làm. Tiếp theo, định nghĩa và tính hàm năng lượng cho những đại phân tử có hàng chục hoặc trăm ngàn phân tử là rất chậm. Cộng với việc phải khảo sát vô số cấu hình nguyên tử để tìm cấu hình có hàm năng lượng thấp nhất, ngay cả những ước tính nhanh nhất cho hàm năng lượng vẫn còn chưa đủ nhanh. Cuối cùng thì vấn đề vẫn còn vô cùng thách thức!
GS. David Baker đã phát triển các phương pháp dự đoán cấu trúc protein trong nhiều năm, sử dụng nhiều cách tính toán và tối thiểu hóa hàm năng lượng như gần đúng bán thực nghiệm cho các tương tác quan trọng như tương tác tĩnh điện, tương tác van de Waals, liên kết hydro, và năng lượng hòa tan.11 Để thu hẹp không gian cấu hình, GS Baker đã áp dụng nhiều kỹ thuật, trong đó việc sử dụng các cụm nguyên tử (cấu trúc địa phương) mà hình học của chúng không thay đổi nhiều từ phân tử này sang phân tử khác, một hệ quả của độ dài và góc liên kết tương đối xác định trong các hợp chất hữu cơ như đã nói ở trên. Các phương pháp này cho phép GS. Baker tiên đoán và thiết kế những phân tử protein hoàn toàn mới, chưa có trong tự nhiên.12 Trong dự án Rosetta@home,13 các phương pháp này cho phép người dùng tiên đoán cấu trúc các protein khi biết chuỗi axit amin. Trong các nghiên cứu gần đây của ông, các kỹ thuật AI mới nhất cũng đã được sử dụng.14
Sự phát triển của AlphaFold dưới sự dẫn dắt của TS. Hassabis và TS. Jumper ở DeepMind đã cách mạng hóa công việc dự đoán cấu trúc và thiết kế phân tử protein. Về mặt kỹ thuật, AlphaFold là một kiến trúc mạng thần kinh nhân tạo rất phức tạp với các “cơ chế lưu ý” (attention mechanism) có ảnh hưởng từ mạng Hopfield, dùng để tiên đoán cấu trúc xương sống (tức là tọa độ nguyên tử của các nguyên tử nặng hơn Hydro) của các phân tử protein khi biết trình tự chuỗi axit amin. Kỹ thuật này không dựa trên việc tính và tối thiểu hóa hàm năng lượng. Trái lại, AlphaFold được huấn luyện trên một số cơ sở dữ liệu cấu trúc Protein nổi tiếng như “Protein Data Bank” và “UniProt” với hàng triệu Protein vốn đã ở sẵn trạng thái năng lượng tối thiểu. Vì thế, giả định cơ bản là sau khi được huấn luyện, AlphaFold nhận vào chuỗi axit amin và cấu trúc được tiên đoán cũng ở trạng thái năng lượng tối thiểu. Giả định này về cơ bản là đúng, hoặc ít nhất là gần đúng tốt.
Các kỹ thuật AI hiện đại cho phép kiến trúc AlphaFold đọc vào cấu trúc protein ba chiều, xác định các cấu trúc địa phương quan trọng, tham số hóa hình thái và cấu trúc của toàn thể phân tử protein, và ánh xạ các tham số này lên chuỗi axit amin tạo nên phân tử protein. Các kỹ thuật này là thành quả của rất nhiều năm phát triển của cả cộng đồng, trong đó có đóng góp của những nghiên cứu cơ bản như của GS. Hopfield và Hinton từ nhiều chục năm trước hoặc những người đã tạo nên các cơ sở dữ liệu mà DeepMind dùng để huấn luyện AlphaFold. Khả năng của mô hình AI này rất ấn tượng. Hình 2 minh họa ba dự đoán cấu trúc của AlphaFold cho 3 protein (màu đậm), khớp một cách gần hoàn hảo với cấu trúc thực nghiệm (màu nhạt). Dưới góc nhìn của các chuyên gia trong ngành, độ chính xác này là phi thường, mở ra khả năng thiết kế các protein mới với những chức năng mong muốn. Đây là bệ phóng cho những thay đổi lớn trong ngành y học và sinh lý học mà trước hết là tiềm năng thiết kế thuốc nhắm đến các bệnh mà chưa có liệu pháp hiệu quả, giảm thiểu nguy cơ phụ thuộc vào các quá trình sinh học tự nhiên, vốn có thể không tối ưu hoặc bị giới hạn bởi sự tiến hóa.
Dù không có giải Nobel chính thức dành cho các khoa học về máy tính và trí tuệ nhân tạo, ảnh hưởng của những ngành này đến mọi mặt của cuộc sống con người là vô cùng to lớn. Giải Nobel Vật lý và Hóa học năm nay có lẽ chỉ là khởi đầu cho việc ghi nhận vai trò của AI trong các ngành khoa học truyền thống và cho nhân loại. Trong tương lai, nếu có một loại thuốc đặc trị ung thư được thiết kế bằng cách “lắp ráp” từng nguyên tử với nhau dưới sự hướng dẫn của các mô hình AI, hoặc một vật liệu siêu dẫn ở nhiệt độ phòng (20-30 độ C) được phát hiện với sự giúp đỡ của AI, những phát minh này đều sẽ ở tầm cỡ của giải Nobel, theo ý kiến của người viết. Khi khoa học đang chuyển dịch theo hướng liên ngành, nhiều cơ hội sẽ được tạo ra. Chúng tôi mong rằng một ngày nào đó, có một cái tên Việt Nam được xướng lên ở những diễn đàn đỉnh cao như giải Nobel.□
——
*TS. Trần Doãn Huân hiện công tác tại Viện Công nghệ Georgia, Mỹ và GS.TS. Vũ Ngọc Tước đang làm việc tại Đại học Bách khoa Hà Nội, Việt Nam.
1 “Thông cáo báo chí”: https://www.nobelprize.org/prizes/physics/2024/press-release/
2 “Why the Nobel Prize in Physics Went to AI Research”: https://spectrum.ieee.org/nobel-prize-in-physics
3 “Neural networks and physical systems with emergent collective computational abilities”: Proc. Natl. Acad. Sci. USA. 1982 Apr; 79(8): 2554–2558.
4 “Dense associative memory for pattern recognition”: https://arxiv.org/abs/1606.01164 và “On a model of associative memory with huge storage capacity”: https://link.springer.com/article/10.1007/s10955-017-1806-y
5 “Accelerating quantum molecular simulations”:https://www.nature.com/articles/s43588-022-00237-w
6 “Highly accurate protein structure prediction with AlphaFold”: https://www.nature.com/articles/s41586-021-03819-2
7 “AlphaFold Protein Structure Database: massively expanding the structural coverage of protein-sequence space with high-accuracy models”:https://academic.oup.com/nar/article/50/D1/D439/6430488?login=false
8 “Exponential multiplicity of inherent structures”: https://journals.aps.org/pre/abstract/10.1103/PhysRevE.59.48
9 “Crystals from first principles”: https://doi.org/10.1038/335201a0
10 1 Angstrom = 10-10m
11 “Protein structure prediction and structural genomics”: https://www.science.org/doi/abs/10.1126/science.1065659, “Protein structure prediction and analysis using the Robetta server”: https://www.science.org/doi/abs/10.1126/science.1065659, “Contact order and ab initio protein structure prediction”: https://onlinelibrary.wiley.com/doi/10.1110/ps.3790102
12 “Design of a Novel Globular Protein Fold with Atomic-Level Accuracy”: https://www.science.org/doi/abs/10.1126/science.1089427
13“Rosetta@home”:https://boinc.bakerlab.org/rosetta/
14 “Accurate prediction of protein structures and interactions using a three-track neural network”: https://www.science.org/doi/abs/10.1126/science.abj8754
Bài đã đăng trong số 20/2024 Tia Sáng