AI có thực sự thúc đẩy truyền thông khoa học?

Từ săn tìm bằng chứng về các hạt hạ nguyên tử đến thúc đẩy quá trình chẩn đoán bệnh, AI đang dần chuyển đổi khoa học và dẫn đến giải Nobel Vật lý năm 2024. Claire Malone, một tiến sĩ Vật lý năng lượng cao tại Đại học Cambridge, giải thích lý do tại sao công nghệ này cũng có thể - mặc dù có một số nghi ngờ - là cơ hội tốt cho truyền thông khoa học.

Trí tuệ nhân tạo (AI) ngày càng được sử dụng rộng rãi để tạo ra thông tin. Nhưng nỗi sợ cũng gia tăng cho rằng thông tin được tạo ra bởi AI là phi khoa học. Tuy nhiên, đối với những người áp dụng AI để truyền bá khoa học, công nghệ mới này cũng có nhiều lợi thế. (Ảnh: iStock/smartboy10)

Vào tháng 8/2024, tạp chí Cosmos – một tạp chí khoa học đại chúng có ảnh hưởng của Úc – thấy rằng mình không chỉ đưa tin mà còn trở thành nguồn thông tin. Thuộc sở hữu của NXB CSIRO (Commonwealth Scientific and Industrial Research Organisation Tổ chức Nghiên cứu Khoa học và Công nghiệp Khối thịnh vượng chung) – một phần của cơ quan khoa học quốc gia Úc –Cosmos đã đăng trên trang web của mình một loạt bài được viết bằng trí tuệ nhân tạo tạo sinh với tên gọi “Người giải thích”, như một phần của một thí nghiệm do Quỹ Walkley (một tổ chức phi lợi nhuận độc lập của Úc) tài trợ. Với các chủ đề như lỗ đen và bồn chứa carbon, nội dung các bài do AI viết đã được kiểm tra thực tế từ kho lưu trữ của tạp chí gồm hơn 15.000 bài viết trước đây. Mục đích của thử nghiệm này là nhằm phủ nhận nỗi lo về thông tin sai lệch do AI tạo ra. Nhưng ít nhất một trong những bài viết như thế đã có chứa thông tin không chính xác.

Những người chỉ trích, chẳng hạn như Jackson Ryan (phóng viên KH&CN của đơn vị Khoa học ABC) đã lên án thử nghiệm của Cosmos là làm suy yếu và hạ thấp giá trị của báo chí khoa học chất lượng cao. Ryan viết trên blog Substack của mình rằng AI không chỉ bịa ra mọi thứ và tự đào tạo bản thân trên các tài liệu có bản quyền mà “phần lớn còn đưa ra một kiểu văn xuôi lạnh lùng, nhàm chán”. Nhiều cựu nhân viên của tạp chí cũng phàn nàn với ABC News (nguồn thông tin đáng tin cậy nhất của Úc) là không biết gì về thử nghiệm này vì nó diễn ra chỉ vài tháng sau khi tạp chí sa thải năm trong số tám nhân viên của mình.

Sự cố Cosmos là lời nhắc nhở chúng ta đang ở giai đoạn đầu của việc sử dụng AI tạo sinh trong truyền thông khoa học. AI rất dễ mắc lỗi và góp phần vào làn sóng thông tin sai lệch trực tuyến, có khả năng gây tổn hại đến xã hội hiện đại, nơi KH&CN định hình nên rất nhiều khía cạnh trong cuộc sống của chúng ta. Truyền thông khoa học chính xác, chất lượng cao là điều cần thiết, đặc biệt là nếu chúng ta muốn khơi dậy sự quan tâm của công chúng đối với vật lý và khuyến khích nhiều người hơn nữa tham gia vào ngành khoa học này.


Sự cố Cosmos là lời nhắc nhở chúng ta đang ở giai đoạn đầu của việc sử dụng AI tạo sinh trong truyền thông khoa học. AI rất dễ mắc lỗi và góp phần vào làn sóng thông tin sai lệch trực tuyến, có khả năng gây tổn hại đến xã hội hiện đại, nơi KH&CN định hình nên rất nhiều khía cạnh trong cuộc sống của chúng ta. 

Kanta Dihal, người nghiên cứu hiểu biết của công chúng về AI ở Imperial College London, cảnh báo, tác động của những tiến bộ gần đây trong AI tạo sinh đối với truyền thông khoa học “theo nhiều cách đáng lo ngại hơn là thú vị”. Chắc chắn, AI có thể cân bằng sân chơi bằng cách, ví dụ, cho phép sinh viên học các kỹ năng chỉnh sửa video mà không cần các công cụ đắt tiền và giúp những người khuyết tật tiếp cận tài liệu khóa học ở các định dạng dễ tiếp cận hơn. Dihal nói “nhưng sự lạm dụng và thông tin sai lệch trên quy mô lớn ngay lập tức cũng xuất hiện”.

Một mặt, chúng ta cần phải nghiêm túc xem xét những mối quan tâm này, nhưng mặt khác AI cũng có thể mang lại lợi ích cho truyền thông khoa học theo những cách mà bạn có thể không nhận ra. Nói một cách đơn giản, AI sẽ tồn tại lâu dài – trên thực tế, khoa học đằng sau nó đã giúp nhà vật lý John Hopfield và nhà khoa học máy tính Geoffrey Hinton giành được giải Nobel Vật lý năm 2024. Vậy làm thế nào chúng ta có thể khống chế AI để đạt hiệu quả tốt nhất không chỉ trong khoa học mà còn để nói với thế giới về khoa học?

Trò chơi nguy hiểm

AI tạo sinh là một bước tiến từ “máy học” (machine learning), theo đó máy tính dự đoán cách một hệ thống sẽ hoạt động như thế nào dựa trên dữ liệu được phân tích. Ví dụ, máy học được sử dụng trong vật lý năng lượng cao để mô hình hóa tương tác giữa các hạt và hiệu suất máy dò. Nó thực hiện điều này bằng cách học cách nhận ra các mẫu (patterns) trong nhiều dữ liệu hiện có, trước khi đưa ra dự đoán và sau đó xác thực các dự đoán đó khớp với dữ liệu gốc. Máy học giúp các nhà nghiên cứu không phải sàng lọc thủ công hàng terabyte dữ liệu từ các thí nghiệm như các thí nghiệm tại Máy va chạm Hadron lớn (Large Hadron Collider) của CERN (Tổ chức Nghiên cứu Hạt nhân châu Âu, một trong những trung tâm nghiên cứu khoa học lớn nhất và uy tín nhất thế giới). Mặt khác, AI tạo sinh không chỉ nhận dạng và dự đoán các mẫu – nó còn có thể tạo ra các mẫu mới. Đối với văn viết, AI tạo sinh có thể sáng tạo ra một câu chuyện từ một vài dòng nhập liệu. Chính khả năng tạo ra ngôn ngữ này đã gây ra sự phẫn nộ đối với tạp chí Cosmos và khiến một số nhà báo lo lắng một ngày nào đó, AI có thể khiến công việc của họ trở nên lỗi thời. Vấn đề là làm thế nào để AI có thể tạo ra các câu trả lời có cảm giác như một cuộc trò chuyện thực sự?

Claude Shannon là một kỹ sư điện và nhà toán học được coi là “cha đẻ của lý thuyết thông tin”. Đây là bức ảnh chụp ông vào năm 1952 với một ví dụ sơ khai về máy học – một con chuột đồ chơi có bánh xe tên là Theseus được thiết kế để tìm đường di chuyển qua một mê cung. (Ảnh: Yale Joel/The LIFE Picture Collection/Shutterstock)

Có lẽ AI tạo sinh nổi tiếng nhất là ChatGPT (GPT là viết tắt của Generative Pre-trained Transformer). Đây là một ví dụ về Mô hình ngôn ngữ lớn (Large Language Model). Mô hình hóa ngôn ngữ đã có từ những năm 1950, khi nhà toán học người Mỹ Claude Shannon áp dụng lý thuyết thông tin – một nhánh của toán học liên quan đến việc định lượng, lưu trữ và truyền thông tin – vào ngôn ngữ của con người. Shannon đã định lượng mức độ mà các mô hình ngôn ngữ có thể dự đoán một cách tốt nhất từ tiếp theo trong một câu bằng cách xác định xác suất cho từng từ dựa trên các mẫu trong dữ liệu mà mô hình được học.

Các phương pháp mô hình hóa ngôn ngữ thống kê như vậy hiện là nền tảng cho một loạt các tác vụ xử lý ngôn ngữ tự nhiên, từ xây dựng phần mềm kiểm tra chính tả đến việc dịch giữa các ngôn ngữ khác nhau và thậm chí nhận dạng giọng nói của con người. Những tiến bộ gần đây trong các mô hình này đã mở rộng đáng kể khả năng của các công cụ AI tạo sinh, với chức năng như những “chatbot” (chương trình máy tính được thiết kế để hiểu và xử lý ngôn ngữ của con người, có khả năng trả lời các câu hỏi, cung cấp thông tin, v.v., dựa trên yêu cầu của người dùng), giúp việc sử dụng đặc biệt dễ dàng.

Một triệu người đã dùng ChatGPT chỉ trong năm ngày sau khi ra mắt vào tháng 11/2022. Kể từ đó, các công ty khác đã công bố các công cụ tương tự, đáng chú ý là Gemini (một chatbot trí tuệ nhân tạo ra mắt vào năm 2023 dựa trên mô hình ngôn ngữ lớn và trở thành một cơn địa chấn mới sau sự ra đời của ChatGPT) và Perplexity (một công cụ tìm kiếm thông minh ra mắt năm 2022 như một trợ lý ảo biết trò chuyện, có thể trả lời câu hỏi bằng ngôn ngữ tự nhiên dựa trên khả năng dự đoán những gì người dùng muốn biết) của Google. Với hơn 600 triệu người dùng mỗi tháng tính đến tháng 9/2024, ChatGPT được đào tạo trên nhiều nguồn, bao gồm sách, bài viết trên Wikipedia và nhật ký trò chuyện (mặc dù danh sách chính xác không được mô tả rõ ràng ở bất kỳ đâu). AI phát hiện các mẫu trong văn bản và tạo câu bằng cách dự đoán từ tiếp theo có khả năng xuất hiện với xác suất cao nhất.

ChatGPT hoạt động giống như một máy đánh bạc, với một xác suất nhất định được gán cho mỗi từ tiếp theo có thể xuất hiện trong câu. Trên thực tế, thuật ngữ AI có phần gây hiểu lầm là “phỏng đoán dựa trên thống kê” nhiều hơn là trí thông minh thực sự, điều này giải thích tại sao ChatGPT có xu hướng mắc lỗi cơ bản hoặc gây “ảo giác”. Cade Metz, phóng viên công nghệ của New York Times, ước tính thời gian mà các chatbot “sáng tạo” ra thông tin lên tới 27% của toàn thời gian hoạt động của chúng.

Một ảo giác đáng chú ý đã xảy ra vào tháng 2/2023 khi Bard – tiền thân của Google so với Gemini – tuyên bố trong buổi trình diễn công khai đầu tiên rằng Kính viễn vọng không gian James Webb (James Webb Space Telescope, JWST) đã chụp được “bức ảnh đầu tiên nhất về một hành tinh bên ngoài hệ Mặt trời của chúng ta”. Nhưng như Grant Tremblay từ Trung tâm Vật lý thiên văn Hoa Kỳ đã chỉ ra, kỳ tích này đã được thực hiện vào năm 2004, khoảng 16 năm trước khi JWST được phóng lên không gian, bởi Kính viễn vọng rất lớn của Đài quan sát Nam Âu (European Southern Observatory’s Very Large Telescope) đặt tại Chile.

Một sự cố đáng xấu hổ khác là bức ảnh giải phẫu không chính xác một cách buồn cười về một con chuột do máy tạo hình ảnh AI Midjourney (một phòng thí nghiệm độc lập dựa trên trí tuệ nhân tạo để cho hình ảnh từ các mô tả văn bản) tạo ra, xuất hiện trong một bài báo trên một tạp chí khoa học (bài báo này sau đó đã bị thu hồi). Một số ảo giác khác thậm chí còn nghiêm trọng hơn. Ví dụ, những người hái nấm nghiệp dư đã được cảnh báo tránh xa các hướng dẫn (nhiều khả năng do AI viết ra) tìm thực phẩm trực tuyến nhưng lại chứa thông tin trái ngược với các phương pháp tìm kiếm an toàn. Nhiều loại nấm dại ăn được trông rất giống với các loại nấm độc tương tự, khiến việc nhận dạng cẩn thận trở nên vô cùng quan trọng.

Bằng cách sử dụng AI để viết nội dung trực tuyến, chúng ta có nguy cơ kích hoạt một vòng luẩn quẩn của những tuyên bố ngày càng gây hiểu lầm, làm ô nhiễm Internet bằng đầu ra chưa được xác minh. Hơn nữa, AI có thể duy trì những thành kiến hiện có trong xã hội. Ví dụ, Google đã buộc phải công bố một lời xin lỗi đáng xấu hổ, nói rằng họ sẽ “tạm dừng” khả năng tạo hình ảnh bằng chatbot Gemini sau khi dịch vụ này được sử dụng để tạo hình ảnh về những người lính Đức Quốc xã có chủng tộc đa dạng.


Bằng cách sử dụng AI để viết nội dung trực tuyến, chúng ta có nguy cơ kích hoạt một vòng luẩn quẩn của những tuyên bố ngày càng gây hiểu lầm, làm ô nhiễm Internet bằng đầu ra chưa được xác minh.

Nghiêm trọng hơn, phụ nữ và một số nhóm người thiểu số không được đại diện đầy đủ trong dữ liệu chăm sóc sức khỏe, làm sai lệch bộ dữ liệu để máy học và có khả năng làm sai lệch các khuyến nghị của thuật toán AI dự đoán. Một nghiên cứu do Laleh Seyyed-Kalantari từ Đại học Toronto (Nature Medicine 27, 2176) dẫn đầu đã phát hiện ra rằng chẩn đoán X-quang ngực bằng máy tính kém chính xác hơn đối với bệnh nhân da đen so với bệnh nhân da trắng.

AI tạo sinh thậm chí có thể làm tăng sự bất bình đẳng nếu nó trở nên quá thương mại. “Hiện tại có rất nhiều AI tạo sinh miễn phí, nhưng tôi cũng có thể thấy rằng sẽ ngày càng bất bình đẳng hơn trong tương lai rất gần”, Dihal cảnh báo. Ví dụ, những người có khả năng chi trả cho các gói đăng ký ChatGPT có quyền truy cập vào các phiên bản AI dựa trên dữ liệu đào tạo mới nhất. Do đó, họ nhận được phản hồi tốt hơn so với những người dùng bị giới hạn ở phiên bản “miễn phí”.

Giao tiếp rõ ràng

Nhưng các công cụ AI có thể làm được nhiều hơn là chỉ tạo ra các bài viết không có cảm hứng và gây ra vấn đề tranh cãi. Một điểm tuyệt vời của ChatGPT là người dùng tương tác với nó theo kiểu trò chuyện, giống như bạn đang nói chuyện với một hướng dẫn viên tại một bảo tàng khoa học hoặc một lễ hội khoa học. Bạn có thể bắt đầu bằng cách nhập một câu hỏi đơn giản (chẳng hạn như “Sự rối lượng tử là gì?”) trước khi đi sâu vào chi tiết (ví dụ “Những loại hệ vật lý nào được sử dụng để tạo ra rối lượng tử?”). Bạn sẽ nhận được câu trả lời đáp ứng nhu cầu của mình tốt hơn bất kỳ một sách giáo khoa chuẩn nào.

AI tạo sinh cũng có thể thúc đẩy khả năng tiếp cận vật lý bằng cách cung cấp một cách tương tác giữa các nhóm của những người có thể gặp rào cản khi tiếp cận các nguồn giáo dục theo các định dạng truyền thống hơn, chẳng hạn như trẻ em gái, người da màu hoặc học sinh có hoàn cảnh thu nhập thấp. Đó là ý tưởng đằng sau các nền tảng học trực tuyến như Khan Academy (một tổ chức phi lợi nhuận nhằm cung cấp một nền giáo dục với đẳng cấp quốc tế, hoàn toàn miễn phí, cho bất kỳ ai, ở bất kỳ nơi đâu), nơi đã tích hợp phiên bản tùy chỉnh của ChatGPT vào các dịch vụ học phí của mình.

Claire Malone sử dụng phần mềm do AI hỗ trợ để chuyển giọng nói thành văn bản, giúp cô dễ dàng làm việc như một người truyền bá khoa học, mặc dù cô ấy bị bại não. (Ảnh: Claire Malone)

Thay vì đưa ra câu trả lời đầy đủ cho các câu hỏi, AI tạo sinh được lập trình để nhắc nhở người dùng tự tìm ra giải pháp. Ví dụ, nếu một học sinh hỏi: “Tôi muốn hiểu về trọng lực” thì chương trình gia sư do AI tạo sinh của Khan hỗ trợ, trước tiên sẽ hỏi lại học sinh là đã biết gì về chủ đề này. Như thế, “cuộc trò chuyện” giữa học sinh và chatbot sau đó sẽ tiến triển theo phản hồi của học sinh.

AI cũng có thể xóa bỏ rào cản mà một số người gặp phải khi truyền đạt khoa học, cho phép nhiều tiếng nói hơn được lắng nghe và do đó tăng cường lòng tin của công chúng vào khoa học. AI đã thay đổi cách những người bị bại não làm việc tốt hơn bằng cách cho phép chuyển lời nói của họ thành văn bản ngay lập tức. AI cũng giúp ích cho Duncan Yellowlees (một người mắc chứng khó đọc) dạy các nhà nghiên cứu cách giao tiếp. Duncan Yellowlees nói: “Tôi thấy việc viết văn bản dài thực sự khó chịu, vì vậy tôi nói với phần mềm OtterAI (phần mềm của Công ty Otter.ai của Mỹ có trụ sở tại Mountain View, California, chuyên phát triển các ứng dụng phiên âm giọng nói thành văn bản bằng trí tuệ nhân tạo và máy học) chuyển đổi giọng nói của tôi thành văn bản”. Văn bản đó được gửi đến ChatGPT và được chuyển đổi thành dạng blog. “Vì vậy, đó chính là suy nghĩ của tôi, nhưng tôi không phải viết chúng ra giấy”. Thêm nữa, Matthew Tosh, một nhà vật lý thuyết trình khoa học chuyên về pháo hoa, bị mắc một căn bệnh làm anh phải đối mặt với những khó khăn ngày càng tăng trong việc viết ra những điều cần trình bày một cách súc tích. Tuy nhiên, ChatGPT cho phép anh tạo bản nháp các bài đăng trên phương tiện truyền thông xã hội, rồi sau đó anh ấy viết lại trên các trang web của riêng mình. Kết quả là, anh có thể duy trì sự hiện diện quan trọng đó trên phương tiện truyền thông xã hội trong khi vẫn kiểm soát được khuyết tật của mình.


Nếu chúng ta muốn duy trì chất lượng báo chí khoa học – điều vô cùng quan trọng đối với niềm tin của công chúng vào khoa học – chúng ta phải liên tục đánh giá và quản lý cách AI được đưa vào hệ sinh thái thông tin khoa học.

Mặc dù thỉnh thoảng các chatbot hoạt động dựa trên trí tuệ nhân tạo vẫn tạo ra lỗi dưới dạng các thông tin sai lệch, nhưng đó không phải là điều gì mới mẻ. “Thật không may, đó là một phần của hành vi con người”, Tosh thừa nhận. Trên thực tế, Tosh cho rằng, một cách kỳ lạ, lỗi lại có thể là một điều tích cực. Những học sinh nghĩ sai rằng một kg đạn đại bác sẽ rơi nhanh hơn một kg lông vũ tạo ra cơ hội hoàn hảo để giáo viên thảo luận về cơ học Newton. Tosh nói “Theo một vài khía cạnh nào đó, một chút thông tin sai lệch có thể là sự khởi đầu cho một cuộc trò chuyện hữu ích”.

AI như một công cụ chuyển giọng nói thành văn bản

Là một nhà báo khoa học – và trước đây là một nhà nghiên cứu săn lùng các hạt mới từ các dữ liệu của thí nghiệm ATLAS (thí nghiệm máy dò hạt đa năng lớn nhất tại Máy va chạm Hadron lớn) tại CERN – Claire Malone đã muốn sử dụng các chương trình chuyển giọng nói thành văn bản để hoàn thành các nhiệm vụ của cô, vì cô bị khuyết tật – bại não – khiến việc đánh máy trở nên không hiện thực. Điều này có nghĩa là trong một thời gian dài cô phải đọc chính tả công việc của mình cho một nhóm trợ lý học thuật trong nhiều giờ mỗi tuần. Nhưng vào năm 2023, Claire Malone bắt đầu sử dụng Voiceitt (một công nghệ được AI hỗ trợ nhằm nhận dạng giọng nói cho những người có khuyết tật về giọng nói, người lớn tuổi và người nói giọng địa phương) để tối ưu hóa việc nhận dạng giọng nói cho những người có giọng nói không chuẩn như cô. Ứng dụng được đào tạo bằng cách đầu tiên đọc ra một vài trăm cụm từ đào tạo ngắn. Sau đó, nó triển khai AI để áp dụng hàng nghìn giờ của các mô hình loa không chuẩn khác trong cơ sở dữ liệu của nó để tối ưu hóa quá trình đào tạo nó. Khi được sử dụng, Voiceitt tiếp tục tinh chỉnh mô hình AI, cải thiện khả năng nhận dạng giọng nói theo thời gian. Ứng dụng cũng có một mô hình AI tạo sinh để sửa bất kỳ lỗi ngữ pháp nào sinh ra trong quá trình phiên âm. Mỗi tuần, Claire Malone thấy mình sửa các bản phiên âm của ứng dụng ngày càng ít hơn, đó là một điểm cộng khi phải đối mặt với hạn nộp bài của các bài viết.

Hình ảnh do AI tạo ra về con chuột này ban đầu xuất hiện trên tạp chí Frontiers in Cell Biology (11, 1339390). Việc sử dụng AI trong hình ảnh này, có rất ít điểm tương đồng với giải phẫu của một con chuột thật, ban đầu không được tiết lộ và bài báo sau đó đã bị rút lại. (Theo Xinyu Guo, Liang Dong và Dingjun Hao)

Trợ lý AI hoàn hảo?

Một trong những tổ chức phát hành tin tức đầu tiên thử nghiệm các công cụ AI là Associated Press (AP). Vào năm 2014 tổ chức này đã bắt đầu thực hiện việc tự động hóa các câu chuyện tài chính thường lệ về thu nhập của công ty. AP hiện cũng sử dụng AI để tạo bản ghi chép video, viết tóm tắt các sự kiện thể thao và đưa ra xu hướng trong các tập dữ liệu thị trường chứng khoán lớn. Các cơ quan truyên thông khác cũng sử dụng các công cụ AI để tăng tốc các tác vụ “hậu cần” như phiên âm các cuộc phỏng vấn, phân tích thông tin hoặc chuyển đổi các tệp dữ liệu. Các công cụ như MidJourney thậm chí còn có thể giúp các nhà báo tóm tắt nội dung sự kiện cho các họa sĩ chuyên nghiệp để tạo ra hình ảnh minh họa phù hợp.

Tuy nhiên, có một ranh giới mong manh giữa việc sử dụng AI để tăng tốc quy trình làm việc và để nó tạo ra nội dung chính xác mà không cần sự can thiệp của con người. Nhiều cơ quan báo chí và hiệp hội nhà văn đã đưa ra tuyên bố đảm bảo không sử dụng AI tạo sinh để thay thế cho các nhà văn và biên tập viên là con người. Ví dụ, Physics World đã cam kết không xuất bản nội dung mới được tạo ra hoàn toàn bằng AI, mặc dù tạp chí này có sử dụng AI để hỗ trợ phiên âm và tóm tắt các cuộc phỏng vấn.

Vậy làm thế nào để AI tạo sinh có thể được tích hợp vào giao tiếp khoa học một cách hiệu quả và đáng tin cậy? Thứ nhất, điều quan trọng là phải đặt câu hỏi đúng – trên thực tế, việc soạn thảo một lời nhắc có thể mất nhiều lần thử để có được kết quả mong muốn. Ví dụ, khi tóm tắt một tài liệu, một lời nhắc tốt phải bao gồm độ dài từ tối đa, chỉ dẫn về việc tóm tắt nên theo dạng đoạn văn hay theo các gạch đầu dòng, cũng như thông tin đầy đủ về mục tiêu của đối tượng và phong cách hoặc giọng điệu cần thiết. Thứ hai, thông tin thu được từ AI cần phải được kiểm tra thực tế. Nó có thể dễ dàng gây ảo giác, khiến chatbot giống như một đồng nghiệp không đáng tin cậy (mặc dù đôi khi rất thông minh) có thể hiểu sai vấn đề. Phil Robinson, biên tập viên của Chemistry World (tạp chí hàng đầu của Hội Hóa học Hoàng gia từ 2004, là nguồn tài nguyên có giá trị cho các chuyên gia, học giả và những người quan tâm đến hóa học và các ứng dụng của nó), cảnh báo “Đừng cho rằng bất kể công cụ AI nào cũng là chính xác. Hãy sử dụng AI như cách bạn tham vấn một người đồng cấp hoặc đồng nghiệp, người luôn hỏi lại bạn nói rằng “Bạn đã thử cách này chưa?” hoặc “Bạn đã nghĩ đến điều đó chưa?”. Cuối cùng, những người làm công tác truyền thông khoa học phải minh bạch trong việc giải thích cách họ sử dụng AI. AI tạo sinh sẽ tồn tại lâu dài – và những người làm công tác truyền thông khoa học và các nhà báo vẫn đang tìm cách sử dụng AI một cách tốt nhất để truyền đạt khoa học một cách chính xác và hiệu quả nhất. Nhưng nếu chúng ta muốn duy trì chất lượng báo chí khoa học – điều vô cùng quan trọng đối với niềm tin của công chúng vào khoa học – chúng ta phải liên tục đánh giá và quản lý cách AI được đưa vào hệ sinh thái thông tin khoa học.

AI tạo sinh có thể giúp bạn nói những gì bạn muốn nói. Nhưng, như Dihal kết luận “Nó không thể thay thế cho việc có điều gì đó để nói” (với hàm ý rằng khả năng hội thoại không phải là điều quan trọng mà quan trọng hơn là khả năng truyền đạt thông tin một cách trung thực và có ý nghĩa).□

Nguyễn Bá Ân dịch

Nguồn:

Bài đăng Tia Sáng số 23/2024

Tác giả

(Visited 45 times, 45 visits today)