Khung tiếp cận TrustNet để AI đáng tin hơn
Một nhóm nghiên cứu quốc tế vừa đề xuất một khung lý thuyết nhằm trả lời một trong những câu hỏi lớn nhất mà công nghệ trí tuệ nhân tạo (AI) đang phải đối mặt: Chúng ta có thể tin tưởng AI không?

Nếu chúng ta định sử dụng AI để đưa ra những quyết định quan trọng, hoặc thậm chí chỉ để hỗ trợ việc ra quyết định, thì niềm tin là yếu tố then chốt. Nếu chúng ta định rót tiền vào các ứng dụng AI, thì niềm tin lại càng là yếu tố sống còn. Vì vậy, xây dựng được một cách tiếp cận giúp đánh giá tính đáng tin cậy của AI một cách thực chất, cả về mặt khoa học lẫn thực tiễn, sẽ là một bước tiến lớn.
Mới đây, một nhóm các nhà nghiên cứu từ nhiều trường đại học ở Mỹ, Canada, Áo, Hà Lan, Anh và Nhật Bản đã xây dựng một khung tiếp cận liên ngành mang tên “TrustNet Framework”. Mục tiêu của khung này là giúp hiểu rõ hơn và tăng cường niềm tin vào AI, qua đó giải quyết những thách thức lớn của xã hội như tin giả, phân biệt đối xử, phân tích hồ sơ cá nhân, mất việc làm và cả nguy cơ chiến tranh. Khung TrustNet được phát triển từ những ý tưởng ban đầu tại hội thảo TRUST tổ chức ở Vienna (Áo) vào tháng 6/2023.
Để xây dựng Khung TrustNet, nhóm nghiên cứu đã phân tích 34.459 bài báo về niềm tin ở các cấp độ đa ngành, liên ngành và xuyên ngành. Kết quả cho thấy cần nhiều nghiên cứu xuyên ngành hơn nữa về chủ đề này.
Khung TrustNet khuyến khích các nhóm nghiên cứu cân nhắc ba yếu tố:
1. Chuyển hóa vấn đề – tức thay vì chỉ hỏi một câu rất rộng như “Chúng ta có nên tin AI không?”, các nhà nghiên cứu cần tái định hình câu hỏi thành những vấn đề khoa học nhỏ hơn, có thể kết nối với tri thức hiện có.
Ví dụ, với một thách thức xã hội lớn là “có nên áp dụng AI vào trong y tế không”, các nhóm nghiên cứu có thể chẻ nhỏ thành những câu hỏi cụ thể như: “So sánh độ chính xác giữa AI và bác sĩ X-quang trong chẩn đoán 5 loại bệnh phổi, tính theo % sai số và thời gian đọc phim”, “Kiểm tra độ chính xác của AI chẩn đoán trên các nhóm bệnh nhân khác nhau (giới tính, độ tuổi, chủng tộc), xác định mức chênh lệch”, “Đánh giá sự khác biệt trong kết quả điều trị khi AI đề xuất phác đồ cá nhân hóa so với phác đồ chuẩn, dựa trên dữ liệu 1.000 bệnh nhân ung thư”, “Khảo sát mức độ hài lòng của bệnh nhân khi bác sĩ dùng AI hỗ trợ chẩn đoán, so sánh với khi bác sĩ ra quyết định hoàn toàn thủ công”, “Phân tích các kịch bản sai sót trong chẩn đoán AI, so sánh quy định pháp lý về trách nhiệm dân sự và hình sự.” v.v
2. Tạo ra tri thức mới – tức làm rõ vai trò của nhà nghiên cứu và các bên liên quan, đồng thời thiết kế những cách tiếp cận tích hợp để xử lý vấn đề từ nhiều góc nhìn cùng lúc. Cách tiếp cận tích hợp này phải được xây dựng và triển khai dựa trên năm yếu tố cốt lõi của niềm tin — bao gồm độ tin cậy, rủi ro, người dùng, phạm vi và bối cảnh. Nó sẽ là trung tâm để giải quyết các thách thức xã hội lớn liên quan đến niềm tin vào AI và tác động của AI đối với niềm tin trong xã hội.
3. Tích hợp xuyên ngành – tức đánh giá các kết quả tích hợp và chuyển thành sản phẩm phục vụ cả khoa học lẫn xã hội. Ở đây thường nổi lên hai hướng tiếp cận xuyên ngành khác biệt: một hướng thực tiễn tập trung vào các giải pháp xã hội cụ thể, và một hướng khoa học nội ngành hướng tới nghiên cứu thực nghiệm và khám phá. Khung TrustNet sẽ tích hợp các quan điểm đa dạng từ cả hai hướng để thống nhất thông tin chi tiết giữa các lĩnh vực và bối cảnh của các bên liên quan.
Ví dụ, trong trường hợp cần làm rõ “tính giải thích được” (explainability) của AI, khung TrustNet sẽ kết nối các yêu cầu về minh bạch kỹ thuật của lĩnh vực khoa học máy tính với những hiểu biết sâu sắc của lĩnh vực đạo đức và xã hội học về việc giải thích có thể định hình nhận thức của người dùng, ảnh hưởng đến quá trình xử lý thông tin trong não bộ, cũng như niềm tin của con người vào các thể chế như thế nào. Điều này cho phép nhìn nhận “tính giải thích được” một cách toàn vẹn hơn – vừa là đặc tính kỹ thuật, vừa gắn chặt với bối cảnh xã hội.
Theo nhóm nghiên cứu, các khuôn khổ về niềm tin trong tương lai không chỉ cần xem xét cách con người đặt niềm tin vào AI, mà còn phải tính đến cách các hệ thống AI đánh giá và phản ứng trước độ tin cậy của con người, cũng như cách AI xây dựng niềm tin lẫn nhau trong các môi trường kết nối và tự động hóa.
Trang Linh dịch từ North Carolina State University
Nguồn: https://news.ncsu.edu/2025/08/can-we-trust-ai/
