Công cụ AI mới giúp đọc ảnh y tế mà không cần nhiều dữ liệu huấn luyện

Các nhà khoa học tại Mỹ đã tạo ra một công cụ trí tuệ nhân tạo (AI) mới có thể giúp các bác sĩ và nhà nghiên cứu đào tạo phần mềm hình ảnh y tế dễ dàng và rẻ hơn nhiều, ngay cả khi chỉ có một số lượng nhỏ ảnh scan.


Công cụ AI này cải tiến một quy trình gọi là phân vùng ảnh y tế, trong đó mỗi điểm ảnh trong hình được gán nhãn — ví dụ, là mô ung thư hay mô bình thường. Trước đây, quy trình này thường do các chuyên gia giàu kinh nghiệm thực hiện. Tuy nhiên, các thuật toán học sâu đã cho thấy tiềm năng tự động hóa công việc vốn tốn nhiều công sức này.
Mặc dù vậy, các thuật toán học sâu thường đòi hỏi lượng dữ liệu khổng lồ. Để tạo ra những bộ dữ liệu như vậy cần rất nhiều chuyên gia, thời gian và chi phí. Trong bối cảnh có hàng nghìn loại bệnh lý và biểu hiện lâm sàng khác nhau thì khó có thể tạo ra đủ tất cả các loại dữ liệu.
Để khắc phục hạn chế đó, các nhà nghiên cứu từ Đại học California San Diego (Mỹ) đã phát triển một công cụ AI có thể học cách phân đoạn hình ảnh chỉ từ một số ít mẫu được chuyên gia gán nhãn. Nhờ đó, lượng dữ liệu cần thiết giảm tới 20 lần so với cách làm thông thường. Kết quả nghiên cứu được công bố trên tạp chí Nature Communications.
Công cụ này đã được thử nghiệm trên nhiều loại hình ảnh y tế. Nó học cách nhận diện tổn thương da trên ảnh soi da, ung thư vú trên ảnh siêu âm, mạch máu nhau thai trên ảnh nội soi thai, polyp trên ảnh nội soi đại tràng, và loét bàn chân qua ảnh chụp thông thường. Phương pháp này cũng được mở rộng sang hình ảnh 3D, chẳng hạn lập bản đồ hồi hải mã hoặc gan.
Nhóm nghiên cứu cho biết, trong các trường hợp có rất ít dữ liệu đã được dán nhãn, công cụ này vẫn giúp cải thiện hiệu suất mô hình 10–20% so với các phương pháp hiện có. Nó cần ít dữ liệu huấn luyện hơn gấp 8–20 lần so với phương pháp thông thường, nhưng vẫn cho kết quả ngang bằng, thậm chí tốt hơn.
Ví dụ, trong chẩn đoán ung thư da, thay vì cần hàng nghìn hình ảnh đã gán nhãn, một chuyên gia chỉ cần chú thích khoảng 40 hình. Từ đó, công cụ AI có thể hỗ trợ phát hiện tổn thương nghi ngờ trên ảnh soi da của bệnh nhân theo thời gian thực.
Li Zhang, nghiên cứu sinh tiến sĩ tại Khoa Kỹ thuật Điện và Máy tính, Đại học California San Diego, và là tác giả thứ nhất của nghiên cứu, cho biết hệ thống AI của họ hoạt động theo từng giai đoạn.
Đầu tiên, nó học cách tạo ra hình ảnh tổng hợp từ các mặt nạ phân đoạn (segmentation mask). Đây là những lớp phủ màu cho thuật toán biết đâu là vùng khỏe mạnh, đâu là vùng bị bệnh. Sau đó, hệ thống dùng kiến thức này để tạo ra các cặp hình ảnh–mặt nạ nhân tạo, nhằm bổ sung cho bộ dữ liệu thực vốn ít ỏi. Mô hình phân đoạn sẽ được huấn luyện bằng cả hai loại dữ liệu thực và nhân tạo. Thông qua một vòng lặp phản hồi liên tục, hệ thống dần tinh chỉnh các hình ảnh do nó tạo ra, dựa trên mức độ chúng giúp cải thiện việc học của mô hình.
Zhang nhấn mạnh, vòng lặp phản hồi là yếu tố quan trọng giúp hệ thống vận hành hiệu quả: “Thay vì coi việc tạo dữ liệu và huấn luyện mô hình phân đoạn là hai bước riêng biệt, đây là hệ thống đầu tiên kết hợp cả hai vào cùng một chỗ. Hiệu quả phân đoạn trực tiếp định hướng quá trình tạo dữ liệu. Điều đó đảm bảo dữ liệu nhân tạo không chỉ trông giống thật mà còn được thiết kế đặc biệt để nâng cao khả năng phân đoạn của mô hình.”
Trong tương lai, nhóm nghiên cứu dự định phát triển công cụ AI này trở nên thông minh và linh hoạt hơn. Họ cũng sẽ đưa phản hồi từ các bác sĩ lâm sàng trực tiếp vào quá trình huấn luyện để dữ liệu tạo ra phù hợp hơn với ứng dụng thực tế y tế.

Trang Linh lược dịch theo Đại học California San Diego

Bài đăng Tia Sáng số 16/2025

Tác giả

(Visited 4 times, 4 visits today)