Các thuật toán AI cải thiện sự phân tích hình ảnh y khoa

Sự phổ biến của phương pháp chụp cắt lớp phát xạ positron (PET) và chụp cắt lớp vi tính (CT) đem lại nhiều dữ liệu hình ảnh y khoa.

Bảy nhóm nghiên cứu xuất sắc nhất autoPET đã báo cáo trên tạp chí Nature Machine Intelligence (DOI: 10.1038/s42256-024-00912-9) về cách các thuật toán có thể phát hiện được những thương tổn khối u trong chụp cắt lớp phát xạ positron (PET) và chụp cắt lớp vi tính (CT).

PET sử dụng các nhân phóng xạ để hiển thị các quá trình trao đổi chất trong cơ thể. Tốc độ chuyển hóa của các khối u ác cao hơn so với các mô lành. Đường glucose được dán nhãn phóng xạ, thông thường là fluorine-18-deoxyglucose (FDG), được tạo ra cho mục đích chụp ảnh PET này. Còn với CT, cơ thể được quét theo lớp bởi ống tia X để hiển thị về mặt giải phẫu và vị trí của các khối u.

Tự động hóa có thể rút ngắn thời gian và cải thiện sự đánh giá

Các bệnh nhân ung thư thường có hàng trăm thương tổn, ví dụ như những thay đổi về bệnh lý do sự tăng trưởng của các khối u. Để có được một bức tranh toàn diện, cần phải nắm bắt được mọi thương tổn. Các bác sĩ xác định kích thước của các thương tổn u bằng việc đánh dấu các hình ảnh cắt lớp hai chiều – một nhiệm vụ vô cùng mất thời gian.

“Đánh giá tự động bằng một thuật toán có thể rút ngắn thời gian xuống một cách đáng kể và cải thiện được kết quả chẩn đoán và điều trị”, theo giải thích của giáo sư Rainer Stiefelhagen, người đứng đầu bộ phận thị giác máy tính của phòng thí nghiệm Tương tác người máy (cv:hci) tại KIT.

Stiefelhagen và Zdravko Marinov, một nghiên cứu sinh tại cv:hci, tham gia cuộc thi autoPET quốc tế vào năm 2022 và đứng ở vị trí thứ năm trong số 27 đội đoạt giải, trên tổng số 359 đội từ các nơi trên khắp thế giới. Các nhà nghiên cứu Karlsruhe lập một đội với giáo sư Jens Kleesiek và Lars Heiliger từ Viện Trí tuệ nhân tạo trong y học (IKIM) ở Essen.

Do bệnh viện đại học Tübingen và bệnh viện LMU Munich tổ chức, autoPET kết hợp hình ảnh và máy học. Nhiệm vụ này phân loại một cách tự động các tổn thương khối u đang hoạt động chuyển hóa và hiển thị trên các hình ảnh PET/CT toàn bộ cơ thể.

Để huấn luyện thuật toán này, các nhóm nghiên cứu đã truy cập vào bộ dữ liệu PET/CT lớn đã được chú giải. Tất cả các thuật toán được sử dụng cho chung kết cuộc thi dựa trên các phương pháp học sâu, một dạng máy học sử dụng các mạng thần kinh nhân tạo đa lớp để ghi nhận các mô hình phức tạp và có những tương quan với lượng lớn dữ liệu. Bảy đội mạnh nhất từ cuộc thi autoPET đều đã báo cáo về những khả năng phân tích tự động dữ liệu hình ảnh y khoa trong bài báo của họ.

Thuật toán phát hiện các tổn thương khối u vượt trội

Như các nhà nghiên cứu lý giải trong bài báo của họ, một tập hợp các thuật toán được xếp hạng cao đã chứng tỏ sự ưu việt so với từng thuật toán đơn lẻ. Tập hợp các thuật toán đó có thể phát hiện được các tổn thương khối u một cách hiệu quả và chính xác.

“Trong khi hiệu suất của các thuật toán về đánh giá dữ liệu hình ảnh một phần phụ thuộc vào số lượng và chất lượng của dữ liệu, việc thiết kế thuật toán là một nhân tố quan trọng khác, ví dụ với quyết định dựa trên quá trình hậu xử lý các phân đoạn được dự đoán”, Stiefelhagen giải thích.

Tuy nhiên vẫn cần nghiên cứu nữa để cải thiện các thuật toán và khiến chúng thêm hiệu quả hơn trước những ảnh hưởng từ bên ngoài vì vậy có thể hữu dụng trong các thực hành lâm sàng hàng ngày. Mục đích của nghiên cứu bổ sung này là tự động hóa phân tích một cách đầy đủ phân tích dữ liệu hình ảnh PET và CT y học trong tương lai gần.

Thanh Phương dịch từ Karlsruhe Institute of Technology

Nguồn: https://www.informatik.kit.edu/english/11147_14276.php

Tác giả

(Visited 4 times, 1 visits today)