Nâng cao nhận thức của xe tự hành giống con người
Làm thế nào để robot di động có thể nhận thức và hiểu được môi trường xung quanh một cách chính xác, ngay cả khi các vật thể che khuất các phần của môi trường? Đây là câu hỏi chính cần giải quyết để đảm bảo độ an toàn của xe tự hành trong các thành phố lớn đông đúc. Con người có thể tưởng tượng cấu trúc vật lý hoàn chỉnh của các vật thể ngay cả khi chúng bị che khuất một phần, nhưng các thuật toán trí tuệ nhân tạo (AI) ứng dụng cho robot và các phương tiện tự hành hiện nay để giúp chúng nhận thức môi trường lại không có khả năng này.
Robot ứng dụng AI có thể tự tìm đường và điều hướng sau khi chúng học được môi trường xung quanh trông như thế nào. Tuy nhiên, việc nhận biết toàn bộ cấu trúc của các đối tượng bị che khuất một phần, chẳng hạn như người trong đám đông hoặc phương tiện giao thông khi tắc đường, là một thách thức lớn. Nghiên cứu mới của Giáo sư Abhinav Valada và nghiên cứu sinh Rohit Mohan ở Robot Learning Lab, Đại học Freiburg (Đức) đã giải quyết vấn đề này. Họ đã phát triển nhiệm vụ phân đoạn toàn cảnh bất phương thức (amodal panoptic segmentation task – nhận thức amodal là nhận thức được toàn bộ cấu trúc vật lý của đối tượng dù chỉ một vài phần của nó truyền tín hiệu đến các thụ thể cảm giác ở mắt, và các phần còn lại bị che khuất) và chứng minh tính khả thi bằng các phương pháp mới. Nhờ đó, xe tự hành có thể sử dụng phân đoạn toàn cảnh để hiểu được môi trường xung quanh.
Từ trước đến nay, xe tự hành chỉ có thể dự đoán pixel nào trong hình ảnh thuộc vùng “nhìn thấy” của các đối tượng như người hoặc xe cộ, và xác định tình huống của các đối tượng đó. Tuy nhiên, chúng không thể dự đoán toàn bộ hình dạng của đối tượng khi có một phần bị che khuất. Việc cải thiện khả năng nhận diện hình ảnh sẽ góp phần mang lại những tiến bộ to lớn nhằm nâng cao độ an toàn của các phương tiện tự lái.
Tiềm năng cách mạng hóa về nhận thức cảnh quan đô thị
Trong một bài báo mới được công bố tại Hội nghị Nhận thức mẫu và thị giác máy tính IEEE/CVF, nhóm nghiên cứu đã bổ sung nhiệm vụ mới vào các bộ dữ liệu chuẩn đã thiết lập và công bố công khai. Hiện nay, họ đang kêu gọi các nhà khoa học tham gia vào quá trình kiểm chuẩn bằng các thuật toán AI của riêng họ.
Mục tiêu của nhiệm vụ này là phân đoạn ngữ nghĩa theo pixel ở từng thời điểm của các vùng có thể nhìn thấy của các loại nền vô định hình như đường xá, thảm thực vật, bầu trời; cũng như phân đoạn cá thể của vùng nhìn thấy cũng như bị che khuất của các đối tượng có thể đếm được như ô tô, xe tải và người đi bộ.
Nhóm nghiên cứu đã công bố công khai điểm chuẩn và các bộ dữ liệu trên website, bao gồm hai thuật toán học tập mới. “Chúng tôi tin tưởng các thuật toán AI mới cho nhiệm vụ này sẽ cho phép robot mô phỏng trải nghiệm thị giác giống con người – có thể nhận thức cấu trúc vật lý hoàn chỉnh của vật thể”, Valada giải thích.
“Phân đoạn toàn cảnh bất phương thức sẽ rất hữu ích với bài toán xe tự hành, trong đó sự che khuất là một thách thức lớn, liên quan đến việc ước tính độ sâu, luồng quang học, theo dõi các đối tượng, dự đoán tư thế, chuyển động… Các thuật toán AI tiên tiến này sẽ cách mạng hóa khả năng nhận dạng trực quan của xe tự hành. Ví dụ, nếu chúng có thể nhận biết được toàn bộ cấu trúc của người tham gia giao thông ở mọi thời điểm, kể cả khi có những chỗ bị che khuất, thì sẽ giảm thiểu đáng kể nguy cơ tai nạn giao thông”.
Ngoài ra, thông qua việc dự đoán thứ tự độ sâu tương quan của các đối tượng trong một khung cảnh, xe tự hành có thể đưa ra các quyết định phức tạp như di chuyển theo hướng nào để có tầm nhìn rõ hơn. Để biến những mục tiêu này thành hiện thực, họ đã trình bày giải pháp với các chuyên gia hàng đầu trong ngành ô tô tại AutoSens – sự kiện về công nghệ hỗ trợ lái xe và xe tự hành, mới diễn ra tại Bảo tàng Autoworld ở Brussels. □
Thanh An dịch
Nguồn: https://techxplore.com/news/2022-09-advancing-human-like-perception-self-driving-vehicles.html