Bệnh nhân nữ bị liệt nặng có thể giao tiếp thông qua avatar

Từ giao diện não-máy tính do các nhà nghiên cứu tại Đại học San Francisco và Đại học Berkeley phát triển, một phụ nữ bị liệt nặng do đột quỵ thân não có thể trò chuyện thông qua hình đại diện số.

Bệnh nhân bị đột quỵ giao tiếp nhờ máy tính dịch tín hiệu não thành lời nói, có chuyển động khuôn mặt thông qua hình đại diện. Nguồn: Noah Berger.

Đây là lần đầu tiên lời nói hay biểu cảm khuôn mặt được tổng hợp từ tín hiệu não. Hệ thống này cũng có thể giải mã tín hiệu thành văn bản với tốc độ gần 80 từ/phút, một bước tiến vượt bậc so với các công nghệ thương mại hiện có.

Bác sĩ Edward Chang, Chủ tịch Khoa giải phẫu thần kinh tại Đại học San Francisco, đã tiến hành nghiên cứu giao diện não-máy tính trong hơn một thập kỷ qua. Ông hy vọng bước đột phá này sẽ mang lại một hệ thống được Cục quản lý Thực phẩm và Dược phẩm Mỹ (FDA) chấp thuận, cho phép người bệnh giao tiếp từ tín hiệu não trong tương lai gần.

Bác sĩ Chang cho biết: “Mục tiêu mà chúng tôi hướng tới là khôi phục lại một cách giao tiếp đầy đủ, có hình ảnh đại diện, đây thực sự là cách tự nhiên nhất để chúng ta trò chuyện với người khác. Những tiến bộ này sẽ mang chúng ta lại gần hơn nữa trong việc biến đây thành một giải pháp thực tế cho bệnh nhân”.

Trước đây, nhóm nghiên cứu của bác sĩ Chang đã chứng minh rằng việc giải mã tín hiệu não thành văn bản ở một người đàn ông cũng bị đột quỵ thân não là điều khả thi. Nghiên cứu hiện nay cho thấy một điều tham vọng hơn: giải mã tín hiệu não thành lời nói, cùng với một khuôn mặt đại diện (avatar) thể hiện biểu cảm của người dùng trong lúc trò chuyện.

Nhóm nghiên cứu đã cấy một chip hình chữ nhật mỏng như tờ giấy gồm 253 điện cực lên bề mặt não của người phụ nữ, trên những khu vực quan trọng với khả năng nói mà nhóm đã phát hiện ra. Các điện cực này sẽ đón đầu các tín hiệu não – vốn sẽ truyền tới các cơ ở lưỡi, hàm, và thanh quản, cũng như khuôn mặt của bệnh nhân nếu cô không bị đột quỵ. Một sợi cáp gắn vào một cổng cố định trên đầu cô, kết nối các điện cực với một dãy máy tính.

Trong nhiều tuần, người tham gia đã cùng nhóm nghiên cứu huấn luyện các thuật toán AI của hệ thống để nhận dạng các tín hiệu não với khả năng nói của người bệnh. Cô đã phải lặp đi lặp lại các cụm từ khác nhau trong vốn từ vựng đàm thoại gồm 1024 từ cho tới khi máy tính nhận ra các mô hình hoạt động của não liên quan tới âm thanh. 

Thay vì huấn luyện AI nhận ra toàn bộ từ, các nhà nghiên cứu đã tạo ra một hệ thống giải mã từ ngữ từ các âm vị. Đây là những đơn vị nhỏ của lời nói, nó tạo thành các từ được nói ra, tương tự như cách từng chữ cái tạo thành từ được viết ra. Ví dụ, từ Hello gồm bốn âm vị: “HH”, “AH”, “L” và “OW”.

Với phương pháp này, máy tính chỉ cần học 39 âm vị để giải mã bất kỳ từ nào trong tiếng Anh. Nhờ thế, độ chính xác của hệ thống càng được nâng cao và tốc độ giải mã nhanh gấp ba lần.

Còn để tạo ra giọng nói, nhóm nghiên cứu đã nghĩ ra một thuật toán tổng hợp lời nói. Cụ thể, họ đã sử dụng bản ghi âm giọng nói của người phụ nữ này trong đám cưới của mình để tạo ra âm thanh giống giọng của cô trước khi đột quỵ.

Nhóm còn khiến hình ảnh đại diện trở nên sống động nhờ một phần mềm mô phỏng và khắc họa các chuyển động cơ trên khuôn mặt. Phần mềm này do Speech Graphics phát triển, một công ty tạo ra cử động trên khuôn mặt nhờ AI. Nhóm nghiên cứu đã tạo ra các quy trình học máy tùy chỉnh, cho phép phần mềm của công ty này khớp với các tín hiệu mà não gửi đi khi người phụ nữ này cố gắng nói chuyện và chuyển chúng thành các chuyển động trên khuôn mặt của hình đại diện, khiến cho hàm đóng mở, hai cánh môi trề ra và chu lại, lưỡi chuyển động lên xuống, cũng như các chuyển động trên mặt thể hiện niềm vui, nỗi buồn và ngạc nhiên.

Nhóm nghiên cứu cho biết, bước quan trọng tiếp theo là tạo ra một phiên bản không dây, không cần người dùng phải kết nối vật lý với giao diện não-máy tính. □

Phương Anh

https://techxplore.com/news/2023-08-brain-computer-interface-enables-woman-severe.html

Tác giả

(Visited 9 times, 1 visits today)