Nghiên cứu mới tạo tiền đề cho việc sản xuất robot “dẫn đường”
Một nghiên cứu mới công bố trên tạp chí Scientific Reports đã cho thấy, con người - khi vừa đi bộ vừa nắm tay robot - đã căng cứng hoặc thả lỏng cánh tay của họ tùy vào những thời điểm khác nhau. Theo nhóm tác giả, kết quả phân tích các chuyển động này có thể giúp tạo ra các thiết kế robot dẫn đường và hỗ trợ thông minh hơn và giống với con người hơn.
“Nghiên cứu này đã trình bày phép đo và phân tích đầu tiên về độ căng cứng của cánh tay con người trong suốt quá trình tương tác với robot dẫn đường”, các nhà nghiên cứu thuộc Missouri S&T viết trong bài báo mới công bố.
Theo TS. Yun Seong Song – trưởng nhóm nghiên cứu và là Phó giáo sư ngành kỹ thuật cơ khí và hàng không vũ trụ tại Missouri S&T, những phát hiện này là “bước đầu tiên trong việc phát triển một con robot có khả năng tương tác như người thật với con người”.
TS. Yun Seong Song bên cạnh robot tương tác Ophrie. Nguồn: techxplore.com
Trong thực tế, con người thường xuyên giao tiếp với nhau mà không cần dùng đến lời nói hoặc thậm chí là tín hiệu hình ảnh khi thực hiện một số hoạt động nhất định, chẳng hạn như giúp người khác đi bộ hoặc khi cùng nhau nhảy một điệu valse. Trong bài báo mới công bố, các nhà nghiên cứu đã mô tả cụ thể các lực xuất hiện khi robot dẫn con người đi theo ba hướng đi khác nhau.
“Thoạt nhìn, tương tác vật lý là một hoạt động vận động mà trong đó sự trao đổi lực sẽ do các đặc tính thụ động của thực thể tương tác quyết định”, Song nói. “Tuy nhiên, nếu xem xét cách con người thực hiện những tương tác này, bạn sẽ nhận ra rằng con người phải liên tục xử lý thông tin và đưa ra quyết định để suy đoán ý định của đối phương. Khám phá được cơ chế ấy sẽ giúp chúng ta thiết kế ra những con robot có khả năng tương tác mượt mà với con người trong tương lai”.
“Ngay cả khi không chia sẻ mục tiêu một cách rõ ràng, con người vẫn có thể tương tác vật lý với nhau để cùng thực hiện hoạt động phối hợp”, nhóm nghiên cứu viết trong bài báo.
Sử dụng robot tương tác mới phát triển có tên Ophrie, nhóm nghiên cứu đã thực hiện thí nghiệm mô phỏng hoạt động đi bộ do robot dẫn đường. Trong thí nghiệm này, những người tham gia được yêu cầu nhắm mắt lại và nắm tay cầm trên cánh tay của robot trong suốt quá trình đi bộ. Trong khi đó, Ophrie (viết tắt của Tương tác vật lý giữa người và máy trên mặt đất) đã được lập trình để di chuyển theo đường thẳng trong 1,5 mét đầu tiên, sau đó sẽ đi chệch hướng sang bên trái hoặc bên phải hoặc tiếp tục đi thẳng. Thông qua các tín hiệu xúc giác được truyền qua tay cầm, người tham gia sẽ cảm nhận sự chuyển động của robot. Mười người tham gia vào nghiên cứu đều thuộc độ tuổi 25, trong đó có 9/10 người là nam, một người thuận tay trái và không có ai mắc các bệnh về rối loạn thần kinh.
Nhóm nghiên cứu đã đo lường độ căng cứng của cánh tay con người ở hai thời điểm trong quá trình đi bộ: khi robot đi theo một trong ba hướng khác nhau (lúc này con người chưa biết rõ về đường đi tiếp theo); và khi đi đến cuối quãng đường (lúc này con người đã biết chắc chắn hơn về đường đi của robot).
“Chúng tôi quan sát thấy rằng, cánh tay của người tham gia sẽ thả lỏng hơn vào những thời điểm mà họ không biết robot sẽ đi tiếp như thế nào so với khi có thể dự đoán trước đường đi”, nhóm nghiên cứu viết. Điều này cho thấy “bằng chứng đầu tiên về việc điều chỉnh độ căng cứng của cánh tay giúp giao tiếp vận động tốt hơn trong các tương tác vật lý trên mặt đất”.
Theo TS. Song, việc hiểu được các tương tác này giữa người và robot có thể giúp cải thiện các thiết kế robot, từ đó mở ra khả năng ứng dụng robot tương tác trong chăm sóc người cao tuổi, vật lý trị liệu và các lĩnh vực khác.
“Những con robot này sẽ có thể giúp công nhân xây dựng mang vác các vật nặng hoặc giúp người già di chuyển dễ dàng hơn từ phòng ngủ đến phòng ăn giống như con người vậy. Chúng tôi muốn tạo ra những robot hoạt động hiệu quả, an toàn, dễ sử dụng và giao tiếp cùng, trong khi vẫn duy trì được các tương tác với con người”, TS. Song chia sẻ.
Mỹ Hạnh lược dịch
Nguồn: https://techxplore.com/news/2022-11-human-robot-interactions-early-future-robot.html