Đào tạo AI: Cập nhật kiến thức KHXH để tránh nguy hại tiềm tàng
Trong nghiên cứu phân tích được đăng trên tạp chí Nature Machine Intelligence, hai nhà nghiên cứu Mỹ đã kết luận: các kỹ sư trí tuệ nhân tạo (AI) nên tranh thủ ý tưởng và chuyên môn từ một loạt nguyên tắc của ngành khoa học xã hội, bao gồm cả những nguyên tắc sử dụng phương pháp định tính, để giảm thiểu nguy hại tiềm tàng mà các AI có khả năng tạo ra, đồng thời đem lại nhiều lợi ích hơn cho toàn xã hội.
Nhiều nghiên cứu đã chỉ ra rằng những công cụ tìm kiếm có thể phân biệt đối xử với phụ nữ da màu. Trong ảnh: Nếu search từ “girl”, kết quả chỉ cho ra hình ảnh các cô gái da trắng.
Mona Sloane hiện là nhà nghiên cứu tại Viện Tri thức Công thuộc ĐH New York, và Emanuel Moss, nghiên cứu sinh tiến sĩ tại ĐH Thành phố New York, viết: “Một loạt bằng chứng cho thấy AI có thể làm trầm trọng thêm tình trạng bất bình đẳng, duy trì sự phân biệt đối xử và tạo ra những tác động gây hại … Do đó, để có được một công nghệ đảm bảo sự công bằng xã hội, chúng ta cần phải đưa vào đó cả khái niệm rộng lớn nhất của khoa học xã hội với những nguyên tắc đã được con người tạo ra để cố gắng nắm bắt thế giới xã hội rộng lớn. Nó cũng phải giúp chúng ta hiểu được tại sao và làm thế nào mà AI lại nổi lên như một phần của hệ thống xã hội-công nghệ rộng lớn, phức tạp, mới nổi”.
Các tác giả nêu những lý do nên áp dụng cách tiếp cận khoa học xã hội và dùng nhiều phương pháp định tính để củng cố giá trị của AI và tránh những cạm bẫy có tiền lệ. Nhiều nghiên cứu đã chỉ ra, những công cụ tìm kiếm có thể phân biệt đối xử với phụ nữ da màu, trong khi đó nhiều nhà phân tích cũng đặt câu hỏi về việc làm cách nào để xe tự lái có thể đưa ra những quyết định được xã hội chấp nhận trong các tình huống va chạm, ví dụ tránh đâm vào người thay vì vào cột cứu hỏa.
Các kỹ sư AI hiện đang tìm cách thấm nhuần việc “căn chỉnh giá trị” (Ý tưởng cho rằng máy móc nên hành động tuân theo các giá trị của con người) trong các sản phẩm sáng tạo của mình, nhưng vẫn cho rằng “thật khó để định nghĩa và mã hóa một thứ gì đó trôi chảy và theo ngữ cảnh như ‘giá trị con người’ vào một cỗ máy.”
Để giải quyết thiếu sót này, các tác giả đưa ra một kế hoạch chi tiết để đưa các ngành khoa học xã hội vào AI thông qua một loạt khuyến nghị:
* Nghiên cứu xã hội định tính có thể giúp nắm bắt các phạm trù mà qua đó chúng ta hiểu về đời sống xã hội và có thể sử dụng trong AI. Sloane và Moss quan sát thấy rằng “Các nhà công nghệ thường không được đào tạo để hiểu làm thế nào mà các danh mục chủng tộc trong học máy được tái lập như một cấu trúc xã hội có tác động thực đến việc tổ chức và phân tầng xã hội. Nhưng những câu hỏi này đã được thảo luận rất sâu trong ngành khoa học xã hội. Điều này có thể giúp tạo ra bối cảnh lịch sử-xã hội, dựa vào đó các danh mục mô tả như ‘chủng tộc’ được làm rõ”
* Tiếp cận theo hướng thu thập dữ liệu định tính có thể giúp lập nên những giao thức làm giảm thiên vị. “Dữ liệu luôn phản ánh sự thiên vị và lợi ích của những người thu thập”, các tác giả lưu ý. “Nghiên cứu định tính phản ảnh rõ ràng việc thu thập dữ liệu trong khi thực tiễn nghiên cứu định lượng trong AI thì không”
* Nghiên cứu định tính thường yêu cầu các nhà nghiên cứu phản ánh cách thức họ can thiệp vào thế giới mà họ quan sát. “Cách tiếp cận định lượng sẽ không yêu cầu nhà nghiên cứu hoặc nhà thiết kế AI phải định vị họ trong thế giới xã hội, do đó cũng sẽ không yêu cầu phải đánh giá xem ai được đưa vào những quyết định thiết kế AI quan trọng và ai không”
Sloane và Moss kết luận rằng “Khi chúng ta tiến tới kết hợp các yếu tố xã hội, văn hóa và công nghệ trong cuộc sống, chúng ta phải tích hợp các loại kiến thức khác nhau vào việc phát triển công nghệ. Một tương lai công bằng và dân chủ hơn cho AI trong xã hội không thể chỉ được tính toán hay thiết kế mà phải được sống, thuật lại và rút ra từ những hiểu biết sâu sắc về xã hội.” □
Ngô Hà dịch
Nguồn: https://techxplore.com/news/2019-08-quality-ai-requires-quantitative.html