Câu chuyện về tế bào bất tử HeLa: Cái giá nào cho sự tiến bộ ?

Liệu việc tôn trọng các tiêu chuẩn đạo đức và quyền riêng tư có tạo thêm gánh nặng và cản trở các phát minh công nghệ đột phá? Liệu trong không gian số, con người là những bộ dữ liệu sống nhiều tiềm năng khai thác dưới góc nhìn của những công ty công nghệ?

Việc lấy và chia sẻ tế bào của Henrietta Lacks mà cô chết trong khốn khó nhưng không hề hay biết đã dẫn đến cuộc khủng hoảng đạo đức trong nghiên cứu y học. Nguồn ảnh: Nytimes.

Cuộc đời bất hạnh của Henrietta Lacks và di sản để lại cho loài người

Henrietta Lacks là một người phụ nữ da đen vô danh, sinh ra và lớn lên ở khu vực nông thôn tại Virginia, Mỹ. Cô không có bất kỳ bằng cấp học vấn cao nào, sống cuộc đời gian khó bằng nghề trồng thuốc lá bên năm đứa con. Số phận bất ngờ đưa cô trở thành một nhân vật quan trọng trong lịch sử y học và khoa học, nhưng với một cách đầy bi kịch. Henrietta bị chẩn đoán mắc bệnh ung thư cổ tử cung vào năm 1951, khi cô mới chỉ 31 tuổi. Trong quá trình điều trị tại Bệnh viện Johns Hopkins ở Baltimore, Maryland vào năm 1951, một bác sĩ tên George Gey đã âm thầm lấy một mẫu tế bào từ cơ thể của cô để nghiên cứu. Khác với đại đa số tế bào thông thường, tế bào này có thể sống sót và tiếp tục sinh sôi phát triển, thậm chí nhân bản rất nhanh chóng trên các môi trường nuôi cấy. Chúng có khả năng tái tạo một cách không giới hạn và không bị tổn thương bởi các yếu tố như stress hoặc tuổi tác. Tế bào này được gọi là tế bào HeLa, là tên viết tắt của Henrietta Lacks.

Các tế bào ung thư của Henrietta Lacks sau đó được Bệnh viện Johns Hopkins chuyển giao miễn phí đến các nhà khoa học khác nhau để nghiên cứu, và từ đó đã trở thành một tài nguyên quan trọng của ngành khoa học. Trong suốt hơn 100.000 dự án y học đã và đang được thực hiện đến nay, các tế bào HeLa đã mở đường cho hàng loạt sáng chế vaccine ngừa ung thư cổ tử cung (HPV), bại liệt, điều trị HIV/AIDS, cùng với những đột phá khác như thụ tinh trong ống nghiệm. Thậm chí, các tế bào HeLa hiện đang được sử dụng trong các nghiên cứu ứng phó với virus SARS-CoV-2 gây nên đại dịch COVID-19 nặng nề trên toàn thế giới suốt giai đoạn 2020-2022.

Giữa việc sử dụng AI và bảo vệ quyền riêng tư, cái nào sẽ là ưu tiên hàng đầu?

Tuy nhiên, Henrietta Lacks không bao giờ được biết đến hay nhận được bất kỳ đền bù nào cho việc đóng góp lớn lao của mình cho khoa học và y học. Cô đã qua đời vào năm 1951, chỉ vài tháng sau khi bị chẩn đoán mắc bệnh ung thư. Những tháng cuối đời của cô trôi qua trong bất hạnh và nghèo túng. Gia đình Henrietta Lacks càng không biết gì về việc này và vẫn tiếp tục sống trong cảnh khốn cùng, không được tiếp cận với nền giáo dục và y tế công bằng cho đến khi một nhà bác học địa phương đã liên hệ với họ vào những năm 1970. Năm 2013, một cuốn sách mang tên “The Immortal Life of Henrietta Lacks” (tạm dịch: Cuộc đời bất tử của Henrietta Lacks) của tác giả Rebecca Skloot đã được xuất bản. Cuốn sách không chỉ ghi nhận đóng góp của Henrietta Lacks mà còn đặt ra nhiều ra nhiều câu hỏi liên quan đến quyền con người và đạo đức trong nghiên cứu y học, cũng như các đánh đổi giữa quyền riêng tư của cá nhân và sự tiến bộ chung của xã hội.

Quyền của cá nhân và lợi ích cho tập thể: Cái giá bắt buộc vì đại cuộc?

Đầu tiên, xét về kết quả của việc tự ý lấy và chia sẻ các tế bào HeLa bởi bác sĩ George Grey, khó có thể phủ nhận hành vi này đã mang lại lợi ích cho các nhà nghiên cứu y tế và nhân loại theo nhiều cách. Trước hết, sự phân phối miễn phí các tế bào này trong giới khoa học tạo ra những lợi thế to lớn với chi phí tương đối tối thiểu. Vô số những thử nghiệm y sinh nhờ đó đã có vật liệu dồi dào mà không có bất kì rào cản nào. Công lao âm thầm của Henrietta Lacks đã và sẽ tiếp tục đem đến những khám phá y sinh quan trọng của nhân loại.

Tuy nhiên, lời biện hộ cho việc lấy và chia sẻ tế bào của Henrietta Lacks mà không có sự đồng ý hay nhận thức của cô đã dẫn đến một cuộc khủng hoảng đạo đức trong xã hội nói chung và trong nghiên cứu y học nói riêng. Câu chuyện của Henrietta Lacks vô hình trung trở thành điểm tựa cho rất nhiều trường hợp khác, dựa trên thuyết vị lợi và thuyết hệ quả (consequentialism). Theo đó, người ta lý luận rằng sự xâm phạm quyền của một cá nhân hay một nhóm người là hợp lý để tối đa hóa tổng thể lợi ích xã hội. Từ đó, những người thuộc nhóm yếu thế, dễ bị tổn thương có thể được chọn để trở thành vật hy sinh nhân danh lợi ích công cộng. Vì vậy, không ít những scandal nghiên cứu tàn bạo chấn động trong lịch sử Hoa Kỳ có nạn nhân là những người da đen và nhóm dân tộc yếu thế.

Nguồn: ssir.org

Cụ thể, dự án nghiên cứu bệnh giang mai thực hiện từ năm 1932 đến 1972, còn gọi là dự án Tuskegee, được xem là vết nhơ lớn trong cộng đồng nghiên cứu y học. Dự án được bảo lãnh bởi Cơ quan Y tế Công cộng Hoa Kỳ, hứa hẹn với 600 người đàn ông da đen sống trong cảnh nông nô bần cùng, thiếu phương tiện tiếp cận với nền văn minh và dịch vụ y tế là sẽ miễn phí chữa bệnh, ăn uống, bảo hiểm và mai táng cho họ. Trong khi thực tế, dự án đưa họ vào một thí nghiệm quan sát tiến trình tự nhiên của bệnh giang mai. Trong 600 người, có 399 người đã bị nhiễm bệnh từ trước và 201 người khỏe mạnh. Những người bị nhiễm không hề được chữa như đã hứa mà chỉ được sử dụng giả dược là aspirin và bổ sung khoáng chất. Họ bị mù, bại liệt, tâm thần và có đến 128 người đã chết, trong khi vợ lẫn con mới sinh của họ cũng bị lây nhiễm trầm trọng. Những người chủ trì dự án đã không đưa ra bất kỳ thông tin gì về rủi ro và cách tiến hành dự án, và tất nhiên không cho họ có cơ hội cân nhắc đồng ý tham gia. Nhưng đây không phải là ví dụ duy nhất, nhiều nhóm yếu thế khác từng bị đưa vào thí nghiệm y học tàn nhẫn mà không được thông tin đầy đủ hay hỏi ý kiến như thí nghiệm giang mai tại Guatemala vào năm 1940 được triển khai trên 5.500 tù nhân, quân lính bị giam giữ, bệnh nhân tâm thần và cả trẻ mồ côi người Guatemala, hay thử nghiệm phóng xạ lên nhóm 1.500 người phụ nữ Puerto Rico vào năm 1950 để chế tạo thuốc ngừa thai.

Điểm chung của các thí nghiệm này là sự áp đặt và sử dụng quyền lực xã hội, chính trị của nhóm người “thượng đẳng” với giai tầng mà họ coi là yếu thế, thấp kém hơn trong xã hội nhằm đạt được các mục tiêu khoa học, cũng như sự bất cân xứng thông tin giữa các chuyên gia chủ trì thí nghiệm và người dân bình thường. Dự án có thể đạt được những phát minh tiến bộ thay đổi cục diện y học thế giới, mang lại danh tiếng, tiền tài cho những người chủ trì dự án. Tuy nhiên, những người đã “lấy thân mình hy sinh” cho những thí nghiệm đó thì không được biết đến, không được đền đáp xứng đáng, thậm chí còn không biết mình đã được đưa vào thí nghiệm. Thành tựu y học nức tiếng mà họ đóng góp nhiều khi không đem lại lợi ích cho họ mà lại phân bố cho nhóm người khác trong xã hội. Thế hệ con cháu của họ hoặc là sống lầm lũi trong những khu ổ chuột bần hàn từ đời này sang đời khác như trường hợp của Henrietta Lacks, hoặc đau đớn hơn là đối diện với căn bệnh hiểm nghèo và cái chết thảm khốc ở các trường hợp còn lại.

Đáng nói hơn, thông tin và dữ liệu cá nhân của những người này không được quản lý và bảo mật chặt chẽ, có thể gây nên các định kiến xã hội và kỳ thị, bất công cho họ và người có liên đới. Tiêu biểu, việc đặt tên tế bào HeLa gắn với tên riêng của Henrietta Lacks có thể vinh danh cô và gia đình, nhưng danh tính bệnh nhân liên quan đến những thí nghiệm về bệnh truyền nhiễm qua đường tình dục và mang tính di truyền khác sẽ ảnh hưởng nghiêm trọng đến sinh hoạt bình thường của họ và những người xung quanh, đặc biệt nếu họ sống trong xã hội bị chia rẽ và phân cấp giai tầng nặng nề.

Đâu là ranh giới?

Việc sử dụng các tế bào cho nghiên cứu khoa học mà không có sự đồng ý của chính người tham gia là trọng tâm của cuộc xung đột giữa việc phát triển khoa học công nghệ và quyền riêng tư. Từ trường hợp tế bào HeLa và các tranh cãi xoay quanh còn tiếp diễn đến nay, nhiều người nghĩ rằng, quyền riêng tư là một rào cản đối với khoa học. Nhiều lập luận cho rằng nếu các tiêu chuẩn đạo đức được tuân thủ và người được kêu gọi tham gia đủ hiểu biết về rủi ro thí nghiệm, họ sẽ không đồng ý tham gia và từ đó nhân loại thiếu vắng một phát minh cần thiết cho sự sinh tồn của loài người.   

Những khoảng mờ trong quy định về đạo đức và pháp luật đã làm “trỗi dậy” những hành vi lạm dụng quyền riêng tư trên danh nghĩa khoa học ở khía cạnh tinh vi hơn. Những đối tượng chịu hi sinh dữ liệu cá nhân cho các công nghệ này không chỉ là những người yếu thế về mặt kinh tế, xã hội mà còn là những người yếu thế về mặt thông tin không có hiểu biết kĩ thuật đằng sau những công nghệ AI này.

Tuy nhiên, cũng cần thừa nhận rằng không phải mọi thí nghiệm nào “bất chấp tất cả vì lợi ích khoa học” cũng đem đến những thành công vang dội trong tương lai. Còn trước mắt, những “nạn nhân” tham gia thí nghiệm đó đều không được thông tin đầy đủ và bồi thường thỏa đáng. Điều này lại đi ngược lại những nguyên tắc đạo đức của nghiên cứu khoa học.

Trong lĩnh vực nghiên cứu y sinh, một trong những nguyên tắc quan trọng nhất là yêu cầu các nhà nghiên cứu và cung cấp dịch vụ y tế hành động vì lợi ích tốt nhất của người tham gia thí nghiệm hoặc bệnh nhân của họ. Nguyên tắc này yêu cầu các nhà nghiên cứu cần cố gắng tối đa hóa lợi ích và đảm bảo tối thiểu những rủi ro mà người tham gia nghiên cứu gặp phải. Cách phân tích lợi ích – rủi ro này có thể thấy qua phán quyết của toà án Maryland trong vụ kiện nổi tiếng Grimes v Kennedy Krieger Institute, Inc được xử sơ thẩm vào năm 2001 và phúc thẩm vào năm 2018. Trong vụ kiện này, gia đình Grimes đã kiện cơ sở nghiên cứu Kennedy Krieger (KKI) vì đã thử nghiệm chất chứa chì trên trẻ em ở khu vực có mức độ ô nhiễm cao ở Baltimore, Maryland, mà không thông báo nội dung chương trình thử nghiệm để lấy ý kiến đồng thuận của các bậc cha mẹ.

Toà kết luận rằng các bậc cha mẹ ở bang Maryland không thể đồng ý cho con cái vị thành niên của họ tham gia vào nghiên cứu có nguy cơ gây hại, dù là ở mức tối thiểu, nếu nó không mang lại triển vọng lợi ích trực tiếp cho các đối tượng này. Kể cả trong trường hợp những đứa trẻ được hưởng lợi từ việc tham gia vào nghiên cứu, việc tuyển dụng các em vào thí nghiệm cũng không thể chấp nhận về mặt đạo đức nếu cha mẹ chúng không hiểu đầy đủ về những rủi ro và lợi ích của nghiên cứu một khi họ đồng ý cho con cái mình tham gia.

Vào năm 1998, toàn bộ DNA của người dân Iceland đã được Chính phủ cung cấp cho deCODE Genetics, một công ty công nghệ tư nhân lập bản đồ. Ảnh: EDN hub.

Phán quyết này cho thấy, một trong những cách quan trọng nhất mà các nhà nghiên cứu có thể chứng minh lợi ích là có được sự đồng ý từ những người tham gia nghiên cứu, xuất phát từ ý nghĩa của quyền riêng tư. Sự đồng ý được thông báo cụ thể (informed consent) là một quá trình trong đó các nhà nghiên cứu cung cấp cho người tham gia thông tin về bản chất của nghiên cứu, những rủi ro và lợi ích tiềm ẩn, cũng như quyền của họ với tư cách là người tham gia. Khi những người tham gia nghiên cứu không hiểu đầy đủ về quyền của họ, các nhà nghiên cứu lúc này có nghĩa vụ thực hiện các bước bổ sung (chẳng hạn như đơn giản hóa ngôn ngữ diễn đạt) để đảm bảo rằng những người tham gia được thông báo đầy đủ và có thể đưa ra quyết định rõ ràng, chủ động.

Nhìn chung, các quy định này nhằm bảo vệ những người tham gia thí nghiệm, dù trên cơ sở tình nguyện, khỏi những rủi ro về sức khoẻ. Trong thời đại ứng dụng trí tuệ nhân tạo (AI), vấn đề đạo đức nổi lên khi dữ liệu cá nhân được sử dụng để phát triển các giải pháp y tế sử dụng công nghệ AI. Dù hành lang pháp lý ngày càng được kiện toàn hơn, vẫn tồn tại nhiều hành vi xâm phạm quyền riêng tư và gây nên phẫn nộ trong công chúng. Hệ quả để lại không chỉ dừng ở phạm vi sức khoẻ vật lý, bảo toàn nhân phẩm, mà còn là quyền riêng tư của họ và những người liên quan.

Quyền riêng tư và giá trị đạo đức trong cuộc cách mạng AI

Trong thời đại số hóa hiện nay, dữ liệu cá nhân trở thành một tài sản quý giá, được ví là “dầu mỏ” của kỷ nguyên công nghệ mới. Đặc biệt, trong lĩnh vực chăm sóc sức khỏe, dữ liệu cá nhân giúp các chuyên gia y tế hiểu rõ hơn về lịch sử y tế, tình trạng sức khỏe, kết quả điều trị và phân tích dự đoán bệnh của bệnh nhân. Các dự án chăm sóc sức khỏe của những gã khổng lồ công nghệ như Google DeepMind Health và IBM Watson Health là những ví dụ điển hình. Tuy nhiên, không phải cơ sở dữ liệu nào cũng đủ phong phú cả về số lượng và chất lượng để đáp ứng việc hoàn thiện các công nghệ này, nên tình trạng “khát” dữ liệu sẽ luôn diễn ra khi AI ngày càng phổ biến.

Các công nghệ trí tuệ nhân tạo về y sinh đòi hỏi một cơ sở dữ liệu lớn (big data) từ các hồ sơ sức khỏe điện tử, hình ảnh y tế, thiết bị hỗ trợ và bộ gene người… Điều này cho phép các phương pháp điều trị được cá nhân hóa và trở nên chính xác hơn. Bằng cách phân tích một lượng lớn dữ liệu, các chuyên gia chăm sóc sức khỏe có thể xác định những mô hình và xu hướng có thể giúp họ chẩn đoán đúng bệnh sớm hơn, từ đó phát triển các kế hoạch điều trị và dự đoán kết quả của bệnh nhân chính xác hơn.

Tuy nhiên, việc thu thập và kiến tạo nên một bộ cơ sở dữ liệu lớn để xử lý, vận hành hiệu quả là điều không hề dễ dàng. Thứ nhất, dữ liệu về y tế rất phức tạp, đa dạng và nhạy cảm. Tùy vào tính chất và độ hiếm gặp của từng loại bệnh, số lượng dữ liệu của chúng sẽ không giống nhau, và sự thiên lệch trong dữ liệu là khó tránh khỏi. Vào năm 2018, một nghiên cứu của Đại học California phát hiện ra rằng Watson for Oncology, một hệ thống AI của IBM sử dụng cơ chế xử lý ngôn ngữ tự nhiên và học máy để hỗ trợ điều trị 13 loại bệnh ung thư cho hơn 84.000 bệnh nhân đã đưa ra các khuyến nghị không phù hợp và thậm chí còn gây hại cho họ. Lý do là vì dữ liệu đầu vào bị thiên lệch nên đề xuất thường dựa trên các phương pháp điều trị không tính đến các yếu tố bệnh nhân riêng lẻ. Các nhân viên điều hành dự án này nói rằng các khuyến nghị của Watson for Oncology dựa trên dữ liệu thật của bệnh nhân, nhưng trên thực tế họ đã thay thế bằng dữ liệu của hàng ngàn bài báo nghiên cứu khoa học, và tiếp tục lấy dữ liệu từ chính những bệnh nhân được chữa trị bởi công nghệ này. IBM cũng chưa bao giờ công bố các hạn chế của công nghệ này trước khi vụ việc bị bại lộ. Điều này làm dấy lên lo ngại về độ tin cậy và tính chính xác của các hệ thống AI trong chăm sóc sức khỏe, cũng như việc lạm dụng bệnh nhân như những con chuột thí nghiệm để đào tạo cho thuật toán và lấy dữ liệu đầu vào một cách âm thầm.

Thứ hai, do tính chất nhạy cảm của những dữ liệu liên quan đến sức khỏe và di truyền, vấn đề bảo mật là rất quan trọng nhưng lại đi kèm với những đánh đổi liên quan đến hiệu quả xử lý của thuật toán. Hai đạo luật về bảo vệ dữ liệu cá nhân kiểu mẫu trên thế giới là Quy định chung về bảo vệ dữ liệu (General Data Protection Regulation – GDPR) của Liên minh châu Âu (EU) và Đạo luật Bảo vệ Dữ liệu Cá nhân (Personal Data Protection Act – PDPA) của Singapore có quy định sử dụng công nghệ ẩn danh (anonymization) để bảo vệ danh tính của cá nhân và hạn chế rủi ro lộ lọt thông tin. Các biện pháp này dù đảm bảo được quyền riêng tư thông tin của chủ thể dữ liệu, nhưng lại làm giảm chất lượng và độ hữu dụng của bộ dữ liệu do một số thông tin bị loại trừ, ảnh hưởng đến hiệu quả và tính chính xác của ứng dụng AI. Nhiều kỹ thuật khác như giả danh (pseudomization) thay thế các thông tin có thể định danh trực tiếp như tên và địa chỉ bằng cách mã hóa, hay đưa vào những yếu tố gây nhiễu (noise) được cho phép trong một số trường hợp để cân bằng giữa yêu cầu bảo vệ dữ liệu cá nhân trong khi giảm bớt sự can thiệp vào tính nguyên vẹn của bộ dữ liệu. Tuy nhiên, biên độ đánh đổi vẫn còn tồn tại. Từ đây, câu hỏi được đặt ra là liệu giữa việc sử dụng AI và bảo vệ quyền riêng tư, cái nào sẽ là ưu tiên hàng đầu? Một số người cho rằng, để đạt được tiến bộ và phát triển của AI, có thể phải đánh đổi một phần quyền riêng tư cá nhân. Tuy nhiên, điều này lại gây ra nhiều tranh cãi, đặc biệt là khi các công ty sử dụng dữ liệu cá nhân để phân tích và cải thiện sản phẩm của mình, mà không được sự đồng ý.

Ví dụ, vào năm 1998, toàn bộ DNA của người dân Iceland đã được Chính phủ cung cấp cho deCODE Genetics, một công ty công nghệ tư nhân, lập bản đồ bởi với ý định sử dụng dữ liệu này tạo ra các loại thuốc mới mà không thông qua ý kiến của họ. Vào năm 2019, các nguyên đơn trong vụ Dinerstein v. Google đưa ra cáo buộc rằng Google đã truy cập bất hợp pháp vào hồ sơ y tế của hàng trăm nghìn bệnh nhân để “đào tạo” các thuật toán chẩn đoán và tìm kiếm học máy với mục đích cấp bằng sáng chế và thương mại hóa một dịch vụ y tế vì lợi nhuận. Hàng loạt những thông tin định danh và nhạy cảm như tên họ, ngày sinh, chẩn đoán y tế và thông tin điều trị đã bị thu thập trái phép. Nếu bộ dữ liệu này được bán lại cho các công ty thương mại, tài chính hay bảo hiểm, những người này sẽ đối mặt với hàng loạt rủi ro cao như bị phân biệt đối xử, hạn chế tiếp cận dịch vụ, mất cơ hội tuyển dụng, quảng cáo quấy rối, giả mạo danh tính hay thậm chí bị theo dõi với ý đồ bất chính. Hơn nữa, nếu thông tin về một số khiếm khuyết di truyền trong lịch sử gia đình bị tiết lộ, thế hệ con cháu của những người này cũng gặp phải nhiều bất cập trong cuộc sống mà không nhận được trợ cấp, đền bù tương xứng. Trong khi đó, thành tựu mà họ góp công được phân bổ cho nhóm người còn lại trong xã hội vốn không phải gánh chịu bất kỳ tổn thất tương tự nào.

Câu chuyện tế bào bất tử HeLa và những bê bối khác trong thử nghiệm y sinh vẫn không hề cũ kể cả trong thời đại ngày nay. Sự xuất hiện của công nghệ AI với những khoảng mờ trong quy định về đạo đức và pháp luật đã làm “trỗi dậy” những hành vi lạm dụng quyền riêng tư trên danh nghĩa khoa học ở khía cạnh tinh vi hơn. Những đối tượng chịu hy sinh dữ liệu cá nhân cho các công nghệ này có thể không chỉ là những người yếu thế về mặt kinh tế, xã hội mà còn là những người yếu thế về mặt thông tin. Theo nghĩa này, bất cứ người bình thường nào cũng có thể yếu thế về mặt thông tin bởi họ không có chuyên môn và đủ hiểu biết về mặt kĩ thuật đằng sau những công nghệ AI này. Các tác hại gây ra không chỉ dừng lại ở phạm vi vật lý, mà còn về nhân phẩm và cơ hội của cá nhân bị xâm phạm và thế hệ sau của họ. Nghiêm trọng hơn, trong khi các thí nghiệm khoa học vẫn có thể được giám sát trực tiếp bởi con người, hệ thống thuật toán của AI được huấn luyện thường xuyên và tự động học máy bằng cách mô phỏng hệ thần kinh của bộ não, vì vậy không cần sự can thiệp của con người. Rủi ro là đến cả những kỹ sư thiết kế mã thuật toán có thể không kiểm soát hết cách thức hoạt động và kết quả mà AI tạo ra, khiến hệ thống này trở thành một “hộp đen” đầy nguy hiểm tiềm tàng khó đoán định.

***

Quyền riêng tư không nên và không phải là cái giá để trả cho sự tiến bộ. Bảo vệ quyền riêng tư của cá nhân có thể giúp nâng cao niềm tin của công chúng và tăng cường sự tham gia tình nguyện vào nghiên cứu, do đó giúp bù đắp chi phí đền bù tổn thất hay khắc phục lỗi hệ thống, dẫn đến kết quả đưa ra sẽ chính xác và đáng tin cậy hơn. Do đó, câu hỏi đặt ra không phải là lựa chọn tuân thủ các giá trị đạo đức hay bất chấp tất cả để tạo nên bước đột phá tiến bộ cho thế giới, mà là cần định hướng nghiên cứu dựa trên kim chỉ nam đạo đức. Các doanh nghiệp và nhà phát triển ứng dụng AI cần đảm bảo rằng người dùng được cung cấp thông tin về việc thu thập và sử dụng dữ liệu cá nhân của họ, bảo vệ dữ liệu khỏi sự tấn công của các hacker với cơ chế bảo mật an toàn. □

——-

Tài liệu tham khảo

1. Noel Jackson (2020), Vessels for Collective Progress: The use of HeLa cells in COVID-19 research, https://sitn.hms.harvard.edu/flash/2020/vessels-for-collective-progress-the-use-of-hela-cells-in-covid-19-research/

2. The New York Times (2021), What Ever Happened to IBM’s Watson?, https://www.nytimes.com/2021/07/16/technology/what-happened-ibm-watson.html

Tác giả

(Visited 169 times, 3 visits today)