• :
  • :
Chi tiết tin tức
A- A A+ | Tăng tương phản Giảm tương phản

Trí tuệ nhân tạo sẽ loại bỏ vai trò của bác sĩ

Ứng dụng AI trong ngành Y dược giúp chữa trị trở nên khả thi hơn, song đồng thời dấy lên các...

AI thường chỉ khả năng mô phỏng trí thông minh và khả năng học tập của con người từ máy móc. Ví dụ: với công nghệ Machine Learning, các nhà khoa học đã và đang phát triển các thuật toán giúp hỗ trợ ra quyết định trong điều trị ung thư. Đồng thời, họ cũng mong muốn máy móc có thể phân tích các ảnh chụp X Quang, từ đó phân biệt các khối u tương thích với hóa trị và các khối u không phù hợp.

Tuy nhiên, ứng dụng AI trong y học và dược phẩm cũng gặp phải rất nhiều trở ngại về mặt pháp luật cũng như đạo đức. Cụ thể, nhiều người lo ngại rằng, việc ứng dụng này sẽ vi phạm tính bảo mật, dễ gây ra sự phân biệt, làm ảnh hưởng tới tâm lý người bệnh và mối quan hệ bác sỹ – bệnh nhân.

Khả năng gây ra phân biệt đối xử

AI phải phân tích một lượng dữ liệu rất lớn để phát hiện các xu thế, qua đó dự đoán khả năng xảy ra bệnh. Và trong y học, các dữ liệu này sẽ đến từ những hồ sơ bệnh án điện tử, tờ khai bảo hiệm y tế, cũng như nhiều nguồn khác. Và vì vậy, AI sẽ có thể tìm cách mua hồ sơ, cũng như tìm kiếm các thông tin về thu nhập, lịch sử phạm tội, hay thậm chí là mạng xã hội để biết được mọi thông tin về sức khỏe của các cá nhân.

AI được hi vọng là sẽ phân tích các ảnh X-Quang hiệu quả hơn con người. Ảnh: AP Photo/David Goldman.
AI được hi vọng là sẽ phân tích các ảnh X-Quang hiệu quả hơn con người. Ảnh: AP Photo/David Goldman.

Hiện nay, các nhà nghiên cứu đã sử dụng AI trong dự đoán một số bệnh lý y tế, bao gồm bệnh tim, đột quỵ, tiểu đường, triệu chứng giảm nhận thức, lạm dụng opiood, hay thậm chí là xu hướng tự tử. Một minh chứng rõ ràng là thuật toán của Facebook, với khả năng dự đoán xu hướng tự tử qua bài đăng của người dùng, từ đó thay đổi các câu mặc định trên bảng tin thành “Bạn có ổn không?”, “Tạm biệt”, hay “Đừng làm như vậy.”

Khả năng dự đoán này lại làm nhiều người trở nên lo ngại về vấn đề đạo đức trong ứng dụng AI vào y tế. Cụ thể, các dự đoán về sức khỏe của AI sẽ có thể được đưa lên hồ sơ bệnh án điện tử của người dùng.

Như vậy, mọi người, bao gồm các bác sỹ và nhân viên hành chính đều sẽ có thể thấy các thông tin về khả năng suy giảm nhận thức hay lạm dụng opioid. Ngoài ra, chính các bệnh nhân cũng có thể cấp quyền truy cập những thông tin này thông qua việc tham gia ứng tuyển hay quyết định sử dụng bảo hiểm nhân thọ.

Các công ty dữ liệu lớn như LexisNexis và Acxiom cũng đang bắt đầu khai thác dữ liệu cá nhân và ứng dụng AI. Qua đó, những doanh nghiệp này sẽ bán các dự đoán bệnh lý cho những bên thứ 3 như quảng cáo, nhà tuyển dụng, đơn vị cho vay, công ty bảo hiểm… Và do những công ty này không thuộc lĩnh vực y tế hay bảo hiểm y tế, họ sẽ không phải tuân theo Luật Bảo mật HIPAA, và cũng không cần xin ý kiến để chia sẻ rộng rãi và công khai các thông tin của người bệnh.

Và điều này có thể dẫn tới việc phân biệt đối xử. Cụ thể, các nhà tuyển dụng sẽ muốn nhân viên của họ khỏe mạnh, với năng suất làm việc cao, nghỉ ít, và không tốn nhiều chi phí y tế. Và vì vậy, họ sẽ tránh tuyển dụng các ứng viên được dự đoán là có khả năng phát triển bệnh. Ngoài ra, các đơn vị cho thuê bất động sản và công ty bảo hiểm cũng sẽ phân biệt đối xử tương ứng qua những dự đoán từ AI.

Không được pháp luật bảo vệ

Ở Mỹ hiện nay không có luật nào cấm việc phân biệt đối xử dựa trên các dự đoán y tế, mà chỉ giới hạn trong các vấn đề y tế hiện hữu hoặc trong quá khứ. Đối với việc thử nghiệm ADN, Quốc Hội ban hành bộ luật Phòng tránh Phân biệt trên thông tin về Hệ gen, nghiêm cấm các nhà tuyển dụng và công ty bảo hiểm phân biệt đối xử dựa trên các dự đoán y tế theo gen. Tuy nhiên, lại không có bộ luật nào tương tự cho các dự đoán y tế không dựa vào phân tích ADN.

Trên lý thuyết, AI có thể dự đoán khả năng lạm dụng opioid. Ảnh: Reuters/Bryan Woolston.
Trên lý thuyết, AI có thể dự đoán khả năng lạm dụng opioid. Ảnh: Reuters/Bryan Woolston.

Ngoài ra, dự đoán y tế từ AI cũng có thể ảnh hưởng tới tâm lý người bệnh. Cụ thể, nhiều người sẽ bị ảnh hưởng nặng nề nếu biết mình có khả năng suy giảm nhận thức trong tương lai. Ngoài ra, nhiều người sẽ mua các dự đoán sức khỏe từ chính những đơn vị mua thông tin của họ, và việc nhận những dự đoán tồi tệ từ chính những đơn vị quảng cáo về dịch vụ sức khỏe sẽ là một cảm giác không mấy vui vẻ.

So với việc thử nghiệm gen – mọi người được khuyến khích trao đổi và tư vấn về việc có nên tham gia thử nghiệm hay không, cũng như để hiểu rõ hơn về kết quả, thì với dự đoán y tế qua AI, ta không hề có dịch vụ nào tương đương.

Một mối lo khác lại xoay quanh mối quan hệ giữa bệnh nhân và bác sỹ. Cụ thể, nhiều người lo ngại rằng, AI sẽ loại bỏ vai trò của bác sỹ, tự đưa ra dự đoán, chẩn đoán, giới thiệu phương thức điều trị, và bác sỹ sẽ chỉ thực hiện theo những thông tin này. Người bệnh sẽ cảm thấy ra sao khi bác sỹ của họ còn có ít ảnh hưởng hơn máy móc trong việc đưa ra các quyết định y tế?

Và tất cả những mối lo này lại các trầm trọng trước nghi vấn về độ chính xác của các dự đoán từ AI. Cụ thể, rất nhiều nguyên do có thể dẫn tới dự đoán sai: nếu dữ liệu gốc trong phát triển thuật toán có vấn đề, thì dự đoán cũng sẽ có vấn đề, dẫn tới khả năng người bệnh phải chịu đựng ảnh hưởng tâm lý, trong khi họ không hề có khả năng mắc phải các vấn đề được dự đoán.

Kêu gọi cảnh giác

Ở Mỹ, điều trước tiên là mở rộng độ bao phủ của Luật HIPAA về vấn đề bảo mật, đảm bảo nghĩa vụ của mọi đối tượng sử dụng các thông tin về y tế, bao gồm cả các tổ chức thương mại, song song với bệnh viện và cơ quan bảo hiểm. Ngoài ra, Quốc hội cũng nên mở rộng luật, đưa cả những dự đoán sức khỏe vào phạm vi quy định.

Ngoài ra, các bác sỹ cung cấp dự đoán từ AI cũng cần biết rõ về những bất lợi và lợi ích của những dự đoán này, đồng thời tư vấn, cung cấp dịch vụ tương tự với phân tích gen.

Tiềm năng của AI là vô tận. Tuy nhiên, để đảm bảo quyền lợi và lợi ích cho bệnh nhân, các bác sỹ, nhà nghiên cứu, và cơ quan lập pháp cần phải hiểu rõ về các mối nguy hại của AI, cũng như cảnh giác về tiềm năng của chúng.

VIÊN VIÊN

Tin nên đọc

Tin cùng chuyên mục

Chưa có bài viết nào

Tin mới nhất

ĐỌC NHIỀU NHẤT

Tin nổi bật