• :
  • :
Chi tiết tin tức
A- A A+ | Tăng tương phản Giảm tương phản

Bằng cách nào chúng ta có thể nhận ra trí tuệ nhân tạo đã có nhận thức?

Các nhà khoa học, các triết gia soạn thảo một danh sách dài những chỉ mục, dựa trên các học...

Năm 2021, danh tiếng kỹ sư Blake Lemoine nổi lên như cồn khi anh nhận xét LaMDA - hệ thống chatbot của Google - có nhận thức. Việc Google cho Lemoine thôi việc như dầu đổ thêm vào lửa, lại càng khiến cộng đồng bán tín bán nghi.

Thoạt nhìn, những hệ thống trí tuệ nhân tạo - nhất là các chatbot ứng dụng mô hình ngôn ngữ lớn (LLM) như ChatGPT hay LaMDA - có vẻ có ý thức. Tuy nhiên, những gì chúng nói ra đều được tổng hợp từ những dòng văn bản do con người soạn thảo; về cơ bản, LLM là một hệ thống đoán chữ, đoán xem chữ gì hiện ra tiếp theo sẽ “logic” nhất để trả lời cho truy vấn đầu vào.

Kỹ sư phần mềm Blake Lemoine, người khẳng định LaMDA có
Kỹ sư phần mềm Blake Lemoine, người khẳng định LaMDA có "linh hồn" - Ảnh: Internet.

Vậy làm sao để nhận ra liệu hệ thống AI đã có nhận thức?

Một nhóm nghiên cứu gồm 19 người, trong đó có các nhà khoa học, chuyên gia thần kinh học và triết gia, họp lại để tìm ra giải pháp. Theo họ, không thể chỉ dùng một bài thử để xác định, mà cần một danh sách dài những chỉ mục để khẳng định một hệ thống AI có nhận thức hay không.

Trong báo cáo dài 120 trang mới được đăng tải trên arXiv (vẫn chưa được các chuyên gia đồng cấp thẩm định), các nhà nghiên cứu dựa trên những học thuyết về nhận thức loài người để đưa ra 14 tiêu chuẩn để áp dụng vào những kiến trúc AI đang có. Một trong những đối tượng được thử nghiệm bao gồm mô hình ngôn ngữ lớn hậu thuẫn ChatGPT.

Nhóm khẳng định họ chưa phát hiện ra một hệ thống nào thỏa mãn tất cả các tiêu chuẩn, hay nói cách khác là con người chưa sở hữu một AI có nhận thức. 

Bằng cách nào chúng ta có thể nhận ra trí tuệ nhân tạo đã có nhận thức?

Đồng tác giả nghiên cứu, ông Robert Long công tác tại Trung tâm An toàn AI có trụ sở tại San Francisco, nhận định báo cáo là một khuôn khổ chung mà từ đó, các nhà nghiên cứu sau này có thể đánh giá được những hệ thống AI giống người hơn. “Chúng tôi cung cấp cho [ngành AI] một phương pháp có hệ thống mà trước đây chưa tồn tại”, ông Long nói.

Cho đến những năm gần đây, ý niệm về một hệ thống trí tuệ nhân tạo mới thực sự lan tỏa rộng rãi. “Khi Blake Lemoine bị Google sa thải vì xiêu lòng trước LaMDA, thay đổi xuất hiện”, ông Robert Long nhận định. “Nếu AI có thể [thuyết phục con người] rằng mình có nhận thức, điều đó sẽ khiến các nhà khoa học và triết học lập tức chú ý”.

Một trong những tác vụ đầu tiên phải thực hiện là định nghĩa khái niệm “nhận thức”, thứ được Yoshua Bengio - người tiên phong trong lĩnh vực máy học (machine learning) - gọi là “một danh từ chứa đầy cạm bẫy”. Để tránh nhầm lẫn, nhóm nghiên cứu đã sử dụng khái niệm “nhận thức phi thường - phenomenal consciousness” của triết gia Ned Block làm kim chỉ nam; khái niệm này mô tả chất lượng chủ quan của một kinh nghiệm, hay là cảm giác hiện hữu khi thấy màu đỏ hay cảm nhận đau đớn.

Tuy nhiên, làm thế nào để xác định “nhận thức phi thường” của một thuật toán? Không giống não bộ con người, thuật toán không tỏa ra tín hiệu điện để đo đạc. Vì lẽ này, nhóm nghiên cứu đã phải tiếp cận lời giải “dựa nhiều vào lý thuyết”. 

Bằng cách nào chúng ta có thể nhận ra trí tuệ nhân tạo đã có nhận thức?

Theo lời giải thích của Liad Mudrik, một nhà tâm thần học nhận thức công tác tại Đại học Tel Aviv, thì nhóm phải khai thác những học thuyết về nhận thức con người để có được những mô tả cơ bản về trạng thái có nhận thức, sau đó tìm dấu hiệu của những đặc điểm này trong kiến trúc trí tuệ nhân tạo.

Để được công nhận, một học thuyết sẽ phải dựa trên lý thuyết khoa học thần kinh và được hậu thuẫn bởi một loạt những bằng chứng dựa trên thực nghiệm, đơn cử như dữ liệu có từ việc quét một bộ não đang được thử nghiệm. Bên cạnh đó, các nhà nghiên cứu phải đồng tình với việc nhận thức có thể thành hình từ dòng điện trong một con chip vô tri.

Có tất cả 6 học thuyết được đưa vào báo cáo mới. Một trong số đó là Học thuyết Xử lý Hồi quy - Recurrent Processing Theory, cho rằng việc đưa thông tin vào một vòng xử lý hồi quy là điểm mấu chốt cho việc hình thành nhận thức. Bên cạnh đó là Học thuyết Không gian làm việc Neuron Bao trùm - Global Neuronal Workspace Theory, cho rằng nhận thức sinh ra từ những dòng thông tin luân chuyển độc lập qua một lối hẹp, để rồi hội tụ tại một không gian xử lý chung, ví dụ như vùng nhớ đệm của máy tính. 

Các Học thuyết về Quy luật Cao hơn - Higher Order Theories nhận định rằng nhận thức bao gồm quá trình biểu đạt những thông tin đầu vào cơ bản, có được từ các giác quan. Những học thuyết còn lại nhấn mạnh tầm quan trọng của cơ chế kiểm soát khả năng chú ý, những nhu cầu cơ thể bị tác động từ thế giới bên ngoài. Từ tất cả 6 học thuyết, nhóm nghiên cứu chỉ ra 14 chỉ mục thể hiện trạng thái “có nhận thức”.

Các nhà khoa học lý luận rằng một hệ thống AI thỏa mãn càng nhiều chỉ mục, khả năng nó có nhận thức càng cao. Chuyên gia máy học Eric Elmoznino đã thử ứng dụng danh sách này vào một loạt các hệ thống AI có những cấu trúc khác nhau, ông đã phải đưa ra những quyết định mang chiều hướng cảm tính và đối mặt với những khía cạnh khái niệm chưa rõ ràng. 

Bằng cách nào chúng ta có thể nhận ra trí tuệ nhân tạo đã có nhận thức?

Kết quả như sau: Nhiều kiến trúc thỏa mãn phần lớn Học thuyết Xử lý Hồi quy. Một mô hình ngôn ngữ lớn được dùng trong vận hành ChatGPT đã tiến rất gần tới một không gian xử lý thông tin chung.

Hệ thống PaLM-E của Google, vốn nhận tín hiệu đầu vào từ một loạt các cảm biến, thỏa mãn điều kiện “trung gian và hiện thân”, và nếu “soi xét kỹ thì sẽ nhận ra một thứ gì đó tương tự không gian xử lý”, chuyên gia máy học Elmoznino nhận định.

Trong khi đó, hệ thống Adaptive Agent (AdA) của DeepMind, được dùng để điều khiển một hiện thân (avatar) trong môi trường 3D, thỏa mãn yếu tố “trung gian và hiện thân” kể trên, ngay cả khi nó không sở hữu cảm biến ngoại vi giống PaLM-E. Nhờ khả năng cảm quan không gian, “AdA là mô hình có khả năng thỏa mãn quy chuẩn của chúng tôi nhất”, các tác giả nghiên cứu nhận định.

Nhưng vì không hệ thống nào thỏa mãn hết các điều kiện, không phần mềm nào được coi là “có nhận thức”. Các tác giả cũng đồng thời nhận định danh sách các chỉ mục vẫn còn đang được hoàn thiện, và đây cũng không phải nỗ lực liệt kê duy nhất. Một số dự án khác cũng đang tiến hành những thử nghiệm tương tự, và có thể sớm xuất bản những nghiên cứu của riêng mình trong vài tháng tới.

Adeel Razi, nhà khoa học thần kinh máy tính công tác tại Đại học Monash, nhận xét các học thuyết hiện tại vẫn còn dựa trên hiểu biết của ta về nhận thức con người, và vốn dĩ chưa hoàn chỉnh. Hơn nữa, nhận thức còn tồn tại dưới những dạng khác, ví dụ như nhận thức của những loài có vú khác. “Thực tế, chúng ta không biết cuộc đời trong mắt con dơi ra sao. Đây là giới hạn mà ta không thể phá bỏ", ông Razi nhận định.

Theo Science

Kim

Tin nên đọc

Tin cùng chuyên mục

Chưa có bài viết nào

Tin mới nhất

ĐỌC NHIỀU NHẤT

Tin nổi bật