Một mô hình AI mới có thể giải thích được có thể tăng cường sự hợp tác giữa con người và robot

Một mô hình AI mới có thể giải thích được có thể tăng cường sự hợp tác giữa con người và robot

    Một mô hình AI mới có thể giải thích được có thể tăng cường sự hợp tác giữa con người và robot

    Trong trò chơi thám hiểm do thám, để phù hợp với các giá trị của con người, robot sẽ học từ phản hồi của con người đối với các đề xuất. Hình ảnh: Bà Zhen Chen @ BIGAI.

    A new explainable AI paradigm that could enhance human-robot collaboration
    Các phương pháp trí tuệ nhân tạo (AI) ngày càng trở nên tiên tiến trong vài thập kỷ qua, đạt được kết quả đáng kể trong nhiều nhiệm vụ trong thế giới thực. Tuy nhiên, hầu hết các hệ thống AI hiện tại không chia sẻ các phân tích của chúng và các bước dẫn đến dự đoán của chúng với người dùng, điều này có thể khiến việc đánh giá chúng một cách đáng tin cậy là vô cùng khó khăn.

    Một nhóm các nhà nghiên cứu từ UCLA, UCSD, Đại học Bắc Kinh và Viện Trí tuệ nhân tạo tổng hợp Bắc Kinh (BIGAI) gần đây đã phát triển một hệ thống AI mới có thể giải thích quy trình ra quyết định của nó cho người dùng. Hệ thống này, được giới thiệu trong một bài báo đăng trên Science Robotics, có thể là một bước tiến mới trong việc tạo ra AI đáng tin cậy và dễ hiểu hơn.

    Tiến sĩ Luyao Yuan, một trong những tác giả đầu tiên của bài báo: "Lĩnh vực AI có thể giải thích được (XAI) nhằm mục đích xây dựng sự tin tưởng hợp tác giữa robot và con người, và Dự án DARPA XAI đã đóng vai trò như một chất xúc tác tuyệt vời để thúc đẩy nghiên cứu trong lĩnh vực này", Tiến sĩ Luyao Yuan, một trong những tác giả đầu tiên của bài báo. , nói với TechXplore. "Khi bắt đầu dự án DARPA XAI, các nhóm nghiên cứu chủ yếu tập trung vào việc kiểm tra các mô hình cho các nhiệm vụ phân loại bằng cách tiết lộ quy trình quyết định của hệ thống AI cho người dùng; ví dụ: một số mô hình có thể hình dung các lớp nhất định của mô hình CNN, tuyên bố đạt được một số mức độ XAI. "

    Tiến sĩ Yuan và các đồng nghiệp của ông đã tham gia vào dự án DARPA XAI, dự án đặc biệt nhằm phát triển các hệ thống XAI mới và đầy hứa hẹn. Trong khi tham gia vào dự án, họ bắt đầu suy ngẫm về ý nghĩa của XAI theo nghĩa rộng hơn, đặc biệt là về những ảnh hưởng mà nó có thể có đối với sự hợp tác giữa con người và máy móc.

    Bài báo gần đây của nhóm được xây dựng dựa trên một trong những công trình trước đây của họ, cũng được xuất bản trên Science Robotics, nơi nhóm khám phá tác động mà các hệ thống có thể giải thích có thể có đối với nhận thức và sự tin tưởng của người dùng vào AI trong quá trình tương tác giữa người và máy. Trong nghiên cứu trước đây của họ, nhóm đã triển khai và thử nghiệm một hệ thống AI về mặt vật lý (tức là trong thế giới thực), trong khi trong nghiên cứu mới, họ đã thử nghiệm nó dưới dạng mô phỏng.

    "Mô hình của chúng tôi trái ngược với hầu hết các mô hình được đề xuất bởi các nhóm trong chương trình DARPA XAI, chủ yếu tập trung vào cái mà chúng tôi gọi là mô hình người dùng chủ động máy bị động", GS Yixin Zhu, một trong những người giám sát dự án, nói với TechXplore. "Trong các mô hình này, người dùng cần chủ động kiểm tra và cố gắng tìm ra máy đang làm gì (do đó là 'người dùng tích cực') bằng cách tận dụng một số mô hình tiết lộ quy trình ra quyết định tiềm năng của các mô hình AI."

    Các hệ thống XAI tuân theo những gì Giáo sư Zhu gọi là mô hình "người dùng chủ động máy bị động" yêu cầu người dùng liên tục kiểm tra với AI để hiểu các quy trình đằng sau các quyết định của nó. Trong bối cảnh này, sự hiểu biết của người dùng về các quy trình của AI và tin tưởng vào các dự đoán của nó không ảnh hưởng đến quá trình ra quyết định trong tương lai của AI, đó là lý do tại sao máy được gọi là "thụ động".

    Ngược lại, mô hình mới được giới thiệu bởi Tiến sĩ Yuan, Giáo sư Zhu và các đồng nghiệp của họ tuân theo những gì nhóm đề cập đến như một mô hình người dùng hoạt động tích cực bằng máy. Điều này về cơ bản có nghĩa là hệ thống của họ có thể chủ động học hỏi và điều chỉnh việc ra quyết định dựa trên phản hồi mà người dùng nhận được khi đang di chuyển. Khả năng thích ứng theo ngữ cảnh này là đặc điểm của những gì thường được gọi là làn sóng thứ ba / tiếp theo của AI.

    Tiến sĩ Yuan cho biết: “Để có các hệ thống AI hỗ trợ người dùng của họ như chúng tôi mong đợi, các hệ thống hiện tại yêu cầu người dùng viết mã theo các mục tiêu do chuyên gia xác định. "Điều này hạn chế tiềm năng của việc hợp tác giữa người và máy, vì các mục tiêu như vậy có thể khó xác định trong nhiều nhiệm vụ, khiến hầu hết mọi người không thể tiếp cận được các hệ thống AI. Để giải quyết vấn đề này, công việc của chúng tôi cho phép robot ước tính ý định và giá trị của người dùng trong quá trình cộng tác trong thời gian thực, tiết kiệm nhu cầu viết trước các mục tiêu phức tạp và cụ thể cho robot, do đó cung cấp mô hình hợp tác giữa người và máy tốt hơn. "

    Mục tiêu của hệ thống do Tiến sĩ Yuan và các đồng nghiệp của ông tạo ra là đạt được cái gọi là "sự liên kết giá trị". Về cơ bản, điều này có nghĩa là người dùng có thể hiểu tại sao người máy hoặc máy móc lại hành động theo một cách cụ thể hoặc đi đến kết luận cụ thể và máy móc hoặc người máy có thể suy ra lý do tại sao người dùng là con người lại hành động theo những cách cụ thể. Điều này có thể nâng cao đáng kể khả năng giao tiếp giữa người và robot.

    "Bản chất hai chiều và hiệu suất thời gian thực này là thách thức lớn nhất của vấn đề và là điểm nổi bật trong những đóng góp của chúng tôi", GS Zhu nói. "Kết hợp các điểm trên lại với nhau, tôi nghĩ bây giờ bạn sẽ hiểu tại sao tiêu đề bài báo của chúng tôi là" Điều chỉnh giá trị người-rô-bốt hai chiều tại chỗ ".

    Để đào tạo và kiểm tra hệ thống XAI của họ, các nhà nghiên cứu đã thiết kế một trò chơi gọi là "thám hiểm do thám", trong đó con người cần hoàn thành nhiệm vụ theo nhóm. Một trong những khía cạnh quan trọng nhất của trò chơi này là con người và robot để sắp xếp cái gọi là "hàm giá trị" của chúng.


    Nghiên cứu thiết kế Trò chơi Thám hiểm Hướng đạo. Dòng thời gian (A) biểu thị các sự kiện xảy ra trong một vòng duy nhất của trò chơi. Các mốc thời gian (B) và (C) mô tả động lực tinh thần của rô bốt và người dùng, tương ứng. Tín dụng hình ảnh: Bà Zhen Chen @ BIGAI.
    "Trong trò chơi, một nhóm robot có thể nhận thức được môi trường; điều này mô phỏng các ứng dụng trong thế giới thực nơi nhóm robot được cho là hoạt động tự chủ để giảm thiểu sự can thiệp của con người", GS Zhu nói. "Tuy nhiên, người dùng là con người không thể tương tác trực tiếp với môi trường; thay vào đó, người dùng được cung cấp một hàm giá trị cụ thể, được thể hiện bằng tầm quan trọng của một vài yếu tố (ví dụ: tổng thời gian để hoàn thành thời gian và tài nguyên được thu thập khi đang di chuyển ). "

    Trong trò chơi thám hiểm do thám, đội robot không có quyền truy cập vào chức năng giá trị được trao cho người dùng và họ cần phải suy ra nó. Vì giá trị này không thể được thể hiện và truyền đạt một cách dễ dàng, nên để hoàn thành nhiệm vụ, nhóm robot và con người phải suy luận nó với nhau.

    "Giao tiếp là hai chiều trong trò chơi: một mặt, rô-bốt đề xuất nhiều kế hoạch nhiệm vụ cho người dùng và giải thích ưu và nhược điểm cho từng người trong số họ và mặt khác, người dùng đưa ra phản hồi về các đề xuất và đánh giá từng giải thích, "Tiến sĩ Xiaofeng Gao, một trong những tác giả đầu tiên của bài báo, nói với TechXplore. "Những giao tiếp hai chiều này cho phép cái được gọi là liên kết giá trị."

    Về cơ bản, để hoàn thành các nhiệm vụ trong "thám hiểm do thám", đội robot phải hiểu chức năng giá trị của con người đơn giản dựa trên phản hồi của con người là gì. Trong khi đó, người dùng tìm hiểu ước tính giá trị hiện tại của rô bốt và có thể đưa ra phản hồi giúp họ cải thiện và cuối cùng hướng dẫn họ đến phản hồi chính xác.

    Tiến sĩ Gao cho biết: “Chúng tôi cũng tích hợp lý thuyết về tâm trí vào mô hình tính toán của mình, giúp hệ thống AI có thể tạo ra các giải thích phù hợp để tiết lộ giá trị hiện tại và ước tính giá trị của người dùng từ phản hồi của họ trong thời gian thực trong quá trình tương tác. "Sau đó, chúng tôi đã tiến hành các nghiên cứu người dùng rộng rãi để đánh giá khuôn khổ của chúng tôi."

    Trong những đánh giá ban đầu, hệ thống do Tiến sĩ Yuan, Giáo sư Zhu, Tiến sĩ Gao và các đồng nghiệp của họ tạo ra đã đạt được những kết quả đáng kể, dẫn đến sự liên kết các giá trị trong trò chơi thám hiểm do thám một cách nhanh chóng và theo cách tương tác. Nhóm nghiên cứu nhận thấy rằng robot đã điều chỉnh phù hợp với chức năng giá trị của con người ngay từ 25% vào trò chơi, trong khi người dùng có thể có được nhận thức chính xác về các chức năng giá trị của máy trong khoảng thời gian nửa bước vào trò chơi.

    TS Yuan nói. "Chúng tôi tin rằng khuôn khổ của chúng tôi nêu bật sự cần thiết của việc xây dựng những cỗ máy thông minh có thể học và hiểu ý định và giá trị của chúng tôi thông qua các tương tác, điều này rất quan trọng để tránh nhiều câu chuyện khoa học viễn tưởng lạc hậu được mô tả trong tiểu thuyết và trên màn ảnh rộng."

    Công trình gần đây của nhóm các nhà nghiên cứu này là một đóng góp đáng kể cho lĩnh vực nghiên cứu tập trung vào sự phát triển của AI dễ hiểu hơn. Hệ thống mà họ đề xuất có thể đóng vai trò là nguồn cảm hứng cho việc tạo ra các hệ thống XAI khác, nơi rô bốt hoặc trợ lý thông minh tích cực tương tác với con người, chia sẻ quy trình của họ và cải thiện hiệu suất của họ dựa trên phản hồi mà họ nhận được từ người dùng.

    Tiến sĩ Yuan giải thích: "Sự liên kết giá trị là bước đầu tiên của chúng tôi hướng tới sự hợp tác chung giữa con người và robot". "Trong công việc này, sự liên kết giá trị xảy ra trong bối cảnh của một nhiệm vụ duy nhất. Tuy nhiên, trong nhiều trường hợp, một nhóm đại lý hợp tác trong nhiều nhiệm vụ. Ví dụ: chúng tôi mong đợi một robot gia đình giúp chúng tôi làm nhiều công việc hàng ngày, thay vì mua nhiều robot, mỗi robot chỉ có khả năng làm một loại công việc. "

    Cho đến nay, hệ thống XAI của các nhà nghiên cứu đã đạt được những kết quả rất hứa hẹn. Trong các nghiên cứu tiếp theo của họ, Tiến sĩ Yuan, Giáo sư Zhu, Tiến sĩ Gao và các đồng nghiệp của họ có kế hoạch khám phá các trường hợp liên kết giá trị giữa con người và robot có thể được áp dụng trên nhiều nhiệm vụ khác nhau trong thế giới thực, để người dùng và tác nhân AI có thể tích lũy thông tin mà họ có được về các quy trình và khả năng của nhau khi họ hợp tác trong các nhiệm vụ khác nhau.

    Tiến sĩ Gao nói: “Trong các nghiên cứu tiếp theo, chúng tôi cũng tìm cách áp dụng khuôn khổ của mình cho nhiều nhiệm vụ hơn và robot vật lý. "Ngoài các giá trị, chúng tôi tin rằng việc sắp xếp các khía cạnh khác của mô hình tinh thần (ví dụ: niềm tin, mong muốn, ý định) giữa con người và robot cũng sẽ là một hướng đi đầy hứa hẹn."

    Các nhà nghiên cứu hy vọng rằng mô hình AI mới có thể giải thích được của họ sẽ giúp tăng cường sự hợp tác giữa con người và máy móc trong nhiều nhiệm vụ. Ngoài ra, họ hy vọng rằng cách tiếp cận của họ sẽ làm tăng lòng tin của con người vào các hệ thống dựa trên AI, bao gồm trợ lý thông minh, robot, bot và các tác nhân ảo khác.

    "Ví dụ: bạn có thể sửa Alexa hoặc Google Home khi nó gặp lỗi; nhưng nó sẽ mắc lỗi tương tự vào lần tiếp theo khi bạn sử dụng nó ", GS Zhu nói thêm." Khi Roomba của bạn đi đến một nơi nào đó mà bạn không muốn nó đi và cố gắng chống lại nó, nó không hiểu vì nó chỉ đi theo logic AI được xác định trước. Tất cả những điều này ngăn cấm AI hiện đại vào nhà của chúng ta. Bước đầu tiên, công việc của chúng tôi cho thấy tiềm năng giải quyết những vấn đề này, một bước gần hơn để đạt được cái mà DARPA gọi là 'thích ứng theo ngữ cảnh' trong làn sóng AI thứ ba. "

    Zalo
    Hotline