Tin tức Khoa học Skynet

Tác nhân AI cung cấp các lý do sử dụng ngôn ngữ hàng ngày để giải thích các hành động của nó

Ngày:
Th4 12, 2019
Tóm tắt:

Các nhà nghiên cứu đã phát triển một tác nhân thông minh nhân tạo (AI) có thể tự động tạo ra các giải thích ngôn ngữ tự nhiên trong thời gian thực để truyền đạt các động lực đằng sau hành động của nó.

Chia sẻ:
BÀI VIẾT ĐẦY ĐỦ

Các nhà nghiên cứu của Viện Công nghệ Georgia, hợp tác với Đại học Cornell và Đại học Kentucky, đã phát triển một tác nhân thông minh nhân tạo (AI) có thể tự động tạo ra các giải thích ngôn ngữ tự nhiên trong thời gian thực để truyền tải các động lực đằng sau hành động của nó. Công trình được thiết kế để giúp con người tham gia với các tác nhân AI hoặc robot tự tin rằng tác nhân đó đang thực hiện nhiệm vụ một cách chính xác và có thể giải thích một sai lầm hoặc một hành vi sai trái.

Một tác nhân AI cung cấp lý do của nó để đưa ra quyết định trong trò chơi video này.
Tín dụng: Georgia Tech
Một tác nhân AI cung cấp lý do của nó để đưa ra quyết định trong trò chơi video này.
Tín dụng: Georgia Tech

Các đại lý cũng sử dụng ngôn ngữ hàng ngày mà những người không phải là chuyên gia có thể hiểu. Các giải thích, hay “lý trí” như các nhà nghiên cứu gọi chúng, được thiết kế để có thể tin cậy và truyền cảm hứng cho những người có thể ở nơi làm việc với máy AI hoặc tương tác với họ trong các tình huống xã hội.

“Nếu sức mạnh của AI được dân chủ hóa, nó cần phải được tiếp cận với bất kỳ ai bất kể khả năng kỹ thuật của họ,” Upol Ehsan, Ph.D. sinh viên Trường Điện toán Tương tác tại Georgia Tech và là nhà nghiên cứu chính.

“Khi AI lan tỏa mọi khía cạnh trong cuộc sống của chúng ta, có một nhu cầu riêng biệt đối với thiết kế AI tập trung vào con người, khiến cho các hệ thống hộp đen AI có thể giải thích được cho người dùng hàng ngày. Công việc của chúng tôi là một bước hình thành để hiểu vai trò của giải thích dựa trên ngôn ngữ và cách thức con người nhận thức được chúng. “

Nghiên cứu được hỗ trợ bởi Văn phòng Nghiên cứu Hải quân (ONR).

Các nhà nghiên cứu đã phát triển một nghiên cứu tham gia để xác định xem liệu tác nhân AI của họ có thể đưa ra những lý lẽ bắt chước phản ứng của con người hay không. Khán giả theo dõi đặc vụ AI chơi trò chơi điện tử Frogger và sau đó xếp hạng ba tỷ lệ hợp lý trên màn hình theo thứ tự từng mô tả trò chơi của AI di chuyển tốt như thế nào.

Trong ba biện minh được ẩn danh cho mỗi lần di chuyển – phản hồi do con người tạo ra, phản ứng của tác nhân AI và phản hồi được tạo ngẫu nhiên – những người tham gia ưu tiên các lý do do con người tạo ra trước tiên, nhưng các phản hồi do AI tạo ra chỉ là 1 giây.

Frogger cung cấp cho các nhà nghiên cứu cơ hội đào tạo AI trong một “môi trường ra quyết định tuần tự”, đây là một thách thức nghiên cứu quan trọng bởi vì các quyết định mà tác nhân đã đưa ra ảnh hưởng đến các quyết định trong tương lai. Do đó, việc giải thích chuỗi lý luận cho các chuyên gia là khó khăn, và thậm chí còn hơn thế khi giao tiếp với những người không phải là chuyên gia, theo các nhà nghiên cứu.

Khán giả loài người hiểu mục tiêu của Frogger là đưa chú ếch về nhà an toàn mà không bị các phương tiện di chuyển hoặc bị chết đuối dưới sông. Cơ chế trò chơi đơn giản là di chuyển lên, xuống, sang trái hoặc phải, cho phép người tham gia xem AI đang làm gì và đánh giá xem các lý do trên màn hình có minh chứng rõ ràng cho việc di chuyển hay không.

Khán giả đánh giá các lý do dựa trên:

  • Tự tin – người tự tin vào AI để thực hiện nhiệm vụ của mình
  • Giống con người – có vẻ như nó được tạo ra bởi một con người
  • Biện minh đầy đủ – biện minh đầy đủ cho hành động được thực hiện
  • Hiểu được – giúp người đó hiểu hành vi của AI

Những lý do do AI tạo ra được những người tham gia xếp hạng cao hơn là những người thể hiện sự công nhận về điều kiện môi trường và khả năng thích ứng, cũng như những người truyền đạt nhận thức về những nguy hiểm sắp tới và lên kế hoạch cho họ. Thông tin dư thừa chỉ nêu rõ ràng hoặc bị nhầm lẫn môi trường đã được tìm thấy có tác động tiêu cực.

“Dự án này thiên về hiểu biết và sở thích của con người đối với các hệ thống AI này hơn là xây dựng các công nghệ mới,” Ehsan nói. “Tại trung tâm của khả năng giải thích là ý nghĩa. Chúng tôi đang cố gắng để hiểu được yếu tố con người.”

Một nghiên cứu liên quan thứ hai đã xác nhận quyết định của các nhà nghiên cứu về việc thiết kế tác nhân AI của họ để có thể đưa ra một trong hai loại hợp lý riêng biệt:

  • Hợp lý, “tập trung” hợp lý hoặc
  • Toàn diện, “bức tranh hoàn chỉnh” hợp lý

Trong nghiên cứu thứ hai này, những người tham gia chỉ được cung cấp các lý do do AI tạo ra sau khi xem AI chơi Frogger. Họ được yêu cầu chọn câu trả lời mà họ ưa thích trong kịch bản mà AI mắc lỗi hoặc hành xử bất ngờ. Họ không biết các lý do được nhóm thành hai loại.

Theo tỷ lệ chênh lệch 3 trên 1, những người tham gia ủng hộ các câu trả lời được phân loại trong danh mục “bức tranh hoàn chỉnh”. Các phản hồi cho thấy mọi người đánh giá cao suy nghĩ của AI về các bước trong tương lai thay vì chỉ những gì hiện tại, điều này có thể khiến họ dễ mắc sai lầm khác. Mọi người cũng muốn biết nhiều hơn để họ có thể trực tiếp giúp AI khắc phục hành vi sai trái.

Mark Riedl, giáo sư về tính toán tương tác, nói: “Sự hiểu biết sâu sắc về nhận thức và sở thích của những người làm việc với máy AI cung cấp cho chúng ta một bộ hiểu biết mạnh mẽ có thể giúp chúng ta thiết kế các tác nhân tự trị, tạo ra sự hợp lý, tập trung vào con người tốt hơn”. lãnh đạo khoa trong dự án.

Một hướng nghiên cứu trong tương lai có thể sẽ áp dụng các phát hiện cho các tác nhân tự trị thuộc nhiều loại khác nhau, chẳng hạn như các tác nhân đồng hành và cách chúng có thể phản ứng dựa trên nhiệm vụ trong tay. Các nhà nghiên cứu cũng sẽ xem xét cách các tác nhân có thể phản ứng trong các tình huống khác nhau, chẳng hạn như trong một phản ứng khẩn cấp hoặc khi trợ giúp giáo viên trong lớp học.

Nghiên cứu được trình bày vào tháng 3 tại Hội nghị Giao diện người dùng thông minh năm 2019 của Hiệp hội Máy tính. Bài viết có tiêu đề “Thế hệ hợp lý tự động: Một kỹ thuật cho AI có thể giải thích và ảnh hưởng của nó đối với nhận thức của con người.” Ehsan sẽ trình bày một vị trí làm nổi bật các thách thức về thiết kế và đánh giá của các hệ thống AI có thể giải thích được lấy con người làm trung tâm tại các triển vọng mới nổi trong hội thảo về máy học tập trung vào con người tại hội nghị ACM CHI 2019, ngày 4-9 tháng 5, tại Glasgow, Scotland.


Nguồn tin tức:

Tài liệu được cung cấp bởi Viện Công nghệ Georgia . Lưu ý: Nội dung có thể được chỉnh sửa cho kiểu dáng và độ dài.


Tạp chí tham khảo :

  1. Upol Ehsan, Pradyumna Tambwekar, Larry Chan, Brent Harrison, Mark Riedl. Thế hệ hợp lý tự động: Một kỹ thuật cho AI có thể giải thích và những ảnh hưởng của nó đối với nhận thức của con người . Hội nghị Hội nghị giao diện người dùng thông minh của máy tính 2019 , 2019 [ link ]

Bài viết liên quan

Bài viết mới