Tin tức Khoa học Skynet

AI mới trông giống như một con người và có khả năng tự điền vào chỗ trống

Ngày:
Th5 16, 2019
Tóm tắt:

Các nhà khoa học máy tính đã dạy một tác nhân trí tuệ nhân tạo cách làm một việc mà thường chỉ có con người mới làm được – hãy nhìn thoáng qua và suy luận toàn bộ môi trường của nó, một kỹ năng cần thiết để phát triển robot tìm kiếm và cứu hộ hiệu quả mà một ngày nào đó có thể nâng cao hiệu quả của các nhiệm vụ nguy hiểm.

Chia sẻ:
BÀI VIẾT ĐẦY ĐỦ

Một tác nhân AI mới được phát triển bởi các nhà nghiên cứu tại Đại học Texas ở Austin có một vài cái nhìn thoáng qua về môi trường xung quanh, chiếm chưa đến 20% toàn cảnh 360 độ và chiếm phần còn lại của toàn bộ môi trường. Điều làm cho hệ thống này hiệu quả là nó không chỉ chụp ảnh theo các hướng ngẫu nhiên mà sau mỗi lần nhìn thoáng qua, việc chọn bức ảnh tiếp theo mà nó dự đoán sẽ thêm thông tin mới nhất về toàn bộ cảnh. Tín dụng: David Steadman / Santhosh Ramakrishnan / Đại học Texas tại Austin.
Một tác nhân AI mới được phát triển bởi các nhà nghiên cứu tại Đại học Texas ở Austin có một vài cái nhìn thoáng qua về môi trường xung quanh, chiếm chưa đến 20% toàn cảnh 360 độ và chiếm phần còn lại của toàn bộ môi trường. Điều làm cho hệ thống này hiệu quả là nó không chỉ chụp ảnh theo các hướng ngẫu nhiên mà sau mỗi lần nhìn thoáng qua, việc chọn bức ảnh tiếp theo mà nó dự đoán sẽ thêm thông tin mới nhất về toàn bộ cảnh. Tín dụng: David Steadman / Santhosh Ramakrishnan / Đại học Texas tại Austin.

Các nhà khoa học máy tính tại Đại học Texas ở Austin đã dạy cho một tác nhân trí tuệ nhân tạo cách làm một việc mà thường chỉ con người có thể làm – nhìn thoáng qua xung quanh và suy luận toàn bộ môi trường của nó, một kỹ năng cần thiết để phát triển tìm kiếm hiệu quả và robot cứu hộ mà một ngày nào đó có thể cải thiện hiệu quả của các nhiệm vụ nguy hiểm. Nhóm nghiên cứu, dẫn đầu bởi giáo sư Kristen Grauman, Ph.D. ứng cử viên Santhosh Ramakrishnan và cựu tiến sĩ ứng cử viên Dinesh Jayaraman (hiện tại Đại học California, Berkeley) đã công bố kết quả của họ ngày hôm nay trên tạp chí Science Robotics .

Hầu hết các tác nhân AI – hệ thống máy tính có thể ban cho robot hoặc các máy khác có trí thông minh được đào tạo cho các nhiệm vụ rất cụ thể chẳng hạn như nhận ra vật thể hoặc ước tính khối lượng của nó trong môi trường mà chúng đã trải nghiệm trước đây (như một nhà máy). Nhưng tác nhân được phát triển bởi Grauman và Ramakrishnan là mục đích chung thu thập thông tin hình ảnh mà sau đó có thể được sử dụng cho một loạt các nhiệm vụ.

Các nhà khoa học muốn một tác nhân thường được trang bị để vào môi trường và sẵn sàng cho các nhiệm vụ nhận thức mới khi chúng phát sinh. Nó hành xử theo cách linh hoạt và có thể thành công ở các nhiệm vụ khác nhau bởi vì nó đã học được các mô hình hữu ích về thế giới thị giác.

Các nhà khoa học đã sử dụng phương pháp học sâu, một kiểu học máy lấy cảm hứng từ mạng lưới thần kinh của não bộ, để đào tạo tác nhân của họ trên hàng ngàn hình ảnh 360 độ của các môi trường khác nhau.

Bây giờ, khi được trình bày với một cảnh mà nó chưa từng thấy trước đây, người đại diện sử dụng kinh nghiệm của mình để chọn một vài cái nhìn thoáng qua giống như một khách du lịch đứng giữa một nhà thờ chụp một vài bức ảnh theo các hướng khác nhau mà cùng nhau cộng lại hơn 20 phần trăm của toàn cảnh. Điều làm cho hệ thống này hiệu quả là nó không chỉ chụp ảnh theo các hướng ngẫu nhiên mà sau mỗi lần nhìn thoáng qua, việc chọn bức ảnh tiếp theo mà nó dự đoán sẽ thêm thông tin mới nhất về toàn bộ cảnh. Điều này giống như khi bạn ở trong một cửa hàng tạp hóa mà bạn chưa bao giờ ghé thăm trước đây và bạn nhìn thấy táo, bạn sẽ mong tìm thấy cam ở gần đó nhưng để xác định vị trí của sữa, bạn có thể liếc sang hướng khác. Dựa trên những cái nhìn thoáng qua, “đặc vụ” sẽ nhìn thấy những gì nó sẽ thấy nếu nó nhìn theo mọi hướng khác.

Giống như bạn mang thông tin trước về sự đều đặn tồn tại trong môi trường có kinh nghiệm trước đây – giống như tất cả các cửa hàng tạp hóa bạn từng đến – đại lý này tìm kiếm một cách không mệt mỏi. Nó học cách đưa ra những dự đoán thông minh về nơi thu thập thông tin hình ảnh để thành công trong các nhiệm vụ nhận thức.

Một trong những thách thức chính mà các nhà khoa học đặt ra cho bản thân là thiết kế một tác nhân có thể hoạt động dưới những hạn chế về thời gian. Điều này sẽ rất quan trọng trong một ứng dụng tìm kiếm và cứu hộ. Ví dụ, trong một tòa nhà đang cháy, một robot sẽ được yêu cầu nhanh chóng xác định vị trí con người, ngọn lửa, vật liệu nguy hiểm và chuyển thông tin đó cho lính cứu hỏa.

Lâu nay, “đặc vụ” mới hoạt động giống như một người đứng tại một điểm với khả năng hướng camera theo bất kỳ hướng nào nhưng không thể di chuyển đến vị trí mới. Hoặc tương tự tác nhân có thể nhìn vào một vật mà nó đang giữ và quyết định làm thế nào để xoay đối tượng để kiểm tra một mặt khác của nó. Tiếp theo, các nhà nghiên cứu đang phát triển hệ thống hơn nữa để làm việc trong một robot hoàn toàn di động.

Sử dụng các siêu máy tính tại Trung tâm điện toán nâng cao Texas của Khoa Austin và Khoa Khoa học máy tính mất khoảng một ngày để đào tạo đại lý của họ bằng cách sử dụng phương pháp trí tuệ nhân tạo gọi là học tăng cường. Nhóm nghiên cứu với sự lãnh đạo của Ramakrishnan đã phát triển một phương pháp để tăng tốc độ đào tạo: xây dựng một đặc vụ thứ hai, được gọi là sidekick, để hỗ trợ các đặc vụ chính.

Nghiên cứu này được hỗ trợ, một phần, bởi Cơ quan Dự án Nghiên cứu Tiên tiến Quốc phòng Hoa Kỳ, Văn phòng Nghiên cứu Khoa học của Không quân Hoa Kỳ, Tập đoàn IBM và Sony Corp.

Nguồn truyện:

Tài liệu được cung cấp bởi Đại học Texas tại Austin . Lưu ý: Nội dung có thể được chỉnh sửa cho kiểu dáng và độ dài.


Tạp chí tham khảo :

  1. Santhosh K. Ramakrish Nam, Dinesh Jayaraman, Kristen Grauman. Sự xuất hiện của các hành vi khám phá xung quanh thông qua hoàn thành quan sát tích cực . Khoa học Robotics , 2019; 4 (30): eaaw6326 DOI: 10.1126 / scirobotics.aaw6326

Bài viết liên quan

Bài viết mới