Tin tức Khoa học Skynet

Cách làm cho xe tự lái an toàn hơn trên đường

Ngày:
Th4 02, 2019
Tóm tắt:

Các nhà nghiên cứu đã giải quyết một vấn đề tồn tại từ lâu đối với các nhà phát triển xe tự trị: thử nghiệm các thuật toán nhận thức của hệ thống, cho phép chiếc xe ‘hiểu’ những gì nó ‘nhìn thấy’.

Chia sẻ:
BÀI VIẾT ĐẦY ĐỦ

Đó là một câu hỏi lớn đối với nhiều người ở các thành phố đông đúc giao thông như Los Angeles: Khi nào xe tự lái sẽ đến? Nhưng sau một loạt các vụ tai nạn cao cấp ở Hoa Kỳ, các vấn đề an toàn có thể khiến giấc mơ tự điều khiển bị đình trệ.

Tại USC, các nhà nghiên cứu đã công bố một nghiên cứu mới giải quyết một vấn đề tồn tại từ lâu đối với các nhà phát triển xe tự động: thử nghiệm các thuật toán nhận thức của hệ thống, cho phép chiếc xe “hiểu” những gì nó “nhìn thấy”.

Làm việc với các nhà nghiên cứu từ Đại học bang Arizona, phương pháp toán học mới của nhóm có thể xác định được sự bất thường hoặc lỗi trong hệ thống trước khi xe chạm đường.

Các thuật toán nhận thức dựa trên các mạng thần kinh tích chập, được hỗ trợ bởi học máy (machine learning), một loại hình học sâu (deep learning). Các thuật toán này nổi tiếng là khó kiểm tra, vì chúng tôi không hiểu đầy đủ về cách chúng đưa ra dự đoán của mình. Điều này có thể dẫn đến hậu quả tàn khốc trong các hệ thống quan trọng an toàn như xe tự động.

GIÁO SƯ KHOA HỌC MÁY TÍNH USC, JYO DESHMUKH (TRÁI), CÙNG VỚI NGHIÊN CỨU SINH TIẾN SĨ USC ANAND BALAKRISHNANAND, TÁC GIẢ CHÍNH CỦA NGHIÊN CỨU VÀ XIN QIN, ĐỒNG TÁC GIẢ. ẢNH / CAITLIN DAWSON.
GIÁO SƯ KHOA HỌC MÁY TÍNH USC, JYO DESHMUKH (TRÁI), CÙNG VỚI NGHIÊN CỨU SINH TIẾN SĨ USC ANAND BALAKRISHNANAND, TÁC GIẢ CHÍNH CỦA NGHIÊN CỨU VÀ XIN QIN, ĐỒNG TÁC GIẢ.
ẢNH / CAITLIN DAWSON.

“Làm cho thuật toán nhận thức trở nên mạnh mẽ là một trong những thách thức quan trọng hàng đầu đối với các hệ thống tự động”, tác giả chính của nghiên cứu, Anand Balakrishnan, một sinh viên tiến sĩ khoa học máy tính của USC cho biết.

“Sử dụng phương pháp này, các nhà phát triển có thể thu hẹp các lỗi trong thuật toán nhận thức nhanh hơn nhiều và sử dụng thông tin này để đào tạo thêm cho hệ thống. Giống như cách các xe ô tô phải trải qua các bài kiểm tra va chạm để đảm bảo an toàn, phương pháp này cung cấp một bài kiểm tra trước bắt lỗi trong các hệ thống tự động. “

Bài viết có tiêu đề Xác định và Đánh giá các chỉ số chất lượng cho các hệ thống nhận thức dựa trên tầm nhìn, đã được trình bày tại hội nghị Thiết kế, tự động hóa và thử nghiệm ở châu Âu ở Ý, ngày 28 tháng 3.

Tìm hiểu về thế giới

Thông thường các phương tiện tự động “tìm hiểu” về thế giới thông qua các hệ thống máy học, được cung cấp các bộ dữ liệu khổng lồ về hình ảnh đường trước khi chúng có thể tự xác định các vật thể.

Nhưng hệ thống có thể đi sai. Trong trường hợp tai nạn nghiêm trọng giữa xe tự lái và người đi bộ ở Arizona vào tháng 3 năm ngoái, phần mềm đã phân loại người đi bộ là “dương tính giả” và quyết định không cần dừng lại.

Jyo Deshmukh, giáo sư khoa học máy tính USC và cựu kỹ sư nghiên cứu và phát triển của Toyota, chuyên về an toàn phương tiện tự động cho biết: “Chúng tôi nghĩ rằng, rõ ràng có một số vấn đề với cách thức thuật toán nhận thức này đã được đào tạo.

TRONG VÍ DỤ NÀY, THUẬT TOÁN NHẬN THỨC PHÂN LOẠI SAI NGƯỜI ĐI XE ĐẠP LÀ NGƯỜI ĐI BỘ VỚI ĐỘ TIN CẬY CAO.
TRONG VÍ DỤ NÀY, THUẬT TOÁN NHẬN THỨC PHÂN LOẠI SAI NGƯỜI ĐI XE ĐẠP LÀ NGƯỜI ĐI BỘ VỚI ĐỘ TIN CẬY CAO.

“Khi một người cảm nhận được video, có một số giả định nhất định về sự kiên trì mà chúng tôi sử dụng ngầm: nếu chúng tôi thấy một chiếc xe trong khung video, chúng tôi hy vọng sẽ thấy một chiếc xe ở một vị trí gần đó trong khung video tiếp theo. một số ‘điều kiện vệ sinh’ mà chúng tôi muốn thuật toán nhận thức thỏa mãn trước khi triển khai. “

Ví dụ, một đối tượng không thể xuất hiện và biến mất từ ​​khung hình này sang khung hình tiếp theo. Nếu có, nó vi phạm “điều kiện vệ sinh”, hoặc định luật vật lý cơ bản, cho thấy có một lỗi trong hệ thống nhận thức.

Deshmukh và nghiên cứu sinh tiến sĩ Balakrishnan, cùng với sinh viên tiến sĩ USC Xin Qin và sinh viên thạc sĩ Aniruddh Puranic, đã hợp tác với ba nhà nghiên cứu của Đại học bang Arizona để điều tra vấn đề.

Không có chỗ cho lỗi

Nhóm nghiên cứu đã xây dựng một logic toán học mới, được gọi là Logic thời gian chất lượng thời gian, và sử dụng nó để kiểm tra hai công cụ học máy phổ biến Squeeze Det và YOLO sử dụng bộ dữ liệu video thô về cảnh lái xe.

Logic được mài giũa thành công trong các trường hợp của các công cụ học máy vi phạm “điều kiện vệ sinh” trên nhiều khung hình trong video. Thông thường nhất, các hệ thống máy học không phát hiện ra một đối tượng hoặc phân loại sai đối tượng.

Chẳng hạn, trong một ví dụ, hệ thống không nhận ra người đi xe đạp từ phía sau, khi lốp xe đạp trông giống như một đường thẳng đứng mỏng. Thay vào đó, nó phân loại nhầm người đi xe đạp là người đi bộ. Trong trường hợp này, hệ thống có thể không dự đoán chính xác động thái tiếp theo của người đi xe đạp, điều này có thể dẫn đến tai nạn.

Các đối tượng ảo nơi hệ thống nhận biết một đối tượng khi không có cũng rất phổ biến. Điều này có thể khiến chiếc xe bị trượt nhầm vào giờ nghỉ một động thái nguy hiểm tiềm tàng khác.

Phương pháp của nhóm có thể được sử dụng để xác định sự bất thường hoặc lỗi trong thuật toán nhận thức trước khi triển khai trên đường và cho phép nhà phát triển xác định chính xác các vấn đề cụ thể.

Ý tưởng là bắt các vấn đề với thuật toán nhận thức trong thử nghiệm ảo, làm cho các thuật toán an toàn hơn và đáng tin cậy hơn. Điều quan trọng là, vì phương pháp này dựa vào một thư viện “điều kiện vệ sinh”, nên con người không cần phải dán nhãn các đối tượng trong tập dữ liệu thử nghiệm một quá trình tốn nhiều thời gian và thường xuyên bị lỗi.

Trong tương lai, nhóm nghiên cứu hy vọng sẽ kết hợp logic để đào tạo lại các thuật toán nhận thức khi phát hiện ra lỗi. Nó cũng có thể được mở rộng để sử dụng thời gian thực, trong khi chiếc xe đang lái, như một màn hình an toàn thời gian thực.


Nguồn tin tức

Tài liệu được cung cấp bởi Đại học Nam California . Lưu ý: Nội dung có thể được chỉnh sửa cho kiểu dáng và độ dài.


Bài viết liên quan

Bài viết mới