Trực giác con người – lỗ hổng khó lấp của xe tự lái

Khả năng hạn chế của AI không thể tạo ra sự kết nối giữa nguyên nhân và hậu quả để giúp xe tự lái hành động như con người.

Xe tự lái sử dụng trí thông minh nhân tạo để nhận biết môi trường xung quanh, dự đoán các vật thể di chuyển ra sao đồng thời thu thập tài liệu để tiếp tục học hỏi.Nhưng trong khi xe tự lái có thể được huấn luyện để làm được nhiệm vụ như nêu trên, một số nhà phân tích và kỹ sư nói rằng sự bất lực của AI trong việc đưa ra những kết nối giữa nguyên nhân và hậu quả để xử lý những điều mới mẻ là nguồn gốc của những thách thức trong ngành công nghiệp xe tự lái.Nếu trực giác của con người giúp nhận biết và nhanh chóng dẫn tới quá trình xử lý tình huống, thì xe tự lái không có khả năng tương tự, theo Alex Oyler, giám đốc của SBD Automotive – hãng tư vấn và nghiên cứu độc lập ở Mỹ.

Xe tự lái có thể nhận diện mọi thứ xung quanh, nhưng không thể suy diễn logic như con người. Ảnh: Tesla

Xe tự lái có thể nhận diện mọi thứ xung quanh, nhưng không thể suy diễn logic như con người. Ảnh: Tesla

Việc AI không hiểu được quan hệ nhân quả làm hạn chế việc đưa ra quyết định của xe tự lái trong những trường hợp “khó nhằn” và không thường gặp, gia tăng lo ngại rằng phải ngăn ngừa việc mở rộng công nghệ tự lái, như các mẫu robotaxi.Việc xử lý nhưng tình huống éo le bằng những thuật toán là việc khó vì trong khi xe tự lái giải quyết được những khía cạnh đã học trong việc lái xe nhờ sử dụng dữ liệu, trí thông minh của con người trong các tình huống – nhờ trực giác, sự cảm nhận và suy diễn logic – đã được sao chép.

AI có khả năng khai thác sự giống nhau giữa các tình huống, nhưng phép ngoại suy kiểu này có thể đặt ra những vấn đề về an toàn.Xe tự lái về cơ bản sử dụng các công cụ giống nhau để khám phá và thiết lập các phản ứng với những trường hợp khó, dù tài liệu hướng dẫn có thể rất khác nhau tùy vào mỗi hãng, theo Srikanth Saripalli, thành viên cấp cao thuộc Viện kỹ sư điện và điện tử kiêm giáo sư đại học A&M Texas.Trong quá trình học hỏi và nghiên cứu, các hãng thử nghiệm xe tự lái trên đường công cộng thường sử dụng một hoặc hơn các tài xế an toàn là con người hoặc các nhân viên điều hành để giám sát thứ mà xe tự lái thấy cũng như cách xe hoạt động. Tài xế an toàn hoặc nhân viên điều hành sẽ nắm quyền điều khiển nếu nhận thấy có điều bất thường.Xe thu thập dữ liệu từ các cảm biến trước, trong lúc và sau khi tai nạn diễn ra, sau đó các công ty đưa những dự liệu này vào mô phỏng để có thể sử dụng cho hàng nghìn thậm chí hàng triệu kịch bản liên quan. Những kịch bản này sẽ huấn luyện xe và xác nhận phản ứng của chiếc xe có đúng hay không.Một số công ty cũng sử dụng những phương pháp mã hóa truyền thống để thu thập các phản hồi. Cách tiếp cận này dựa vào giả thuyết rằng sự đa dạng cũng như lượng lớn dữ liệu là giải pháp cho những vấn đề khó giải quyết. Nếu các nhà phát triển có thể tìm kiếm, đưa ra càng nhiều ý tưởng hoặc mô phỏng càng nhiều dạng tình huống có thể xảy ra, những chiếc xe sẽ được chuẩn bị cho những thứ không được đoán trước. Các nhà phát triển cũng có thể sử dụng AI để tạo ra những kịch bản đa dạng.Nhưng việc huấn luyện cũng rất khó khăn, và có thể mất 5 năm để thử nghiệm cảm biến độc lập rồi sau đó đưa vào hệ thống của xe và tạo ra các thuật toán. Mô phỏng các điều kiện đường sá để huấn luyện xe tự lái cũng đòi hỏi nhiều yếu tố, từ năng lực xử lý và bộ nhớ.Dữ liệu cũng phải “sạch”. Khối lượng của phép hoán vị thì gần như “vực sâu không đáy”: địa lý, hệ thống biển báo, trang phục, thời tiết, tầm nhìn, các góc quan sát, khoảng cách và nhiều thứ khác có thể được điều chỉnh cho dữ liệu huấn luyện. Rồi đặc tính của thói quen của con người, như tâm trạng và sự tập trung, cũng cần được xây dựng cho việc mô phỏng.Nhưng thuật toán sẽ học rằng biển báo dừng là một biển kim loại màu đỏ hình bát giác có chữ STOP, hay sẽ học biển báo dừng là bất cứ vật thể màu đỏ nào trong môi trường?”Dữ liệu huấn luyện rất có ích, nhưng chúng ta không cần phải biết cách mà AI sẽ thực hiện”, Tim Wong, giám đốc marketing công nghệ ôtô ở Nvidia nói.Một số chuyên gia tỏ ra hoài nghi việc dựa vào cách tiếp cận này. Họ cho rằng khó có khả năng thu tập đủ tình huống đa dạng để chuẩn bị cho xe tự lái có thể hoạt động, kể cả với sự linh hoạt của AI. Một số nói rằng nếu không có sự suy diễn logic, AI có thể không đủ khả năng vận hành hợp lý những tình huống khó chưa từng gặp.Các công cụ AI trên xe tự lái dựa vào những cảm biến hoạt động gối lên nhau, có thể nhận biết xa hơn so với mắt người, đồng thời tập trung và nhận diện sự tương quan. Nhưng các cảm biến nói chung không nhận diện được mối quan hệ nhân quả giữa những biến số khác nhau, và không thể dùng lý trí hay suy luận để giải quyết vấn đề.Thực tế, ở nơi được ví như thủ phủ của xe tự lái – San Francisco, Mỹ – đã có những trường hợp mà xe tự lái không hành động giống như con người, dẫn đến những tình huống xung đột phức tạp. Đó là khi xe tự lái dừng hẳn lại và gây tắc đường vì sương mù, hay tỏ ra lúng tùng vì không hiểu tín hiệu của cảnh sát khi bị bắt phải dừng lại. Trong trường hợp tài xế là con người, quyết định sẽ được đưa ra nhanh chóng, dù có thể chưa biết sai hay đúng.

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

Contact Me on Zalo