Khi ô tô tự lái va chạm nhau, ai chịu trách nhiệm? Tòa án và công ty bảo hiểm cần biết những gì bên trong 'hộp đen'

Khi ô tô tự lái va chạm nhau, ai chịu trách nhiệm? Tòa án và công ty bảo hiểm cần biết những gì bên trong 'hộp đen'

    [Vui lòng đăng ký trang Youtube của Pacific Group tại

    https://www.youtube.com/channel/UCAxje1GxiUpZD6MEcR0f5Jg/videos

    Chúng tôi có các buổi chia sẻ về kinh doanh thực tế hàng tuần]

    Khi ô tô tự lái va chạm nhau, ai chịu trách nhiệm? Tòa án và công ty bảo hiểm cần biết những gì bên trong 'hộp đen'

    When self-driving cars crash, who's responsible? Courts and insurers need to know what's inside the 'black box'

    Ảnh: Shutterstock
    Vụ tai nạn nghiêm trọng đầu tiên liên quan đến ô tô tự lái ở Australia xảy ra vào tháng 3 năm nay. Một người đi bộ bị thương nguy hiểm đến tính mạng khi bị chiếc Tesla Model 3 ở chế độ "lái tự động" đâm vào.

    Tại Hoa Kỳ, cơ quan quản lý an toàn đường cao tốc đang điều tra một loạt vụ tai nạn trong đó Teslas trên hệ thống lái tự động đã đâm vào các phương tiện phản ứng thứ nhất có đèn nhấp nháy khi giao thông dừng lại.

    Các quy trình ra quyết định của xe "tự lái" thường không rõ ràng và không thể đoán trước (ngay cả đối với nhà sản xuất của chúng), vì vậy khó có thể xác định ai phải chịu trách nhiệm cho những sự cố như thế này. Tuy nhiên, lĩnh vực "AI có thể giải thích" đang phát triển có thể giúp cung cấp một số câu trả lời.

    Ai chịu trách nhiệm khi ô tô tự lái đâm nhau?

    Trong khi những chiếc xe tự lái còn mới, chúng vẫn là những cỗ máy do các nhà sản xuất chế tạo và bán ra. Khi chúng gây hại, chúng ta nên hỏi liệu nhà sản xuất (hoặc nhà phát triển phần mềm) đã đáp ứng trách nhiệm an toàn của họ hay chưa.

    Luật sơ suất hiện đại bắt nguồn từ trường hợp nổi tiếng của Donoghue v Stevenson, nơi một phụ nữ phát hiện ra một con ốc sên đang phân hủy trong chai bia gừng của cô ấy. Nhà sản xuất bị phát hiện là cẩu thả, không phải vì anh ta được cho là sẽ trực tiếp dự đoán hoặc kiểm soát hành vi của ốc sên, mà vì quá trình đóng chai của anh ta không an toàn.

    Theo logic này, các nhà sản xuất và phát triển các hệ thống dựa trên AI như ô tô tự lái có thể không thể thấy trước và kiểm soát mọi thứ mà hệ thống "tự lái" làm, nhưng họ có thể thực hiện các biện pháp để giảm rủi ro. Nếu thực hành quản lý rủi ro, thử nghiệm, đánh giá và giám sát của họ không đủ tốt, họ phải chịu trách nhiệm.

    Quản lý rủi ro bao nhiêu là đủ?

    Câu hỏi khó sẽ là "Chăm sóc bao nhiêu và quản lý rủi ro bao nhiêu là đủ?" Trong phần mềm phức tạp, không thể kiểm tra trước mọi lỗi. Làm thế nào để các nhà phát triển và nhà sản xuất biết khi nào nên dừng lại?

    May mắn thay, tòa án, cơ quan quản lý và cơ quan tiêu chuẩn kỹ thuật có kinh nghiệm trong việc thiết lập các tiêu chuẩn chăm sóc và trách nhiệm đối với các hoạt động rủi ro nhưng hữu ích.

    Các tiêu chuẩn có thể rất chính xác, giống như dự thảo quy định về AI của Liên minh Châu Âu, yêu cầu giảm rủi ro "càng nhiều càng tốt" mà không liên quan đến chi phí. Hoặc chúng có thể giống luật sơ suất của Úc hơn, cho phép quản lý ít nghiêm ngặt hơn đối với các rủi ro ít có khả năng xảy ra hơn hoặc ít nghiêm trọng hơn, hoặc nơi quản lý rủi ro sẽ làm giảm lợi ích tổng thể của hoạt động rủi ro.

    Các trường hợp pháp lý sẽ phức tạp do độ mờ của AI

    Một khi chúng ta có một tiêu chuẩn rõ ràng cho các rủi ro, chúng ta cần một cách để thực thi nó. Một cách tiếp cận có thể là trao cho cơ quan quản lý quyền hạn áp dụng các hình phạt (ví dụ như ACCC thực hiện trong các vụ việc cạnh tranh).

    Các cá nhân bị tổn hại bởi hệ thống AI cũng phải có khả năng khởi kiện. Trong các trường hợp liên quan đến xe tự lái, các vụ kiện chống lại nhà sản xuất sẽ đặc biệt quan trọng.

    Tuy nhiên, để các vụ kiện như vậy có hiệu quả, các tòa án sẽ cần phải hiểu chi tiết các quy trình và thông số kỹ thuật của hệ thống AI.

    Các nhà sản xuất thường không muốn tiết lộ những chi tiết như vậy vì lý do thương mại. Nhưng các tòa án đã có các thủ tục để cân bằng lợi ích thương mại với một lượng tiết lộ thích hợp để tạo điều kiện thuận lợi cho việc tranh tụng.

    Một thách thức lớn hơn có thể nảy sinh khi bản thân các hệ thống AI là những "hộp đen" mờ đục. Ví dụ, chức năng lái tự động của Tesla dựa trên "mạng nơ-ron sâu", một loại hệ thống AI phổ biến mà ngay cả các nhà phát triển cũng không bao giờ có thể chắc chắn hoàn toàn bằng cách nào hoặc tại sao nó đi đến một kết quả nhất định.

    'AI có thể giải thích' để giải cứu?

    Mở hộp đen của các hệ thống AI hiện đại là tâm điểm của một làn sóng mới của các học giả khoa học máy tính và nhân văn: cái gọi là phong trào "AI có thể giải thích".

    Mục tiêu là giúp các nhà phát triển và người dùng cuối hiểu cách hệ thống AI đưa ra quyết định, bằng cách thay đổi cách hệ thống được xây dựng hoặc bằng cách đưa ra các giải thích sau thực tế.

    Trong một ví dụ cổ điển, một hệ thống AI phân loại nhầm hình ảnh của một con husky thành một con sói. Phương pháp "AI có thể giải thích" cho thấy hệ thống tập trung vào tuyết ở nền ảnh, thay vì động vật ở tiền cảnh.

    Cách sử dụng điều này trong một vụ kiện sẽ phụ thuộc vào nhiều yếu tố khác nhau, bao gồm cả công nghệ AI cụ thể và tác hại gây ra. Mối quan tâm chính sẽ là mức độ truy cập của bên bị thương vào hệ thống AI.

    When self-driving cars crash, who's responsible? Courts and insurers need to know what's inside the 'black box'
    AI có thể giải thích đang hoạt động: một hệ thống AI phân loại không chính xác con khàn ở bên trái là ‘sói’ và ở bên phải, chúng tôi thấy điều này là do hệ thống đang lấy nét vào tuyết ở nền ảnh. Ảnh: Ribeiro, Singh & Guestrin
    Trường hợp Trivago

    Nghiên cứu mới của chúng tôi phân tích một vụ kiện quan trọng của tòa án Úc gần đây cung cấp một cái nhìn đáng khích lệ về điều này có thể trông như thế nào.

    Vào tháng 4 năm 2022, Tòa án Liên bang đã phạt công ty đặt phòng khách sạn toàn cầu Trivago 44,7 triệu đô la vì đã gây hiểu lầm cho khách hàng về giá phòng khách sạn trên trang web của công ty và trong quảng cáo truyền hình, sau một vụ kiện do cơ quan giám sát cạnh tranh ACCC đưa ra. Một hàng đợi quan trọng 

    là cách thuật toán xếp hạng phức tạp của Trivago chọn ưu đãi được xếp hạng cao nhất cho các phòng khách sạn.

    Tòa án Liên bang đã thiết lập các quy tắc cho việc khám phá bằng chứng với các biện pháp bảo vệ để bảo vệ tài sản trí tuệ của Trivago, và cả ACCC và Trivago đã gọi các nhân chứng chuyên môn để cung cấp bằng chứng giải thích cách thức hoạt động của hệ thống AI của Trivago.

    Ngay cả khi không có toàn quyền truy cập vào hệ thống của Trivago, nhân chứng chuyên môn của ACCC vẫn có thể đưa ra bằng chứng thuyết phục rằng hành vi của hệ thống không phù hợp với tuyên bố của Trivago về việc cung cấp cho khách hàng "mức giá tốt nhất".

    Điều này cho thấy cách các chuyên gia kỹ thuật và luật sư cùng nhau có thể vượt qua sự mờ mịt của AI trong các phiên tòa. Tuy nhiên, quá trình này đòi hỏi sự hợp tác chặt chẽ và chuyên môn kỹ thuật sâu, và có thể sẽ rất tốn kém.

    Các nhà quản lý có thể thực hiện các bước ngay bây giờ để hợp lý hóa mọi thứ trong tương lai, chẳng hạn như yêu cầu các công ty AI phải ghi chép đầy đủ hệ thống của họ.

    Con đường phía trước

    Các phương tiện giao thông với nhiều mức độ tự động hóa đang trở nên phổ biến hơn, taxi và xe buýt hoàn toàn tự động đang được thử nghiệm cả ở Úc và nước ngoài.

    Để giữ cho các con đường của chúng ta an toàn nhất có thể sẽ đòi hỏi sự hợp tác chặt chẽ giữa AI và các chuyên gia pháp lý, đồng thời các cơ quan quản lý, nhà sản xuất, công ty bảo hiểm và người dùng đều sẽ có vai trò.

    Zalo
    Hotline