Khái niệm về phương tiện tự hành (AV) từ lâu đã làm dấy lên cuộc tranh luận về đạo đức của việc chuyển giao quyền tự chủ ra quyết định trên đường bộ. Hiệp hội kỹ sư ô tô đặt ra 6 cấp độ tự chủ được sử dụng chính thức trong toàn ngành để phân biệt khả năng AV.
AV cấp 0-2 đã tồn tại trên thị trường thương mại. Cấp độ 3 là bước nhảy vọt đáng kể đầu tiên về năng lực. Nó mô tả những phương tiện có thể tự lái trong thời gian ngắn nhưng yêu cầu người lái xe phải sẵn sàng can thiệp nếu hệ thống yêu cầu. Cấp độ 4-5 sau đó vượt xa khả năng phát hiện môi trường. Những điều này bao gồm các công nghệ tiên tiến giúp loại bỏ hoàn toàn sự can thiệp của con người. AV cấp 4 có thể hoàn thành toàn bộ hành trình mà không cần sự can thiệp của con người trong các điều kiện cụ thể. Cấp 5 có thể hoàn thành toàn bộ hành trình trong mọi trường hợp. Ví dụ, cấp độ 5 sẽ được liên kết với những phương tiện thậm chí không cần vô lăng hoặc bàn đạp.
Những tình thế tiến thoái lưỡng nan về đạo đức và đạo đức xuất hiện xung quanh hai cấp độ tự chủ cao hơn này phát sinh từ việc mất gần như toàn bộ quyền ra quyết định trực tiếp. Chức năng chính xác của các công nghệ cốt lõi, khả năng coi trọng cuộc sống và các nguyên tắc của con người, sự đánh đổi và trách nhiệm giải trình khi đó đều trở thành vấn đề trong cả khuôn khổ đạo đức và pháp lý.
Chúng ta sẽ khám phá những điều này, bắt đầu với Bài toán xe đẩy khét tiếng.
Vấn đề xe đẩy là một thử nghiệm tư duy được tạo ra trong nhánh triết học gọi là đạo đức đức hạnh và thảo luận về những hậu quả có thể thấy trước so với những hậu quả dự kiến ở cấp độ đạo đức. Biến thể chính do triết gia người Anh Philippa Foot (1967) nghĩ ra như sau:
Một chiếc xe đẩy đang chạy dọc theo một dãy đường ray, mất kiểm soát và không thể gãy được. Tuy nhiên, có 5 người bị trói trên đường ray này và chiếc xe đẩy đang nhanh chóng tiếp cận họ. Bạn đang đứng ngoài đường ray cạnh một đòn bẩy, nếu được kéo sẽ chuyển hướng quỹ đạo của xe đẩy sang một nhóm đường ray khác. Đường ray thay thế này chỉ có một người bị trói vào nó, vì vậy chiếc xe đẩy hiện sẽ giết chết 5 người, nhưng con số này có thể giảm xuống chỉ còn một nếu bạn hành động. Bạn có kéo cần gạt không?
Vấn đề Xe đẩy có thể được xem xét dưới nhiều khuôn khổ đạo đức.
Dù theo hệ tư tưởng nào đi nữa thì nghĩa vụ của chúng ta là giảm thiểu tác hại cho người khác đều mâu thuẫn trực tiếp với nghĩa vụ của chúng ta là lựa chọn hành động đúng đắn về mặt đạo đức. Khả năng đánh giá các quyết định và sự đánh đổi như thế này là điều mà nhiều người đặt câu hỏi về xe tự lái. Ví dụ: nếu một chiếc AV sắp va chạm, hành khách trên xe có nên được ưu tiên hơn người đi bộ/các phương tiện khác không?
Tuy nhiên, đó không chỉ là khả năng đưa ra những quyết định khó khăn mà phải được xem xét về mặt đạo đức của xe tự hành. Khi bản thân con người không thể đồng ý về khuôn khổ đạo đức nào sẽ giải quyết tốt nhất Vấn đề Xe đẩy, thì làm thế nào chúng ta có thể lập trình cho những chiếc xe tự lái để cân nhắc những sự đánh đổi như thế này theo một hệ tư tưởng?
Chúng ta nên lập trình những giá trị và nguyên tắc cơ bản nào cho AI?
Chúng ta muốn nó ưu tiên các nhiệm vụ tích cực: số lượng mạng sống được cứu hay nhiệm vụ tiêu cực: giảm thiểu tác hại tích cực đã gây ra?
Vào năm 2018, Uber đã thử nghiệm AV cấp 3 ở Arizona, dẫn đến một vụ tử vong thương tâm cho người đi bộ – vụ đầu tiên do AV gây ra. Lên cấp 3, trên xe có tài xế dự phòng nhưng vẫn chưa đủ. Với hệ thống phát hiện môi trường đang gặp khó khăn trong việc xác định chính xác chướng ngại vật – ở đây là người đi bộ và xe đạp, khả năng gây tổn hại không được hệ thống cảnh báo của ô tô nhận ra đủ nhanh. Vào thời điểm người lái xe dự phòng cuối cùng được cảnh báo để kiểm soát, chiếc xe đã va chạm được 0,2 giây và di chuyển với tốc độ 39 mph.
Ví dụ này không nhất thiết thảo luận về sự đánh đổi giữa tổn hại trực tiếp đối với hành khách AV so với người đi bộ bên ngoài phương tiện, vì người lái xe dự phòng không bao giờ có nguy cơ bị tổn hại. Tuy nhiên, điều này làm sáng tỏ liệu chúng ta có thể và nên dựa vào khả năng phát hiện cảm giác của AI thay vì chính chúng ta hay không và liệu việc ghi đè thủ công có phải là phương án dự phòng khả thi trong các tình huống áp lực cao, trong thời gian ngắn như vậy hay không.
Nó cũng nhấn mạnh vấn đề chuyển quyền tự chủ dù chỉ tạm thời sang AV, do thiếu nguyên nhân đạo đức có thể chịu trách nhiệm cho vụ giết người. Trong trường hợp này, Uber đã thu hồi hơn 90 AV cấp 3 khác mà họ đã thử nghiệm ở Arizona và giải quyết với gia đình nạn nhân. Mặt khác, tài xế dự phòng bị buộc tội giết người do cẩu thả. Liệu lỗi có được đổ lên đầu cô ấy một cách chính xác hay lẽ ra đó phải là phương tiện - liệu điều sau có khả thi không?
UNESCO phác thảo rằng các khuôn khổ đạo đức AI nên ưu tiên tránh tổn hại và tôn trọng nhân quyền. An toàn và không phân biệt đối xử phải là nền tảng cho các nguyên tắc học máy. Sự giám sát, kiểm soát và trách nhiệm của con người cũng cần được coi là thiết yếu cùng với AI có trách nhiệm.
Các khái niệm bổ sung về sự công bằng và 'vì lợi ích lớn hơn' gợi ý rằng chúng ta muốn AI sử dụng hệ tư tưởng vị lợi để ra quyết định. Mặt khác, 'tôn trọng nhân quyền' đóng vai trò quan trọng trong tính đúng đắn về mặt đạo đức của các hành động, tức là nghĩa vụ học.
Tất nhiên, tính minh bạch cũng sẽ là yếu tố quan trọng nhất để hiểu được AV sẽ tính toán các quyết định như thế nào. Để đánh giá tác hại gây ra hoặc ngăn ngừa trong trường hợp xảy ra tai nạn AV, chúng ta cần hiểu cách thức và lý do công nghệ AI cơ bản đạt được kết luận nhất định. Sự tin tưởng của công chúng đối với AV sẽ đòi hỏi sự hiểu biết về trách nhiệm giải trình và đảm bảo tuân thủ các khuôn khổ phù hợp.
Cơ quan Nghiên cứu Nghị viện Châu Âu nhận thấy các mối quan tâm về đạo đức, pháp lý và kinh tế phải được giải quyết trong việc phát triển và triển khai AI ra quyết định tự động. Điều này bao gồm nghiên cứu về cách phát triển các nguyên tắc đạo đức trong các thuật toán cơ bản cũng như cách đưa chính sách và quy định toàn cầu theo kịp tốc độ đổi mới AI theo cấp số nhân.
Về mặt nhân quyền, cơ quan con người cũng đang được ưu tiên, với các cơ quan nghiên cứu muốn bảo vệ “quyền của người dùng cuối không phải chịu quyết định chỉ dựa trên xử lý tự động”. Về mặt công nghệ, các tiêu chuẩn an ninh mạng sẽ trở nên quan trọng hơn để đảm bảo hệ thống an toàn và đáng tin cậy. AI đạo đức đòi hỏi phần mềm đáng tin cậy.
Mặc dù chúng tôi hiện chưa có công chúng sử dụng AV cấp 3+ trên đường ở Vương quốc Anh hoặc bất kỳ phương tiện nào như vậy có sẵn ở thị trường nội địa, nhưng những công ty lớn trong ngành như BMW, Tesla và Mercedes đặt mục tiêu ra mắt những phương tiện này vào năm 2025 bằng cách sử dụng công nghệ như Traffic Jam Pilot để làm như vậy.
Nếu AV có đạo đức khi đưa ra quyết định đúng đắn thì sẽ có những lợi ích to lớn. Một số ước tính dự đoán số vụ tai nạn liên quan đến giao thông khi có họ trên đường sẽ giảm 90%. Tuy nhiên, rõ ràng là chúng ta vẫn chưa có khuôn khổ pháp lý và đạo đức có thể định lượng được để nêu rõ cách đưa ra quyết định và ưu tiên đánh đổi khi nói đến các công nghệ hỗ trợ AV.
Do đó, người chơi AV sẽ cần phải phác thảo thêm ý nghĩa của 'giảm thiểu tác hại' và hệ tư tưởng đạo đức nào sẽ đưa ra quyết định. Như chúng ta đã thấy với vụ tai nạn của Uber năm 2018, trách nhiệm giải trình và cơ quan cũng sẽ phải được làm rõ. Tất cả những điều này, cách chúng được xử lý và hướng đi của chúng ta, sẽ có ý nghĩa đạo đức lâu dài đối với xã hội.