Yapay zeka robotunun yolcuya söylediği yalan, havayolu şirketine pahalıya patladı
Air Canada, bir yolcuya yanlış bilgi vermesi nedeniyle yüzlerce dolarlık tazminat ödemek zorunda kaldı. Jake Moffatt, geçen yıl Kasım ayında Vancouver'dan Toronto'ya yaptığı uçuş rezervasyonu için Air Canada'ya dava açtı. Büyükannesinin ölümünden sonra yas indirimi için talepte bulunan Moffatt'a, web sitesindeki sohbet robotu yanlış bilgi verdi.
"CHATBOT, KENDİ EYLEMLERİNDEN SORUMLU OLAN AYRI BİR TÜZEL KİŞİLİK"
Sohbet robotu, normal fiyatlı bir bilet satın alması halinde yas indirimini geri talep etmek için 90 güne kadar süresi olduğunu söyledi. Moffatt, bu tavsiyeye uyarak biletlerini aldı ancak geri ödeme talebinde bulunduğunda Air Canada, bunu yapmayacağını bildirdi. Havayolu şirketi, satın alınan uçuşlardan sonra yas ücretlerinin geri talep edilemeyeceğini belirtti; bu da sohbet robotunun Moffatt'a verdiği bilgilerle çelişiyordu.
Mahkeme sürecinde Air Canada, chatbot'un hatalı çıktılarından sorumlu tutulmaması gerektiğini savundu. Ancak hakim, "Aslında Air Canada, chatbot'un kendi eylemlerinden sorumlu olan ayrı bir tüzel kişilik olduğunu öne sürmektedir" şeklinde not düşerek bu savunmayı reddetti.
Bu olay, yapay zekanın hukuki sorumluluğuyla ilgili yeni bir tartışma başlattı. Air Canada'nın chatbot'u gerçek bir insan gibi davranabilse de, yapay zeka teknolojisinin hala insan hatalarına ve çelişkilere yol açabileceği gerçeğini değiştirmediği ortaya çıktı.