Amazon'un Alexa'sı 'öldür' diyerek tepki çekti
Amazon'nun yapay zekası Alexa, bir kullanıcıya söylediği cümleyle kafaları karıştırdı. Yapay zeka ile sohbet eden kullanıcı, koruyucu ailenizi öldürün cümlesi ile şoka uğradı.
Amerika Birleşik Devletleri’nde yaşayan Amazon Alexa cihazı sahipleri, İngilizce 'Alexa hadi sohbet edelim' diyerek yapay zekayla konuşmaya başlayabiliyorlar. Bu sözcükler, herhangi bir konuyu konuşabileceğiniz socialbot'u etkin hale getiriyor.
Ancak herkesin yapay zekayla sohbet etmekten memnun kaldığı söylenemez. Daha önce yüz kızartan şeyleri açıkça okumasıyla hatırlanan Alexa, bu sefer de 'koruyucu ailenizi öldürün' dedi. İsmi bilinmeyen bir kullanıcı, bu yaşanan olayı 'tüyler ürpertici olmakta yepyeni bir adım' diye nitelendirdi.
Geçtiğimiz yıl önce durduk yerde kötü kahkahalar atarak kullanıcılarını korkutan Alexa, ‘gözünü kapattığında başkalarını ölürken gördüğünü’ de dile getirmişti.
Alexa bunları neden yapıyor?
Yapay zeka, internet üzerinden eğitim görüyor ve insanların nasıl konuştuğunu öğrenmeye çalışıyor. Ancak yazılım kusursuz değil ve bazen insanların garip davranışlarının insanlara geri dönmesine yol açabiliyor. Amazon, Alexa'nın sohbet yeteneklerini geliştirmek için 500.000 dolar ödüllü bir yarışma düzenliyor. Sohbet robotunuz insanlarla 20 dakika konuşabilirse ve bundan 4 yıldız alırsa, ek 1 milyon dolar kazanabiliyorsunuz.