Çin'de yaklaşık 40 milyon kişiye hizmet veren başarılı bir sohbet yazılımı(chatbot) sonra Microsoft da müşteri ilişkilerini geliştirmek amacıyla Tay adında bir sohbet yazılımı tasarladı. Amaç yapay zeka kullanılarak çeşitli öğrenme yöntemleriyle insan iletişimini öğrenip müşteri ilişkilerini iyileştirmekti. Daha sonra Microsoft tasarladığı bu botu Kik, GroupMe, Twitter gibi sosyal platformlarda harekete geçirdi ki günümüzde insanların en çok iletişim kurduğu mecra olan sosyal medyada iletişimi öğrenebilsin. Ayrıca makineleşmiş bir iletişim izlenimi bırakmasın diye Tay tasarlanırken genç bir kız olarak modellendi.

Tay sürekli yeni şeyler öğrenen bir bebek gibiydi yüzbinlerce tweet, konuşma, internet sayfalarını taradı sağlıklı bir iletişim kurabilmek amacıyla. En nihayetinde iletişim kurmaya başladığında insanları seven, diyaloglarıyla insanları güldüren, kısacası samimi diye nitelendirebileceğimiz bir iletişim kurmayı başardı. Aynı girdiyi iki kere yollasanız bile ikisine de farklı şekilde verimli cevaplar verebiliyor, gönderdiğiniz fotoğraflara yorum yapıyor hatta caps yapıp size geri yollayabiliyordu.

Ne olduysa o samimi, güzel Tay gitmiş 24 saat sonra bambaşka bir Tay gelmişti. Hitler sempatizanı, seks bağımlısı, feminizm karşıtı bir sohbet yazılımıyla karşı karşıyaydık. Birçok kişi gibi ben de merak ettim Tay nasıl bu hale geldi diye ve araştırmaya bu konuyla ilgili kaynakları taramaya başladım. Ve gördüm ki onu bu hale getiren yine biz insanlarmışız. Tay birçok kişi tarafından manipülasyona uğradı üst üste atılan mesajlarla adeta DDOS gibi bir saldırıyla karşı karşıyaydı ve 24 saat içinde değişmişti. Mesela "repeat after me" yazdıktan sonra yazdığınız şeyleri tekrarlıyordu fakat bazı "kötü" olarak nitelendirebileceğimiz mesajlar yine kendisine aitti. Fakat bunlar insanların Tay'in açıklarını bulup saldırması sonucunda olmasına rağmen Microsoft özür dileyip Tay'ı şimdilik askıya aldı ve Tay tekrar onarım sürecine girdi. Konuyla ilgili açıklama yapan Peter Lee: "Tay tarafından istenmeden atılan kırıcı ve incitici tweetler için tüm içtenliğimizle özür dileriz. Tay şimdilik çevrimdışı, kendimize güvendiğimiz zaman tekrar Tay'ı aktif hale getirmeyi düşünüyoruz." dedi ve 96.000'den fazla tweet atan Tay'in kırıcı ve incitici tweetleri silinip şu an için çevrimdışı hale getirildi.

En nihayetinde yapay zekalar da insanlar gibi "trial and error" (deneme yanılma) yöntemiyle öğrenir. Yani bir machine learning yazılımı ne kadar veriye sahipse o kadar çok öğrenir, bundan dolayı Tay ne kadar manipülasyona ve saldırıya uğrarsa o kadar çok gelişecektir.

Tay öğrenirken yapımcılarını utandırsa da tamamen başarısız bir girişim değildi ve kim bilir belki Microsoft böyle bir sohbet yazılımı yapmayı başarabilirse şirketlerin müşteri ilişkilerine yeni bir soluk gelir ve şirketlerin insanlarla olan ilişkilerindeki problemlere daha akılcı ve daha mantıklı çözümler üretebilen bir "beyin" ortaya çıkar.

Kaynaklar ve İleri Okuma