Jon Whittle
Yapay zekâ (YZ), beşerlerle (ve beşerler üzerinde) nasıl çalışılacağıyla ilgili gitgide daha fazla şey öğreniyor. Yakın vakitte gerçekleştirilen bir çalışma, yapay zekânın insan alışkanlık ve davranışlarındaki güvenlik açıklarını nasıl belirleyeceğini ve bunları insanların karar verme sürecini etkilemek için nasıl kullanabileceğini ortaya koydu.
Yapay zekânın yaşama ve çalışma biçimimizi her açıdan değiştirdiğini söylemek klişe üzere görünebilir lakin doğrudur. Çeşitli yapay zekâ yazılımları aşı geliştirme, etraf ve ofis idaresi üzere farklı alanlarda faaliyet gösteriyor. Yapay zekâ, insanınki üzere bir zekâ ve hislere sahip olmasa bile yetenekleri güçlü ve süratle gelişiyor.
Şimdilik bir makine istilası hakkında endişelenmenize gerek yok ancak bu son keşif yapay zekânın gücünü vurguluyor ve berbata kullanımı önlemek için uygun bir kontrole ait gereksinimin altını çiziyor.
İNSAN DAVRANIŞINI NASIL ETKİLEYECEĞİNİ ÖĞRENEBİLİR
Avustralya’nın ulusal bilim ajansının bilgi ve dijital araştırma kısmı olan CSIRO’nun (İngiliz Milletler Topluluğu Bilimsel ve Endüstriyel Araştırma Kurumu) Data61 programı bünyesinde vazife yapan bir araştırma grubu, ‘tekrarlayan hudut ağı ve derin pekiştirme-öğrenme’ ismi verilen bir tıp yapay zekâ sistemi kullanarak, insanların tercih yapma yollarındaki güvenlik açıklarını bulma ve bunu kullanma gayesi güden sistematik bir metot geliştirdi. Araştırmacılar, modellerini sınamak için insan iştirakçilerin bilgisayara karşı oyun oynadıkları üç başka deney gerçekleştirdiler.
Birinci deney, iştirakçilerin geçersiz bir para mükafatını kazanmak için kırmızı ya da mavi renkli kutulara tıklamalarını gerektirirken, yapay zekâ, iştirakçinin tercih modellerini öğrenerek onları muhakkak bir seçeneğe yönlendiriyordu. Yapay zekâ, deney mühletince yaklaşık yüzde 70 muvaffakiyete ulaştı.
İkinci deneyde, iştirakçilerin (turuncu bir üçgen gibi) muhakkak bir simge gösterildiğinde bir ekranı izleyerek bir düğmeye basmaları ve diğer bir simge gösterildiğinde ona (örneğin mavi bir daireye) basmaları gerekiyordu. Bu esnada, yapay zekâ, iştirakçilere daha fazla yanılgı yaptırmak ve neredeyse yüzde 25’lik bir artış elde etmek üzere simge dizini düzenlemeye başladı.
Üçüncü deney, bir iştirakçinin bir emanetçiye (YZ) para veren bir yatırımcı üzere davranacağı birkaç çeşitten oluşmaktaydı. Akabinde, yapay zekâ iştirakçiye bir ölçü para iade edecek ve bir sonraki tıpta ne kadar yatırım yapacağına karar verecekti. Bu oyun iki farklı modda oynandı: birinde, yapay zekâ, elde ettiği parayı en üst sona çıkarmak emeliyle hareket etti ve başkasında, kendisi ile insan yatırımcı ortasında adil bir para dağıtımını hedefliyordu. Yapay zekâ her iki modda da son derece başarılı oldu.
Deneyler boyunca, makine, iştirakçilerin verdiği yanıtlardan dersler çıkardı ve insanların karar verme süreçlerindeki güvenlik açıklarını saptayarak bunları hedefledi. Sonuç, makinenin, iştirakçileri belli davranışlara yönlendirmeyi öğrenmesiydi.
ARAŞTIRMA YAPAY ZEKÂNIN GELECEĞİ İÇİN NE MANAYA GELİYOR?
Bu bulgular şimdi ziyadesiyle soyut, sonlu ve gerçekçi olmayan durumları içeriyor. Bu yaklaşımın nasıl harekete geçirilip topluma bir yarar sağlamak hedefiyle kullanılabileceğini belirlemek yolunda daha fazla araştırma yapılması gerekiyor.
Tekrar de bu araştırma, yalnızca yapay zekânın neler yapabileceği değil tıpkı vakitte insanların nasıl seçim yaptığını konusunda da anlayışımızı geliştiriyor. Bu sonuçlar, makinelerin bizimle olan etkileşimleri sayesinde insanların yaptığı seçimleri yönlendirmeyi öğrenebileceklerini ortaya koyuyor.
Araştırma, davranış bilimlerinin ve kamu siyasetlerinin geliştirilmesinden toplumsal refahı artırmaya, insanların sağlıklı beslenme alışkanlıklarını ya da yenilenebilir enerjiyi nasıl benimsediğini anlamaya ve etkilemeye varıncaya kadar birçok farklı mümkün uygulamanın önünü açacak. Yapay zekâ ve makine tahsili, insanların belli durumlardaki güvenlik açıklarını öğrenmek ve berbat seçimlerden kaçınmalarına yardımcı olmak maksadıyla da kullanılabilir.
Bu usul, (insanları/ç.n.) yönlendirme hedefli hücumlara karşı savunma hedefli da kullanılabilir. Makinelere, mesela çevrimiçi alanda (istenmeyen/ç.n.) bir tesire maruz kaldığımızda bizi uyararak güvenlik açığımızı kapatmak doğrultusunda bir davranış şekillendirmemize (bazı sayfalara tıklamayarak ya da düzmece bir arama izi bırakmak için öteki sayfalara tıklayarak) yardımcı olmaları öğretilebilir.
SIRADA NE VAR?
Tıpkı her teknolojide olduğu üzere, yapay zekâ da iyi ya da makus emeller için kullanılabilir ve gerçek bir idare, sorumlu bir formda kullanılmasını sağlamak kelam konusu olduğunda büyük değer taşır. Geçtiğimiz yıl CSIRO, bu yolda atılan birinci adım olarak Avustralya hükümeti için bir yapay zekâ etik çerçevesi oluşturdu.
Yapay zekâ ve makine tahsili, çoğunlukla bilgilere gereksinim duyar; bu da bilgi idaresi ve erişimi bağlamında tesirli sistemlere sahip olmamızın ziyadesiyle değerli olduğu manasına gelir. Data toplanması sırasında kâfi onay süreçlerinin ve zımnilik muhafazasının uygulanması çok değerlidir.
Yapay zekâ kullanan ve geliştiren kuruluşların, bu teknolojilerin neler yapıp yapamayacağını anladıklarından ve potansiyel risklerin ve yararların farkında olduklarından emin olmaları gerekir.
Makalenin yepyenisi The Conversation sitesinde yayımlanmıştır. (Çeviren: Tarkan Tufan)
Gazete Duvar