Human-Intelligence-Can-Fix-AI-Shortcomings-1

YAPAY ZEKANIN RİSKLERİ VE FAYDALARI

“Yapay zeka artık hayatımızın her noktasında bulunuyor ve bizi yönlendiriyor. Bu günümüzde bir gerçek ve geleceğimiz için de etkin olacağı belli olan en temel konu. Riskleri ve fırsatları çok konuşulan bu konuya ilişkin, denetim ekibi üyelerinin çevirisini yaptıkları aşağıdaki yazıyı sizlerle paylaşmak isteriz.”

 

YAPAY ZEKA NEDİR?

Yapay zeka,  SIRI’den kendi kendine giden arabalara kadar hızla ilerliyor.  Bilim kurgu, yapay zekayı insan benzeri karakterli robotlar olarak gösterirken, yapay zeka, Google’ın araştırma algoritmasından, IBM’in Watsonuna ve özerk silahlara kadar her şeyi kapsayabilir.

Günümüzde yapay zeka , dar bir görevi yerine getirmek için tasarlandığı için,  dar yapay zeka (ya da zayıf yapay zeka) olarak bilinir ( örneğin yalnızca yüz tanıma ya da yalnızca internet araştırmaları ya da yalnızca araba sürmek).  Ancak çoğu araştırmaların uzun soluklu amacı genel yapay zekayı ( yapay genel zeka ya da güçlü yapay zeka) oluşturmak içindir. Dar yapay zeka, satranç oynamak ya da denklem çözmek gibi belirli görevi ne olursa olsun insanları geride bıraksa da, genel yapay zeka neredeyse her bilişsel görevde insanlardan daha iyi performans göstermektedir.

 

YAPAY ZEKA GÜVENLİĞİNE SON ZAMANLARDA NEDEN İLGİ DUYULUYOR?

Stephen Hawking, Elon Musk, Steve Wozniok, Bill Gates ve bilim teknoloji alanında büyük isim yapmış insanlar son zamanlar da yapay zekanın yarattığı riskler hakkında medya ve açık mektuplar aracılığıyla endişelerini dile getirdiler. Bu endişelere önde gelen birçok yapay zeka araştırmacıları da katıldı. Peki neden bu konu bu kadar haber başlıklarında yer aldı?

Güçlü yapay zeka araştırmalarının nihayetinde yapay zekanın başarılı olacağı fikri uzun zamandır; bilim kurgu olduğu, yüzyıllar veya daha uzun zaman alacağı düşülmüştü. Fakat, son atılımlar sayesinde, uzmanların beş yıl önce saptadığı on yıllarca uzak olduğu düşünülen birçok yapay zeka kilometre taşına ulaşıldı, bu da birçok uzmanın hayatımızdaki süper zeka olasılığını ciddiye almasını sağladı. Bazı uzmanlar halen insan seviyesindeki yapay zekanın yüzyıllarca uzakta olduğunu tahmin ederken, 2015 yılındaki Puerto Rico Konferası’ndaki bazı araştırmalar 2060’dan önce bunun olacağını öne sürdü. Gerekli güvenlik araştırmalarının tamamlanması on yıllar alabileceğinden şimdi başlamanın tedbirli bir davranış olacağına varıldı.

Yapay zekanın herhangi bir insandan daha akıllı olma potansiyeline sahip olduğundan dolayı, nasıl davranacağına dair kesin bir durum yok. Geçmişteki teknolojik gelişmeleri bir temel olarak kullanamayız çünkü hiçbir zaman kasıtlı veya kasıtsız olarak zekice üstünlük kazanılabilecek hiçbir şey oluşturmadık. Bu durumun karşılaşabileceğimiz en iyi örneği kendi evrimimiz olabilir. İnsanlar artık en güçlü, en hızlı veya en büyük olduğumuz için değil, en zeki olduğumuz için gezegeni kontrol ediyorlar. En zeki olmadığımız durumda kontrolü elimizde tutacağımızdan emin miyiz?

FLI’nin konumu, teknolojinin büyüyen  gücü ile yönettiğimiz bilgelik arasındaki yarışı kazandığımız sürece medeniyetimizin gelişeceğidir. Yapay zeka teknolojisi söz konusu olduğunda FLI’nın pozisyonu, bu yarışı kazanmanın en iyi yolunun öncekini engellememek değil, yapay zeka güvenlik araştırmalarını destekleyerek ikincisini hızlandırmaktır.

 

YAPAY ZEKA NASIL TEHLİKELİ OLABİLİR?

Çoğu araştırmacı, süper akıllı bir yapay zekanın sevgi ya da nefret gibi insan duygularını sergilemesinin pek mümkün olmadığı ve yapay zekanın kasıtlı olarak hayırsever (iyi) ya da kötü niyetli olmasını beklemek için bir neden olmadığı konusunda hemfikirdir. Bunun yerine,  yapay zekanın nasıl bir risk olabileceğini düşünürken, uzmanlar büyük olasılıklı iki senaryoyu düşünüyor:

  1. Yapay zeka yıkıcı bir şey yapmak için programlanmıştır: Otonom silahlar öldürmek için programlanmış yapay zeka sistemleridir. Yanlış kişinin elinde, bu silahlar kolayca kitlesel kayıplara neden olabilir. Dahası, bir yapay zeka silahlanma yarışı yanlışlıkla kitlesel kayıplarla sonuçlanan bir yapay zeka savaşına yol açabilir.  Düşman tarafından engellenmekten kaçınmak için, bu silahların basitçe “kapatılması” son derece zor olacak şekilde tasarlanacaktı, böylece insanlar böyle bir durumun kontrolünü makul bir şekilde kaybedebilirlerdi. Bu risk, dar yapay zeka ile bile mevcut olan, ancak yapay zekanın zekası ve otonom/özerklik seviyeleri arttıkça büyüyebilir.

 

  1. Yapay zeka yararlı bir şey yapmak için programlanmıştır, ancak amacına ulaşmak için yıkıcı bir yöntem geliştirir: Bu, yapay zekanın hedeflerini bizimkiyle tam olarak hizalayamadığımızda (ortak olmadığında) gerçekleşebilir, ki bu oldukça zor.  İtaatkar bir akıllı(otonom otomobil/yapay zeka otomobili) otomobilin sizi mümkün olduğunca hızlı bir şekilde havaalanına götürmesini isterseniz, sizi helikopterlerle kovalayabilir ve kusmukla kaplayabilir(???), (sizin) ne istediğinizi değil, tam anlamıyla ne istediğinizi yapabilir. Bir süper akıllı sistem iddialı bir jeo mühendislik projesi ile görevlendirilirse, ekosistemimizle bir yan etki olarak hasara yol açabilir ve insan girişimlerini karşılanacak bir tehdit olarak durdurabilir.

Bu örneklerin gösterdiği gibi, gelişmiş yapay zeka ile ilgili endişe, kötü niyet değil, yetkinliktir.(yetkinin elinden alınmasıdır.) Süper akıllı bir yapay zeka, hedeflerini gerçekleştirmede son derece iyi olacaktır ve eğer bu hedefler bizimkiyle uyumlu değilse, bir sorunumuz var. Muhtemelen karıncaları kötülükten uzaklaştıran kötü bir karınca düşmanı değilsiniz, ancak bir hidroelektrik yeşil enerji projesinden sorumluysanız ve bölgede su basacak bir karınca yuvası varsa, karıncalar için çok kötü. Yapay zeka güvenlik araştırmasının temel amacı, insanlığı asla bu karıncaların pozisyonuna yerleştirmemektir.

 

YAPAY ZEKA RİSKLERİ İLE İLGİLİ MİTLER
Birçok yapay zeka araştırmacısı bu başlığı görürken gözlerini devirdi: “Stephen Hawking, robotların yükselmesinin insanlık için felaket olabileceği konusunda uyarıyor.” Ve birçoğunu için benzer makalelerin sayısı fazlaca. Tipik olarak, bu makalelere silah taşıyan kötü görünümlü bir robot eşlik ediyor ve bilinçli ve / veya kötülük yaptıkları için yükselen ve bizi öldüren robotlar hakkında endişelenmemiz gerektiğini öne sürüyorlar. Daha açık bir notta, bu tür makaleler aslında oldukça etkileyici, çünkü yapay zeka araştırmacılarının endişe etmediği senaryoyu özetleniyor. Bu senaryo üç ayrı yanılgıyı birleştiriyor: bilinç, kötülük ve robotlar hakkındaki endişeler.

Yolda sürücü sizken ilerlerseniz renkler, sesler, vb. İle ilgili öznel bir deneyime sahipsiniz. Ama kendi kendine giden bir otomobilin öznel bir deneyimi var mı? Kendi kendine giden bir araba olmak önemsiz bir şey gibi mi geliyor? Bu bilinç gizemi kendi başına ilginç olsa da, yapay zeka riski ile alakasız. Sürücüsüz bir arabaya çarptığınızda, öznel olarak bilinçli olup olmadığı sizin için hiçbir fark yaratmaz. Aynı şekilde, bizi etkileyecek olan şey, süper-akıllı yapay zekanın öznel olarak nasıl hissettiği değil, yaptığı şeydir.

Makinelerin kötülüğe dönüşme korkusu başka bir kırmızı ringa balığıdır. Asıl endişe, kötülük değil yetkinliktir. Süper akıllı bir yapay zekanın, tanımları ne olursa olsun, hedeflerine ulaşmada çok iyidir, bu yüzden hedeflerinin bizimkilerle uyumlu olmasını sağlamalıyız. İnsanlar genellikle karıncalardan nefret etmezler, ama biz onlardan daha zekiyiz – yani bir hidroelektrik baraj inşa etmek istiyorsak ve karıncalar için çok kötü bir karınca yuvası varsa, yararlı yapay zeka hareketi, insanlığı bu karıncaların yerine yerleştirmekten kaçınmak istiyor.

Bilinç yanılgısı, makinelerin hedefleri olamayacağı efsanesiyle ilgilidir. Makinelerin hedef odaklı davranış sergilemesi, dar anlamında hedefleri olabilir: Isı arayan bir füzenin davranışı, ekonomik olarak bir hedefi vurmak için bir amaç olarak açıklanır. Hedefleri sizinki ile yanlış hizalanmış bir makine tarafından tehdit edildiğini düşünüyorsanız, makinenin bilinçli olup olmadığını ve bir amaç duygusu yaşayıp yaşamadığını değil, bu dar anlamda hedefleri tam olarak bu dar anlamdadır. Bu ısı arayan füze sizi kovalasaydı, muhtemelen haykırmazdınız: “Endişelenmiyorum, çünkü makinelerin hedefleri olamaz!”

   Robot yanılgısı, makinelerin insanları kontrol edemediği efsanesiyle ilgilidir. Zeka kontrolü mümkün kılar: insanlar kaplanları daha güçlü olduğumuz için değil, daha akıllı olduğumuz için kontrol eder. Bu, gezegenimizdeki en zeki konumumuzu kaldırırsak, kontrolü de bırakmamızın mümkün olduğu anlamına gelir.

 

İLGİNÇ TARTIŞMALAR

Yukarıda belirtilen yanlış anlamalar üzerinde zaman kaybetmemek, uzmanların bile katılmadığı gerçek ve ilginç tartışmalara odaklanmamızı sağlar.

Nasıl bir gelecek istiyorsun?

Ölümü özerk/otonom silahlar geliştirmeli miyiz? İş otomasyonunda ne olmak isterseniz?

Bugünün çocuklarına hangi kariyer tavsiyesini verirdin?

Eskilerin yerine yeni işleri mı yoksa herkesin boş zaman ve makine tarafından üretilen zenginlik dolu bir hayata sahip olduğu işsiz bir toplumu mu tercih edersiniz?

İlerde, süper zeki yaratmamızı ve onu evrenimize yaymamızı ister misiniz?

Akıllı makineleri kontrol edebilecek miyiz yoksa onlar mı bizi kontrol edecek?

Akıllı makineler bizim yerimize geçebilir mi, bizimle bir arada yaşayabilir mi, yoksa bizimle birleşir mi?

Yapay zeka çağında insan olmak ne anlama gelecek? Bunun ne anlama gelmesini istersin, geleceği nasıl bu şekilde yapabiliriz?

Yazının sonudaki tartışma yazılarına, konuya ilişkin yorum ve görüşleri aşağıda belirtilen kaynaktan takip edebilirsiniz.

Benefits & Risks of Artificial Intelligence

Denetim ekibi tarafından “The Future Of Life Institute (FLI) internet sitesindeki ” Benefits & Risks of Artificial Intelligence” isimli yazıdan çevrilmiştir. 

Denetim Ekibi Çevirmenleri:

-Mevlide SEYHAN 

-Esma Kübra TANRIVERDİ

-İlayda Sıla CEYLAN

-Buse DELİBAŞ

-Ebru YURTMAN

 

Comments are closed.