GİRAY DUDA
Etik Değerler Merkezi Derneği kurucusu Bülent Şenver, uzun yıllardır sürdürdüğü her alanda etik değerler uygulanması çalışmasını yapay zekanın etik ilkeleri üzerine de yöneltti. Henüz başlangıç döneminde olduğu kabul edilen yapay zekanın etik ilkeleri konusunu Bülent Şenver ile konuştuk.
- Sayın Bülent Şenver, siz uzun zamandan beri etik ilkeler üzerinde çok ciddi, disiplinli bir çalışma yapıyorsunuz. Etik ilkelerin kısmen yerleşmesinde sizin büyük katkınız var. Şimdi yapay zeka çağına geçtik. Yapay zeka sonrası etik ilkeler ile önceki dönem etik ilkeler arasında bir ayrım yapmak, ayrı bir defter ve sayfa mı açmak gerekiyor?
- Evet, bence öyle yapmak gerekiyor. Sebebi de şu. Yapay zeka, maalesef mi demek lazım bilmiyorum ama insan zekasının üzerinde ve fevkinde işler yapmaya başlayacak ileride. Yani insan zekasını aşan, belki insan zekasının aklına dahi gelmeyecek veya beceremeyeceği bir takım kararları daha süratli bir şekilde verebilecek. Ve yapay zekada maalesef insan zekasında olan, insan beyninde ve kalbinde bulunan vicdan dediğimiz şeyin olmaması önemli bir eksiklik olacak.
“ALGORİTMALARIN SÜREKLİ GÜNCELLENMESİ GEREKLİ”
- Bu her zaman böyle olacak değil mi?
- Bence hep öyle olacak. Sebebi de tabii bunu ne kadar gidermek isteseler de bu yazılımcılar, algoritmaları yazanlar, algoritmaların içerisine bir takım kontrol yazılımları, satırları ilave etmeye çalışsalar dahi sonuç almak zor. Biliyorsunuz bir insanın vicdanı, insanda toplumdaki gelişmelere göre, kendi gelişmesine göre gelişen ve devamlı kendini yenileyen bir organizmadır. Yani benim on yıl önceki vicdan anlayışım ve davranışımla bugünkü arasında fark var. Hatta belki bir saat önceki Bülent Şenver vicdanıyla bir saat sonraki Bülent Şenver vicdanı arasında davranış, algılama, değerlendirme farklılıkları olabiliyor.

Ama algoritmayı yazan, yazdığı andaki elindeki bilgilere göre o algoritma içine bir takım doğrular, yanlışlar, bizim o vicdanın vereceği kararlara, yakın kararları yapay zeka verebilsin diye bazı şeyler, yazılımlar, yazılım satırları koyabilir. Ama bunu devamlı güncellemek gerekir. Bunu da bir yazılımcı her an devamlı yenilemek durumunda olamayabilir.
- Vicdanı olmayan yapay zeka, kararlarını içlerindeki algoritmalara göre veriyorlar.
- Elbette. Yapay zeka, dijital ortamdaki bir takım bilgileri, etrafta, dünyada bulunan bir takım bilgileri de devamlı karıştırıp araştırıp kendini yenilemeye çalışıyor. Ama bu dijital ortamda maalesef artık bazı şeyler, bazı datalar, bilgiler ve datalar çöplük haline de geldi. Hangi datayı alacaksın, hangi datayı doğru kabul edeceksin de bu yapay zeka kendi kararını doğru bir şekilde alsın diye bir filtreleme de gerekiyor. O filtrelemeyi algoritma içerisine ne kadar koyarsanız koyun, bu gelişen dijital ortamlarda her an tam doğru kararı verebilecek bir algoritma yaratmak çok da mümkün olamayabiliyor.
Dolayısıyla burada bir risk her zaman var. Ama tabii ki yapay zekasız da olmayacak. Yapay zeka dünya ve yaşantımızın içerisine her geçen gün biraz daha giriyor ve şu anda bile çokça kullanılıyor.
‘YAPAY ZEKA PROFİLİMİZİ ÇIKARIYOR’
Bizim dijital ayak izlerimizi takip ediyor, bizim nelerden hoşlandığımızı kendi içinde tespit ediyor. Bizim bir profilimizi çıkarıyor. Ben ne tür yerlerde ziyaret ederim, orada kaç saniye kalırım, hangi şeyi beğeniyorum.

Bütün bu bilgileri yapay zekanın ileride iyi, doğru ve insanlığa yararlı olarak topluma yararlı bir şekilde kullanmasını sağlamak bizlerin görevi haline geliyor. Kimin görevi bu, devletin görevi mi, sivil toplum kuruluşlarının görevi mi, bireylerin görevi mi? O zaman diyorum ki herkesin müşterek ve ortak görevi bu, hepimizin. Sadece devlet kanun maddesi yazarak bunu sağlayamaz ama onları da yazmalı kanun maddeleri.
“DEĞER YARGILARIMIZDAN SAPMAYI ÖNLEMELİ”
Bir şirket kendi yazılı etik kodların içerisinde bu yapay zeka kullanımıyla ilgili çalışanlarına bazı kurallar söyleyerek, doğruları yanlışları anlatarak katkıda bulunmalı. Sivil toplum kuruluşları, şirketler, bir tarafta bir risklere karşı, yani bizim yapay zekayı insan ve topluma zarar verecek, bizim değer yargılarımızdan bizi saptıracak sorunlara karşı önlem almalılar. Şimdi her toplumun bir değer yargıları var bir de bunu da düşünmek lazım. Yani Türkiye, Türk insanının değer yargılarıyla bir Amerikan insanının değer yargıları arasında farklılık oluyor.
Mesela bir Türk insanında ‘değerlerinizi önem sırasına göre yazın’ dediğinizde mesela belki birinci sırada namusu koyuyor. Amerikalı ise ‘o benim 10. sıramda diyor’. Dolayısıyla bu yapay zekanın etik ilkelere uygun hareket etmesi hangi değer yargılarına göre yapılacaktır? Türkiye kültür ve adabına ve adetlerine uygun bir yapay zeka etik algoritması mı olsun, Amerikan toplumuna göre mi olsun? Yani bunlar da ileride düşünülmesi gereken konular.

“YAPAY ZEKA İLE SUÇ ÇEŞİTLERİ FARKLILAŞIYOR”
- Benim gördüğüm, anladığım kadarıyla etik hemen hemen her kurum, sizin yaptığınız gibi sivil toplum örgütleri yapay zeka etik ilkeleri hazırlamak durumunda. Birçoğu da yapmış ama belki de daha yüzde biri dolayında belki de daha az. Şimdi burada bir de devletin yapay zeka suçlarıyla ilgili bir yasa çıkarması herhalde zorunluluk gibi bir şey değil mi?
- Tabi tabi, dijital ortam büyüyüp genişledikçe hükümetlerin de o yeni dijital ortam gelişmelerine ayak uyduracak yeni kanunlar ve mevzuat düzenlemeleri yapması gerekiyor. Çünkü kanunlarda biz cezaları belirlemişiz ama neye göre belirlemişiz? Diyelim ki şu anda düşündüğümüzde bir insan nasıl suç işler, suçlar ne olabilir? Ama tabi şimdi yapay zeka ortaya çıkınca suçun çeşitleri de farklılaşıyor.
Yeni suçlar için yasa yapıcının şunu düşünmesi gerekiyor, bir insan bir birey yapay zeka kullanırken ne tür suçlar işleyebilir? Bunu birer birer yazacak, işte yapay zeka kullanarak insanları yanıltabilir, yanıltınca insanlara zarar verebilir. İnsanları yanıltarak zarar verdiği zaman karşı tarafın herhangi bir maddi zarara uğraması durumunda buradaki ceza ne olmalı? Manevi zarara uğratıldığında ne olmalı? Bu maddi zarar 3 liraysa ne olmalı? 1 milyon dolarsa ne olmalı? Bir kişi bunu bir kere yaparsa ne olmalı? Arka arkaya seri katiller gibi yaparsa ne olmalı? Bunları düşünmek lazım.
YAPAY ZEKA ETİK İLKELERİ VE SUÇLARI
- Yapay zeka etik ilkeleri ile yapay zeka suçları arasında sanki çok ince, çok yakın bir bağlantı var. Mesela yapay zekada birisinin sesini alıp, kopyalayıp, onun şirinlik olsun diye başka bir şeyler söyletip videosunu yayınlamak etik ilke olarak uygun değil. Ama bu video mesela başka birisinin yakınından para istemek biçiminde kullanılırsa suç ortaya çıkıyor. İçeriğine bağlı. Olay etik ilkenin ötesinde suçlar kısmına geçildiği için Türkiye'de bile hızlı davranılması gerek galiba diye düşünüyorum. Siz ne dersiniz?
- Tabii, bence yapay zeka suçları diye, bu suçların yasalar tarafından belirlenmesinde fayda var. Bunlar belirlenirken muhakkak teknik insanlardan destek alınmalı. Çünkü siz bir bürokratsanız, sadece kanun yazmasını biliyorsanız, bu yapay zeka teknolojisine sonuna kadar detaylı bir şekilde vakıf değilseniz, bu tür suçların ne olacağını da bilemezsiniz. Sadece aklınızaki düşündükleri yazabilirsiniz. Halbuki bu konuda bir komite kurulur, yapay zeka teknik insanlar davet edilir.
Bu teknik insanlardan yapay zeka kullanarak ne tür suçlar işlenebilir, detayları alınabilir. O komitenin belirleyeceği suç çeşitlerine göre de yasak oyucular, ne tür cezalar verilebilir, bunları belirler. Tabii daha sonra da bu suçları işleyenler nasıl tespit edilecek, bu da çok önemli bir konu.
Evet, çok önemli. Kim tespit edecek? Sadece şikayete bağlı mı olacak bu suç, şu tespit? Yoksa yasalar da bir yapay zeka yasasına uyumu kontrol edecek bir yapay zeka yazılımı mı geliştirecek algoritması? Yani siz uyurken dahi devletin yapay zeka kanununa uyum algoritması dijital ortamda çalışacak.
OTONOM ARAÇ KAZA YAPARSA SUÇLU KİM?
- Kimin suçlu olduğunu da bilmek gerekiyor? Örneğin Balıkesir’li bir kişi Çin’de üretilen bir otonom aracı satın alıyor. Önde yan koltukta oturup yola çıkıyor. Otonom araç bir süre sonra yaya geçiş çizgilerinin olduğu yerde birisine çarpıp öldürüyor. Bu durumda yan koltukta oturan sahibi mi yoksa başkası mı suçlu?
- Doğru söylüyorsunuz burada bir çok düşünülmesi gereken şey var. Yani diyelim ki mesela siz araç sahibi olarak eğer arabanızın 10 bin bakımını yaptırmadıysanız Kaza da bu nedenle olduysa suçlu sizsiniz, araba sahibi olarak. Ama hayır siz normal bakımlarını yaptırıyorsanız, size düşen görevleri layıkıyla zamanında doğru ve eksiksiz yapıyorsanız, ona rağmen arabanın içerisindeki bir yazılım hatası nedeniyle gerçekleşiyorsa o zaman araba üreticisi sorumlu. Burada yaşanacak bir çok sorun var aslında.
Hukuk karşısında bugüne kadar iki tip insan tanımı vardı. “Gerçek Kişi” ve “Tüzel Kişi”. “Gerçek Kişi” tanımı bireyler için, “Tüzel Kişi” ise şirketler, kurumlar için kullanılan terimlerdi. “Yapay Zekâ” uygulamaları başlayınca hukuk literatürüne şimdi yeni bir kişilik teriminin girmesi gerekiyor. Bu yeni terimin adı “Dijital Kişi” olacaktır. “Yapay Zekâ” sistemleri hukuk alanında “Dijital” kişi olarak değerlendirilmeli ve hakları ile sorumlulukları kanunlar ile belirlenmelidir.

Yapay zekâ bir insan olmadığı için insanlara veya kurumlara vereceği zararları tazmin etmesini söylemek için yapay zekâ sistemini yaratan ve sorumluluğu üstlenecek bir “Gerçek Kişi” veya “Tüzel Kişinin” bulunması gerekiyor. Bir yapay zekâ sistemini tasarlayan, kodlarını yazan, toplumun kullanımına sunan kişi veya kurum sorumluluğu üstlenmelidir. Bu nasıl mümkün olabilir? Eğer toplumun kullanımına sunulan her yapay zekâ sisteminin kime ait olduğu ve bu yapay zekanın yaptıklarından kimin sorumlu olacağı belirlenip internet ortamına kaydedilip özel tutulacak ve herkese açık olan şeffaf bir “Yapay Zekâ Sorumluluk Kayıt Defteri”ne (log book) kaydedilip muhafaza edilirse o zaman zarar gören kişi veya kurum zararının tazmini için kime baş vuracağını bilebilir. Tabi bunu gerçekleştirebilmek için özel bir” Yapay Zekâ Kanunu” hazırlanması ve uygulanması gerekir.
Etik Değerler Merkezi Derneği Kurucu Onursal Genel Başkanı olarak yapay zekâ ile ilgili aşağıdaki etik ilkelerin uygulanmasını önerebilirim.
YAPAY ZEKA ETİK İLKELERİ (AI ETHICS)
- Yapay zekâ sistemleri toplumun iyiliğini arttırmak ve insanlığa yarar sağlamak için kullanılmalıdır.
- Yapay zekâ sistemlerinin nasıl çalıştığını ve kullanıldığını belirleyen algoritmalar insanlar tarafından anlaşılır şekilde yazılmalıdır.
- Yapay zekâ sistemleri şeffaf, açık, dürüst, doğru, adaletli ve etik olmalıdır.
- Yapay zekâ sistemleri insanları korumalı ve insanlara yardımcı olup onlara hizmet etmelidir.
- Yapay zekâ sistemleri insan haklarını, aile haklarını, çocuk haklarını, topluluk haklarını, mahremiyetini, gizliliğini, bilgi güvenliğini azaltmamalı, zedelememeli ve yok etmemelidir.
- Tüm insanlar yapay zekâ sistemlerini kullanabilmelidir.
- Yapay zekâ sistemleri insanların duygusal ve ekonomik varlıklarına, sosyal, politik, kültürel ve zihinsel faaliyetlerine zarar vermeyecek şekilde çalışmalıdır.
- Hiçbir yapay zekâ sistemi insanları yaralamak onlara zarar vermek için kurulmamalıdır.
- Hiçbir yapay zekâ sistemi insanları aldatmak, yanılmak, kandırmak, yanlış yola sürüklemek, yanlış karar almalarına neden olacak şekilde kurgulanmamalıdır.
- Yapay zekâ sistemleri toplumu kullanımına açılmadan önce bağımsız kurumlar tarafından incelenmeli, araştırılmalı, test edilmeli, denetlenmeli ve kabul görmüş “Uluslararası Yapay Zekâ Standartlarına” uygun bulunursa kullanıma sunulmalıdır.
- Yapay zekâ sistemleri yasa dışı işlerde kullanılmamalıdır.
- Yapay zekâ sistemleri güvenilir olmalıdır. Kullanıcısına güven veren uygulamalar yapmalı ve güvenilir olduğunu ispat etmelidir.
- Her bir yapay zekâ sisteminin bir sahibinin bulunması gerekir. Sahibi belli olmayan yapay zekâ uygulamaları toplumun kullanımına açılmamalıdır. Herhangi bir yapay zekâ kullanıcısı söz konusu yapay zekayı kullanırken kendi hatası ve kötü niyeti dışında bir zarara uğrarsa bu zarar söz konusu yapay zekâ sahibi tarafından karşılanmalıdır.
- Bir yapay zekâ toplumun kullanımına açılmadan önce muhakkak bağımsız kurumlar tarafından test edilmeli ve kullanıma uygun bulunursa bu sisteme özel bir “Yapay Zekâ Kullanabilirdik Uygunluk Belgesi” verilmelidir.
- Yapay zekâ sistemleri dinamik olduğundan ve zaman içinde değişip yenilenebilir olduğundan her yapay zekâ sistemi yılda bir kez denetimden geçirilip “Yapay Zekâ Kullanabilirdik Uygunluk Belgesi” almalıdır.
- Yapay zekâ karar vermek veya bir sonuç üretmek için muhakkak doğru bilgileri kullanmalıdır. Kullanacağı bilgilerin doğruluğunu, sıhhatini ve yeterliliğini araştırıp kontrol etmek yapay zekâ sisteminin sorumluluğundadır.
- Yapay zekâ sistemleri her zaman insan zekâsı ile kontrol edilebilmelidir.
- İnsan zekâsı ile kontrol edilme özelliğini kaybetmek üzere olan bir yapay zekanın çalışması durdurulmalı ve sonlandırılmalıdır.
- Yapay zekâ sistemleri insan haklarında ve çocuk haklarında yazılı ilkelere aykırı bir sonuç doğuracak hiçbir işte, hiçbir isimle, hiçbir maksatla ve hiçbir yerde kullanılamaz.
- Yapay zekâ sistemlerinde kullanılan algoritmalar insan haklarına ve çocuk haklarına uyumlu olmalı, burada yazılı ilkelere, prensiplere ve tanınmış haklara aykırı sonuçlar doğurmamalıdır.
- Çocuklara açık olan ve çocuklar tarafından kullanılabilen yapay zeka sistemleri ve algoritmaları çocukların akıl sağlığını ve psikolojik sağlığını iyileştirecek ve koruyacak şekilde düzenlenmelidir.
- Yapay zekâ sistemleri kişisel verileri korunma kanununa uygun şekilde kullanılmalıdır.
- Yapay zekâ sitemi ile toplanmış kişisel veriler söz konusu kişinin onayı olmadan başka maksatlarda kullanılmamalı ve başka kuruluşlara satılmamalı veya verilmemelidir.
- Her bir yapay zekâ sisteminin bir yaratıcısı ve sorumlusu olmalıdır. Bu yaratıcı ve sorumlu bir gerçek kişi ve kurum olmalıdır. Hem gerçek kişi hem de kurum yarattıkları ve toplumun kullanımına sundukları yapay zekâ sisteminden sorumlu olmalıdır. Yarattıkları yapay zekâ sisteminin bireylere ve kurumlara doğurabilecekleri zararları tazmin etme yükümlülükleri olmalıdır.
- Yapay zekâ sistemleri gerçeği çarpıtmamalıdır. Gerçeği çarpıtarak insanlara ve kurumlara zarar vermemelidir.
- Yapay zekâ sistemleri hatalı, gerçek dışı, çarpıtılmış veriler kullanarak sonuçlar üretmemesi gerekir.
- Yapay zekâ sistemleri kullandıkları algoritmaların detaylarını şeffaf bir şekilde kullanıcıları ile paylaşmalıdır. Kullanılan algoritmalar izah edilebilir, açıklanabilir olmalıdır. Aynı zamanda yapay zekâ algoritmaları hesap verebilir ve doğuracağı zararlardan sorumlu tutulabileceği şekilde düzenlenmelidir. Ancak şeffaflık uygulaması gizlilik ve kişisel verilerin korunması gibi kurallara aykırı olmayacak şekilde kullanılmalıdır.
- Yapay zekâ sistemleri kişilerin veya kurumların itibarını zedeleyecek şekilde kullanılmamalıdır.
- Yapay Zekâ sistemleri çevreye ve dünya varlıklarına zarar vermemelidir.
- Yapay zekâ sistemleri uluslararası kanunlara ve görev yaptıkları ülkenin kanunlarına uyum içinde çalışmalıdır. Hiçbir kanun maddesine aykırı iş yapmamalıdır.
- Yapay zekâ sistemleri güvenliği ön planda tutmalıdır. Güvenlik açıklarını bertaraf edecek risklere karşı koruyucu önlemler ve duvarlarla çevrilmeli ve korunmalıdır. Kişisel veya gizli bilgilerin korunması sağlanmalıdır.
- Yapay zekâ sistemleri sürdürülebilirlik esasına göre kurulmalı ve çalıştırılmalıdır. Hizmet kesilmesi, sonlanması, aksaması, etkisiz hale gelmesi ve sürdürülebilirliği olumsuz etkileyecek her tür türlü riske karşı gerekli önlemler alınmalıdır.
- Herhangi bir yapay zekâ sisteminin kurucusu kişi ve kuruluş yaptıkları ve kullanıma sundukları yapay zekâ sisteminin yaratacağı zararlardan ve olumsuz sonuçlardan sorumlu değiliz diyemez. Sorumluluk sistemin değil bunu yapan kişi veya kuruluşundur.
- Yapay zekâ sistemleri şeffaf olmalı ve dış denetime açık olmalıdır.
- Yapay zekâ sistemleri “due diligence” (durum tesbit süreci) , “supervision” (denetim gözetim) , “whisle blowing” (ihbarcılık) gibi kalite kontrol mekanizmalarına açık olmalı ve bunların yapılabilmesine imkân sağlamalıdır.
- Yapay zekâ konusunda toplumun bilinçlenmesi ve eğitilmesi gerekir. Bu konuda gereken bilgilendirme mesajları ve eğitimler devletin ilgili kurumu tarafından yapılmalıdır.
- Yapay zekâ konusundaki uyuşmazlıkları ve davalara bakmak üzere özel bir mahkeme her ülkede görevlendirilmelidir.
- Yapay zekâ tarafında elde edilen kişisel bilgilerin nasıl ve hangi amaçla kalabileceği konusunda bilgileri toplanan kişin onayı alınmalıdır.
- Yapay zekâ uygulamalarının çevreye, tabiata, tabi kaynaklara, iklim değişikliklerine, gıda ekosistemine ve sürdürülebilir enerji kaynaklarına vereceği zararlar tespit edilmeli bu zararları en aza indirmek için kamu otoritesi tarafından gerekli önlemler alınmalıdır.
- Yapay zekâ sistemleri insan haklarını, çocuk haklarını ve kadın erkek eşitliğini ilkelerini zedeleyecek uygulamalar yapamaz.
- Yapay zekâ sistemleri ülkenin eğitim sisteminin ve kültürünün gelişmesi ve iyileşmesi için katkı sağlamalıdır.
- Yapay zekâ sistemleri ülkedeki öğretmenlerin eğitilmesi ve öğrencilerin uzaktan eğitim (e-learning) sistemlerinin kullanılmasına imkân sağlamalıdır.
- Yapay zekâ sistemleri kullanılarak öğrencilere etik eğitimi verilebilmelidir.
- Bilgiye ulaşmak için yapay zekâ sistemleri etkili bir şekilde kullanılmalıdır.
- Yapay zekâ sistemleri işsizlerin iş bulmasına katkı sağlaması için geliştirilmelidir.
- İnsan sağlığı konusunda yapay zekâ sistemleri aktif olarak çalışmalı ve insan sağlığını koruyacak uygulamalar yapmalıdır.
- Yapay zekâ sistemleri, adil, sorumluk sahibi, sürdürülebilir ve şeffaf olmalıdır.
- Yapay zekâ insanları tehdit etmek, korkutmak, kandırmak, aldatmak, yanıltmak, yanlış yönlendirmek maksatları ile kullanılamaz.
- Yapay zekâ sistemleri insanlar tarafından anlaşılabilir, izah edilebilir, açık, şeffaf olmalı ve aynı zamanda denetlenebilir olmalıdır. Yetkili ve işinin ehli bağımsız dış denetim şirketleri tarafından denetlenebilir açıklıkta, şeffaflıkta ve anlaşılır şekilde olmalıdır.
- Yapay zekâ sistemleri hiçbir maksatla ve nedenle manipülasyon yapmak maksatlı kullanılmamalıdır.
- Yapay zekâ sistemleri çocuklar, göçmenler gibi yaralanabilir guruplar hakkında ön yargılı olmamalı, ayırımcılık ve taraf olacak şekilde kullanılmamalıdır.
- Yapay zekâ sistemleri insan onurunu, insan haklarını, insanların iyiliğini, sorumluluğu, eşitliği, dayanışmayı, özerkliği, demokrasiyi, hukukun üstünlüğünü, hesap verebilmeyi, güveni ve güvenliği, data korumasını, gizliliği, kişisel verilerin korunmasını, sürdürülebilirlik, uluslararası kanunları ve bilgi mahremiyetini ön planda bulunduracak şekilde çalışmalıdır.
- Yapay zekâ sistemleri her çeşit ayırımcılığı önlemeli, insanları propaganda, politik yönlendirme ve manipülasyondan korumalıdır.
- Yapay zekâ sistemleri kullandıkları algoritmalar ve kurallar zinciri ile kararlar alabilir ve işlemler yapabilir ancak yapay zekâ sistemlerini kuran, algoritmalarını belirleyen ve çalışmasını sağlayan insan zekâsı ve insanların kurgusu ve çalışmaları olmalıdır.
- Yapay zekâ sistemleri insanların ve toplumun iyiliği için çalışmalı ve insanlara ve topluma fayda sağlamak için geliştirilmelidir.
- Yapay zeka sistemleri insanlara ve insanlığa zarar vermemeli ve insanlar tarafından kontrol edilebilmelidir.
- Yapay zekâ sistemlerinde dört önemli özelliğin bulunması gerekir. 1) Hesap Verebilmek 2) Sorumlu Olmak 3) Anlaşılır Olmak ve 4) Şeffaf Olmak
- Yapay zekâ sistemleri hukuk önünde gerçek kişi gibi mütalaa edilemez. Ancak yapay zekâ sistemleri hukuk önünde tüzel kişi olarak yaptıklarından sorumlu tutulmalıdır.
- Yapay zekâ sistemleri bir kişiyi etkileyecek herhangi bir karar alıp uygulamadan önce alacağı karardan etkileyecek kişiyi önceden uyarmalı ve onun onayını almalıdır.
- Yapay zekâ sistemlerini kullanarak kişisel bilgileri toplayan, biriktiren, analiz eden, başka şirketlere veren veya satan şirketler ve platformlar (Google ve Facebook gibi) topladıkları kişisel bilgilerle bilgi sahiplerine zarar verecek hiçbir tasarrufta bulunmamalıdır. Söz konusu bilgileri bilgi sahiplerinin yararına ve faydasına kullanmak zorundadırlar.
- Yapay zekâ sistemlerinin doğru kararlar verip doğru uygulamalar yapabilmeleri için yapay zekâ sisteminin öğrenmesini sağlayacak verilerin, bilgilerin de doğru olması ve karar vermeye doğru katkı sağlayacak veriler ve bilgiler olması gerekir.
- Yapay zekâ ile çalışan şoförsüz arabalar, hiçbir insana isteyerek ve bilerek zarar vermeyecek şeklide çalışmalıdır.
- Yapay zekâ ile çalışan şoförsüz arabalar, insanları yaralayacak veya öldürecek hiçbir hareketi yapmamalı ve bu gibi durumlarla karşılaşmamak için sürat azaltma, acil fren yapma, direksiyon kırmak gibi gereken önlemleri alacak algoritmalar ile çalışmalıdır.
- Yapay zekâ ile çalışan şoförsüz arabalar, sürüş emniyetini azalıp azalmadığını sürekli kontrol edebilmeli ve sürüş emniyetinin azaldığı veya yok olduğunu önceden algılayabilmelidir. Algıladıktan sonra arabayı emniyetli bir yere alıp, durup, sürüşü sonlandırabilmelidir. Aracın kullandığı yapay zekâ algoritmasının bu özelliğinin bulunması gerekir.
- Yapay zekâ sistemlerinde kullanılan algoritmaların karar verirken toplum menfaatlerini kişisel menfaatlerin üstünde değerlendirmesi sağlanmalıdır. Toplum menfaati kişi menfaatinden önce gelmelidir.
- Yapay zekâ sistemleri herhangi bir kişiyi etkileyecek bir karar almadan ve uygulama yapmadan önce söz konusu kişiyi uyarıp onun ön onayını almalıdır. Bu onayın kabul edilir bir onay olabilmesi için aşağıdaki beş unsurun laikiyle yapılması gerekir.
1) Kullanılacak bilgilerin ne şekilde, nasıl, hangi amaçla ve nerelerde kullanacağı konusunda detaylı bilgilendirme yapılmalıdır.
2) Kişinin yapay zekaya vereceği hakların kapsamı doğru olarak açıkça belirlenmelidir.
3) Yapay zekaya verilen yetkinin detaylı ve anlaşılır bir şekilde açıklanması gerekir.
4) Yapay zekanın yapacağı uygulama için bu uygulamadan etkilenen kişinin gönüllü olarak rızasının alınması gerekir.
5)Yapay zekanın yapacağı uygulama bu uygulamadan etkilenecek tüm taraflar için adil olmalıdır.





