Yapay zekanın olumsuz kullanımı adalet anlayışını zedeleyebiliyor

Doç. Dr. Faik Tanrıkulu, yapay zekanın olumsuz kullanımı ile ilgili, "Bu teknolojilerin değerlendirmelerine bağlı olarak insanların şüpheli kabul edilmesi adalet anlayışını zedeleyebiliyor." ifadesinde bulundu

İstanbul Medipol Üniversitesi İnsan ve Toplum Bilimleri Fakültesi Öğretim Üyesi Doç. Dr. Faik Tanrıkulu, yapay zekanın olumsuz kullanımı ile ilgili, "Bu teknolojilerin değerlendirmelerine bağlı olarak insanların şüpheli kabul edilmesi adalet anlayışını zedeleyebiliyor." dedi.

Yapay zeka teknolojileri eğitimden sağlığa, güvenlikten eğlenceye kadar hayatın her alanından kullanım alanlarını hızla genişletiyor. Özellikle tekrar eden ve rutin işlerde getirdikleri kolaylıkla iş hayatında merkezi bir rol oynamaya başlayan yapay zeka teknolojileri, güvenlik gerekçeleri ile özel hayatın gizliliği gibi konularda ise endişelere sebep oluyor.

İstanbul Medipol Üniversitesi İnsan ve Toplum Bilimleri Fakültesi Öğretim Üyesi Doç. Dr. Faik Tanrıkulu, AA muhabirine, son dönemde yapay zekanın olumsuz kullanımı sorunu ile ilgili görüşlerini paylaştı.

İktidarların hem sensörler hem de algoritmalar aracılığıyla sürekli farklı noktaları takip edebildiğini belirten Tanrıkulu, "Bu konuda yeni teknolojileri kullanan ülkelerin başında Çin geliyor. Çin hükümeti bu süreçte insanların akıllı telefonlarını yakından izlemiş, yüz milyonlarca yüzü tanıyan kameraları kullanmaktan kaçınmamıştı. Hatta insanların vücut sıcaklıklarını, tıbbi durumlarını kontrol etmeye ve bildirmeye zorlamıştı. Bu kapsamda ülkelerin hem ulusal güvenlik hem de sınır yönetimi konusunda bu teknolojileri kullanması insan hakları açısından endişe verici olabiliyor. Zira yapay zekâ araçları gerek insanların profilini çıkararak artan suç ve terörist faaliyet alanlarını belirleyebilmek için sosyal medya gönderilerini, seyahat kayıtlarını ve suç istatistiklerini cezai muahede için kullanabiliyor. Bu teknolojilerin değerlendirmelerine bağlı olarak insanların şüpheli kabul edilmesi adalet anlayışını zedeleyebiliyor." şeklinde konuştu.

Myanmar'daki şiddet olaylarının artmasında yapay zekanın rolü

İnsan Hakları İzleme Örgütü'nün Myanmar’ın askeri cuntasının arananlar listesini yüz ve plaka tanıma sistemiyle Çinli teknoloji şirketi tarafından sağlanmasını eleştirdiğini belirten Tanrıkulu, sözlerini şöyle sürdürdü:

"Ayrıca 20018 yılında Facebook’un kullandığı yapay zekâ algoritmalar belirli bir süre sonra şiddet içerikli sayfalar önermeye başlaması teknolojinin olumsuz kullanımını gözler önüne getirdi. Guardian gazetesinin bir rapora dayandırdığı haberde, Facebook Myanmar’daki darbe protestocularına karşı şiddeti teşvik eden paylaşımları platformun kötüye kullanmasını kısıtlama sözü vermesine rağmen kaldırmadı. Global Witness hak grubu, Facebook öneri algoritmasının kullanıcıları şirket politikalarını ihlal eden içeriği görüntülemeye devam ettiğini tespit etti. Ayrıca şirketin küfürlü içerik barındıran asker yanlısı sayfa önerdiğini ortaya çıkardı. Bu nedenle Myanmar’da ve Etiyopya’daki etnik çatışma da şiddetin artmasında bu platformun etkisi olduğu ortaya çıktı. Myanmar’da nüfusun yarısını Facebook’u aktif kullanıyor. Dolayısıyla etkili olan bu platformun manipülasyon ve etkileşim politikalarını yapay zekâ teknoloji ile yapıyor olması önemli. Şirket yetkilileri kötüye kullanıldığını kabul ederek hatasını kabul etmişti."

Veri setleri ayrımcılığa ve ırksal önyargılara sebep olabiliyor

Yapay zeka destekli teknolojinin oluşturabileceği tehlikelere karşı uluslararası örgütlerin de harekete geçtiğine değinen Tanrıkulu, "Birleşmiş Milletler (BM) İnsan Hakları Konseyinin yayınladığı raporda, bu teknolojinin başta profil oluşturma, otomatik karar vermek ve makine öğrenimi dahil birçok özelliği ile insan hakları risklerini analiz ettiğini bildiriyor. Komiser Bachelet bu durumu felaket olarak yorumluyor. Raporun dikkati çeken yönü ise bu teknolojide kullanılan veri setlerinin hem ayrımcılığa hem de ırksal ve etnik önyargıları tetikleyecek sorunlara neden olacağını açıklıyor." diye konuştu.

Tanrıkulu, yapay zekanın mağduriyetlere sebep olmadan kullanılması için yapılması gerekenlere dair detaylar vererek, sözlerini şöyle sürdürdü:

"Sonuç olarak, yapay zekâ teknolojisi günümüz dünyasında hayatı kolaylaştıran imkanlar oluşturduğu gibi insan hakları ihlallerini görmemezlikten gelmek doğru bir yaklaşım olmaz. Bu yönüyle ülkelerin ve karar vericilerin bu konuda daha fazla şeffaf, adil değerlendirme ve yapay zekanın kullanımının etkileri hususunda daha açık olmalı. Konunun uzmanları bu konuda uluslararası bir eylem planının çıkarılması görüşünde. Tam bu noktada bu teknolojilerin kullanımını kısıtlamadan ziyade, bu alanda çalışan şirketlerin uluslararası hukuk normlarına uyması ve denetlenebiliyor olması başlıca önemli hususlardan. Ancak ilk olarak günümüz şartlarına teknoloji ile gelişen bu platformların ülkeler ve aktörler tarafından tarafsızca ele alınması ve mevzuatın oluşması gerekiyor. Bu durumda yapay zekanın idari ve hukuki mekanizmaları ve uygulamaları gelecekte ülkelerin daha çok gündeminde olacak."

aa

İlk yorum yazan siz olun
YORUM KURALLARI: Risale Haber yayın politikasına uymayan;
Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve BÜYÜK HARFLERLE yazılmış yorumlar
Adınız kısmına uygun olmayan ve saçma rumuzlar onaylanmamaktadır.
Anlayışınız için teşekkür ederiz.

Bilim - Teknoloji Haberleri