Tekil Mesaj gösterimi
Alt 06 Eylül 2021, 09:02   #1
Keystone
Kayıtlı Üye
Keystone - ait Kullanıcı Resmi (Avatar)

Standart Çocuk istismaırını önlemek için, Apple, iPhone fotoğraflarını tek tek gözden geçirmek istiyor

Çocuk istismaırını önlemek için, Apple, iPhone fotoğraflarını tek tek gözden geçirmek istiyor




Apple, iPhone fotoğraflarını tarayacağını söyleyerek büyük bir tartışmaya yol açmıştı. Birçok kişi bunun veri ihlalleri yaratacağını düşünüyordu. ABD’li teknoloji devi Apple ise çocuk istismarını engellemek için böyle bir karar aldıklarını ifade etti.

Böylece fotoğrafların taranması hiç kimsenin itiraz edemeyeceği bir zemine oturtuldu.

iPhone iCloud platformuna yüklenen fotoğraf ve videolar Apple tarafından tek tek taranabilecek. Böylece çocuk istismarı ihtimali bulunan fotoğraflar hızlı bir şekilde kolluk kuvvetlerine bildirilecek. Apple ilk etapta bu özelliği hemen uygulayacağını ifade etti. Ancak aldığı yeni karar ile birlikte bu sistemi erteledi.

Yapılan açıklamalara bakıldığında Apple şirketinin bu sistemi çok daha kararlı hale getirmek için ertelediği ifade ediliyor. CSAM olarak bilinen sistem yapay zeka yardımıyla tüm fotoğraf ve videoların gözden geçirilmesini sağlıyor. Burada yer alan bazı küçük detaylar sayesinde çocuk istismarı olup olmadığı ortaya çıkıyor.

Her ne kadar olumlu bir gelişme gibi görünse bile aslında veri ihlallerine yol açma ihtimali son derece yüksek. Kullanıcılar fotoğraf ve videolarının taranmasını istemiyor. Ancak Apple böyle bir şey şart koşunca ne yazık ki yerine getirmek zorunda kalacaklar. iCloud platformuna yüklenecek tüm fotoğraf ve videolar yapay zeka taramasından geçecek.