Apple çalışanları, çocukların güvenliği için sunulan güncellemeden rahatsız
Geçtiğimiz günlerde Apple, çocuk istismarlarının önüne geçmek için iOS ve iPadOS cihazların iCloud’larında bulunan fotoğrafların yapay zeka …
Geçtiğimiz günlerde Apple, çocuk istismarlarının önüne geçmek için iOS ve iPadOS cihazların iCloud’larında bulunan fotoğrafların yapay zeka yardımıyla taranacağını ve sakıncalı materyalleri tespit edeceğini duyurmuştu. Materyal tespit edildiğinde Apple, kâr amacı gütmeyen Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi‘ne (NCMEC) otomatik olarak bildirimde bulunacak. NCMEC, ABD’deki kolluk kuvvetleri ile ortaklaşa hareket eden bir kuruluş.
Baskıcı hükümetler bu özelliği istismar edebilir
Belirtilmemiş sayıdaki Apple çalışanı, CSAM (Child Sexual Abuse Materials) tespiti konusundaki endişelerini dile getirmek için Slack kanallarına başvurdu. Çalışanlar özellikle, hükümetlerin Apple’ı CSAM dışındaki içerikleri bulmak için kullanabileceği ve zorlayabileceği konusunda endişe duyuyor. Bazı çalışanlar, Apple’ın sektörde lider konumda olan gizlilik itibarına zarar vermesinden çekiniyor.
Reuters’in raporuna göre; “Kimliğinin açıklanmamasını isteyen çalışanlar Reuters’e verdiği demeçte, Apple çalışanlarının bir hafta önce açıklanan planla ilgili 800’den fazla mesajla Apple’ın dahili Slack kanalını doldurduğunu belirtti. Günlerce süren tartışmayı dahil olan çalışanlara göre, pek çok kişi sansür veya tutuklamalar için başka materyaller arayan baskıcı hükümetler tarafından bu özelliğin istismar edilebileceğine dair endişelerini dile getirdi.
Çalışanlar, geçmişteki Apple güvenlik değişikliklerinin de çalışanlar arasında endişe uyandırdığını, ancak yeni tartışmanın hacminin ve süresinin şaşırtıcı olduğunu söyledi.”
Rapora göre, kullanıcı güvenliği ile ilgili rollerdeki Apple çalışanlarını protestonun bir parçası olmadığı düşünülüyor.
Geçen hafta duyurulmasından bu yana, Apple, bu sonbaharda iOS 15 ve iPadOS 15 ile piyasaya sürülmesi beklenen CSAM algılama planları nedeniyle eleştiri yağmuruna tutuldu. Endişeler, esas olarak, teknolojinin baskıcı hükümetler ve rejimler tarafından gelecekteki uygulamalar için kullanılabileceği şeklinde sürüyor.
Apple, CSAM materyalini tespit etmek için kullanılan cihaz teknolojisinin başka herhangi bir amaç için kullanılabileceği fikrine kesinlikle karşı çıkıyor. Bir de yayınlanan SSS belgesinde Apple, şiddetle hükümetler tarafından bu tür bir talebi reddedeceğini belirtiyor.
Kaynak: Shiftdelete