Açık 8.9ºC Ankara
  • Adana
  • Adıyaman
  • Afyonkarahisar
  • Ağrı
  • Aksaray
  • Amasya
  • Ankara
  • Antalya
  • Ardahan
  • Artvin
  • Aydın
  • Balıkesir
  • Bartın
  • Batman
  • Bayburt
  • Bilecik
  • Bingöl
  • Bitlis
  • Bolu
  • Burdur
  • Bursa
  • Çanakkale
  • Çankırı
  • Çorum
  • Denizli
  • Diyarbakır
  • Düzce
  • Edirne
  • Elazığ
  • Erzincan
  • Erzurum
  • Eskişehir
  • Gaziantep
  • Giresun
  • Gümüşhane
  • Hakkari
  • Hatay
  • Iğdır
  • Isparta
  • İstanbul
  • İzmir
  • Kahramanmaraş
  • Karabük
  • Karaman
  • Kars
  • Kastamonu
  • Kayseri
  • Kırıkkale
  • Kırklareli
  • Kırşehir
  • Kilis
  • Kocaeli
  • Konya
  • Kütahya
  • Malatya
  • Manisa
  • Mardin
  • Mersin
  • Muğla
  • Muş
  • Nevşehir
  • Niğde
  • Ordu
  • Osmaniye
  • Rize
  • Sakarya
  • Samsun
  • Siirt
  • Sinop
  • Sivas
  • Şanlıurfa
  • Şırnak
  • Tekirdağ
  • Tokat
  • Trabzon
  • Tunceli
  • Uşak
  • Van
  • Yalova
  • Yozgat
  • Zonguldak
Dünya
AA 04.09.2021 13:12

Apple çocuk istismarına karşı telefonları tarama planını askıya aldı

ABD'li teknoloji şirketi Apple, iPhone’larda çocuk istismarına karşı hassas görselleri yapay zeka ile tarama planlarını, gelen eleştiriler üzerine askıya aldı.

Apple çocuk istismarına karşı telefonları tarama planını askıya aldı
[Fotoğraf: Reuters]

Apple, internet sitesinden yaptığı açıklamada, çocukların iletişim araçları ile cinsel istismarın ve bu tür malzemelerin yayılmasını önlemek için geliştirdikleri özelliklerin kullanıma girmesini, gelen tepkiler üzerine ertelediklerini belirtti.

Açıklamada, sistemin tamamen masadan kaldırılmadığı, ancak eleştiriler doğrultusunda geliştirebilmek için lansmanın ertelendiği vurgulandı.

Ancak özelliklerin ne zaman devreye girebileceğine ilişkin bilgi paylaşılmadı.

Apple’ın geçen ay kullanıcıların iCloud içeriklerini çocuk istismarı içeren görüntü ve videolara karşı tarayacağını açıklaması, şirketin kişisel gizlilik politikalarıyla çeliştiği için tartışmalara neden olmuştu.

Hassas içerik taraması yapacağını açıklamıştı

Apple çocuk istismarına karşı aldıkları üç aşamalı önlemlerin ilk aşamasında, yapay zeka teknolojileri sayesinde özel yazışmaları görüntülemeden, yalnızca CSAM (Child Sexual Abuse Material) olarak anılan hassas içerik taraması yapacağını açıklamıştı.

Söz konusu sistem, çocuk istismarı ile ilgili şüpheli görselleri, gerçek kişilerin incelemesine sunarak gerektiğinde güvenlik güçlerinin uyarılmasını sağlayacaktı

ETİKETLER
Sıradaki Haber
Taliban mensupları havaya ateş açarak kutlama yaptı: Can kaybı artıyor
Yükleniyor lütfen bekleyiniz