Apple po përballet me kritika për një sistem të ri që detekton materiale të abuzimit seksual të fëmijëve (CSAM) në pajisjet e përdoruesve amerikanë.
Para se një imazh të ruhet në iCloud Photos, teknologjia do të kërkojë ndeshje të CSAM-it të njohur tashmë.
Por ka shqetësime se teknologjia mund të zgjerohet dhe përdoret nga qeveritë autoritare për të spiunuar qytetarët e saj.
Kreu i WhatsApp, Will Cathcart, e quajti lëvizjen e Apple "shumë shqetësuese".
Apple tha se versionet e reja të iOS dhe iPadOS - që do të dalin më vonë këtë vit - do të kenë "aplikacione të reja të kriptografisë për të ndihmuar në kufizimin e përhapjes së CSAM në internet, ndërsa dizajnojnë për privatësinë e përdoruesit".
Sistemi do të raportojë një ndeshje e cila më pas shqyrtohet me dorë nga një njeri. Pastaj mund të ndërmarrë hapa për të çaktivizuar llogarinë e një përdoruesi dhe të raportojë tek zbatimi i ligjit.
Kompania thotë se teknologjia e re ofron përfitime "domethënëse" të privatësisë mbi teknikat ekzistuese - pasi Apple mëson për fotot e përdoruesve vetëm nëse ata kanë një koleksion të materialeve të njohura të abuzimit seksual të fëmijëve në llogarinë e tyre iCloud.
Por Cathcart i WhatsApp thotë se sistemi "shumë lehtë mund të përdoret për të skanuar përmbajtje private për çdo gjë që ata ose një qeveri vendos që dëshiron të kontrollojë. Vendet ku shiten iPhone do të kenë përkufizime të ndryshme për atë që është e pranueshme".