Ilm-fan

Apple’ning iCloud’da bolalar xavfsizligi: G‘arbiy Virjiniyada yangi sud jarayoni

5-aprel, 2026, 10:0019 ko'rish3 daqiqa o'qish
Apple’ning iCloud’da bolalar xavfsizligi: G‘arbiy Virjiniyada yangi sud jarayoni

G‘arbiy Virjiniya shtati yaqinda Apple kompaniyasiga qarshi sudda da'vo qo‘ydi. Da'vo bo‘yicha, Apple iCloud xizmatida bolalar jinsiy suiiste’moli materiallarini (CSAM) aniqlash va blokirovka qilish tizimini bekor qilgani, shu bilan bu turdagi kontentni saqlash va tarqatish uchun “xavfsiz” platforma yaratganini da'vo qilmoqda.

CSAM aniqlash tizimi nima?

CSAM – Child Sexual Abuse Material, ya’ni bolalar jinsiy suiiste’moli materiallari. Ko‘plab texnologik kompaniyalar bu turdagi kontentni aniqlash uchun maxsus algoritmlardan foydalanadi. Masalan, Microsoft’ning PhotoDNA yoki Google’ning Content Safety API kabi texnologiyalar tasvirlarni ma’lum bir “qorong‘u” ma’lumotlar bazasiga solishtiradi va shubhali fayllarni bloklaydi yoki xabar beradi.

Apple’ning yondashuvi

2021 yilda Apple iCloud fotosuratlarini CSAM ro‘yxatiga qarshi tekshirish tizimini joriy etishni rejalashtirgan edi. Biroq, maxfiylik tarafdorlari bu tizimni “kuzatuv” deb tanqid qilishdi. Natijada, Apple bu loyihani bir yil ichida to‘xtatdi va endi end-to-end shifrlash (ya’ni, foydalanuvchi qurilmasidan serverga qadar ma’lumotlar shifrlanadi) asosida ishlashga o‘tdi.

Da'vo tarkibi

  • Apple iCloud’ni “xavfsiz, friksiyasiz” platforma sifatida ishlatgan, bu esa CSAM’ni saqlash, himoya qilish va tarqatishni osonlashtiradi.
  • Apple 267 ta CSAM holatini milliy bolalar xavfsizligi markaziga (NCMEC) xabar qilgan, bu esa Google (1,47 million) va Meta (30,6 million) kabi kompaniyalarga nisbatan juda kam.
  • Ichki xabarlar bo‘yicha Apple’ning ba'zi rahbarlari iCloud’ni “bolalar pornografiyasini tarqatish uchun eng yaxshi platforma” deb atashgan.

Kiberxavfsizlik nuqtai nazaridan tahlil

Bu da'vo kiberxavfsizlik sohasida muhim savollarni ko‘taradi:

  • Maxfiylik va xavfsizlik o‘rtasidagi muvozanat: End-to-end shifrlash foydalanuvchi maxfiyligini himoya qiladi, lekin shu bilan birga jinoyatlarni yashirish imkoniyatini ham yaratadi.
  • Texnologik yechimlar: CSAM aniqlash tizimlari foydalanuvchi ma’lumotlarini shifrlashdan mustasno bo‘lishi kerak, bu esa texnik jihatdan murakkab.
  • Qonuniy majburiyatlar: Ko‘plab mamlakatlarda kompaniyalar CSAM’ni aniqlash va xabar qilish majburiyatiga ega, lekin bu talablar texnologik cheklovlar bilan to‘qnash kelishi mumkin.

Apple ning javobi

Apple vakili Peter Ajemian kompaniyaning bolalar xavfsizligiga e’tiborini ta’kidlab, iMessage’da yosh foydalanuvchilar uchun “yolg‘iz tasvirlarni xiralashtirish” kabi yangi funksiyalarni joriy etganini aytdi. Biroq, da'vo tarafdorlari bu choralar yetarli emas, chunki ular faqat kontentni ko‘rish darajasini cheklaydi, lekin materialni saqlash yoki tarqatishni to‘xtatmaydi.

Kelajakda nimalar bo‘lishi mumkin?

G‘arbiy Virjiniya genrali boshqa shtatlar ham Apple’ga qarshi huquqiy choralar ko‘rishi mumkin, deb ogohlantirdi. Bu esa texnologik gigantlar uchun global darajada CSAM bilan kurashish strategiyasini qayta ko‘rib chiqish zaruratini keltirib chiqaradi.

Umuman olganda, bu holat texnologik kompaniyalar, qonunchilik organlari va fuqarolik jamiyati o‘rtasidagi hamkorlikni kuchaytirish, ham maxfiylikni, ham bolalar xavfsizligini bir vaqtning o‘zida ta’minlashga qaratilgan yangi yondashuvlarni ishlab chiqishga undaydi.

Manba: The Verge
#Apple #iCloud #CSAM #kiberxavfsizlik #bolalar xavfsizligi
Telegram da muhokama qilish