برنامه های اسکن CSAM اپل متوقف شد. تنظیم کننده صحبت می کند


برنامه‌های اسکن CSAM اپل ممکن است کنار گذاشته شده باشد، اما این به بحث پایان نداده است. یک نهاد تنظیم کننده استرالیایی، شرکت کوپرتینویی را متهم کرده است که چشم خود را بر استثمار جنسی کودکان بسته است.

او گفت که اپل و مایکروسافت در انجام اقداماتی برای محافظت از “آسیب پذیرترین افراد در برابر درنده ترین” شکست خورده اند.

زمینه

روش معمول برای شناسایی مطالب سوء استفاده جنسی از کودکان (CSAM) زمانی است که سرویس‌های ابری مانند Google Photos عکس‌های آپلود شده را تجزیه و تحلیل می‌کنند و آنها را با پایگاه داده‌ای از تصاویر شناخته شده CSAM مقایسه می‌کنند. این پایگاه داده توسط NCMEC و سازمان های مشابه در سراسر جهان ارائه شده است.

فرآیند تطبیق واقعی از چیزی استفاده می کند که هش یا هش نامیده می شود. این از عناصر کلیدی تصویر مشتق شده است و به عمد تار می شود به طوری که هنگام تغییر اندازه، برش یا پردازش تصاویر به کار خود ادامه می دهد. این بدان معنی است که گاهی اوقات موارد مثبت کاذب وجود خواهد داشت: یک تصویر بی گناه که هش آن به اندازه کافی با تصویر CSAM مطابقت دارد.

اپل رویکرد دوستدار حریم خصوصی را برنامه ریزی کرد، که در آن اسکن در آیفون کاربر انجام می شد، نه در فضای ابری – اما کارشناسان امنیت سایبری، سازمان های حقوق بشر، دولت ها و کارمندان خود اپل، همگی چهار نگرانی را در مورد این برنامه ها مطرح کردند.

در حالی که به نظر می رسید اپل از این عقب نشینی متعجب شده بود، ما در آن زمان به این موضوع اشاره کردیم که با توجه به پیام های دائمی مبتنی بر حریم خصوصی این شرکت مبنی بر اینکه “آنچه در آیفون اتفاق می افتد در آیفون باقی می ماند” کاملاً قابل انتظار بود.

این شرکت بیلبوردهای بزرگی را نصب کرد. تبلیغات خنده دار پخش می کرد. این یک میکروسایت جامع حریم خصوصی دارد. مدیر عامل آن در هر مصاحبه و حضور عمومی در مورد حریم خصوصی صحبت می کند. این شرکت به دلیل حفظ حریم خصوصی به غول های فناوری دیگر حمله می کند. او با کل صنعت تبلیغات برای یک ویژگی جدید حریم خصوصی مبارزه کرد.

پس از اینکه در ابتدا اعلام کرد که عرضه را متوقف می کند تا به نگرانی های مطرح شده رسیدگی کند و پادمان های حریم خصوصی اضافی را اعمال کند، این شرکت بی سر و صدا هرگونه اشاره به آن را حذف کرد. هنگامی که از اپل پرسیده شد، اپل گفت که این ویژگی به تعویق افتاده است، نه لغو. با این حال، هفته گذشته تغییر کرد.

در همان روزی که این شرکت حفاظت از داده های پیشرفته را با رمزگذاری سرتاسر برای همه داده های iCloud اعلام کرد، اسکن CSAM که هرگز منتشر نشده بود را نیز پایان داد. این خبر توسط معاون مهندسی نرم افزار اپل، کریگ فدریگی، در مصاحبه با جوانا استرن از WSJ تایید شد.

رگولاتور استرالیایی اپل را به چشم پوشی متهم کرد

رویترز گزارش می دهد که کمیسر امنیت الکترونیک استرالیا، اپل و مایکروسافت را متهم کرده است که نقش خود را در جلوگیری از اشتراک گذاری CSAM ایفا نکرده اند.

کمیسیون امنیت الکترونیک، دفتری که برای محافظت از کاربران اینترنت راه اندازی شده است، گفت پس از ارسال درخواست های قانونی برای اطلاعات به برخی از بزرگترین شرکت های اینترنتی جهان، پاسخ ها نشان می دهد که اپل و مایکروسافت به طور فعال مطالب پورنوگرافی کودکان را از سرویس های ذخیره سازی خود فیلتر نکرده اند. ، iCloud و OneDrive.

اینمن گرانت گفت، اعلامیه اپل یک هفته پیش مبنی بر توقف اسکن حساب های iCloud برای سوء استفاده از کودکان، به دنبال فشار طرفداران حفظ حریم خصوصی، “گامی بزرگ به عقب عقب تر از مسئولیت های آنها برای کمک به حفظ امنیت کودکان بود.”

او افزود که ناکامی این دو شرکت در تشخیص سوء استفاده از پخش زنده به این معناست که “برخی از بزرگترین و ثروتمندترین شرکت های فناوری در جهان چشمان خود را می بندند و اقدامات لازم را برای محافظت از آسیب پذیرترین افراد در برابر درنده ترین ها انجام نمی دهند.”

باید دید اپل می تواند جایگاه جدید خود را حفظ کند یا خیر. این شرکت ممکن است در آینده با تعهد قانونی برای شناسایی CSAM مواجه شود.

عکس: Priscilla Du Preez/Unsplash

FTC: ما از لینک های وابسته خودکار درآمدزا استفاده می کنیم. بعد از.


برای اخبار بیشتر اپل، 9to5Mac را در YouTube بررسی کنید:



Source link

بخش appl 9to5mac فارسی