پس از انتشار موج منفی بسیار زیاد در مورد قابلیت CSAM اپل در صفحه پاسخ به پرسشهای پرتکرار در این زمینه شفافسازی کرد.
در این بخش پاسخ به پرسشهای پرتکرار، اپل اعلام کرده که بسیاری از سازمانهای حریم خصوصی، سازمانهای حمایت از حقوق کودکان و حتی سهامداران این شرکت خواستار شفافسازی در این زمینه هستند. این سازمانها از اپل درخواست کردهاند که راهکاری مناسب را برای حفظ حریم خصوصی در کنار حفظ امنیت کاربران ایجاد کند، با این حال عرضه قابلیت اخیر باعث شده تا سوالهای بسیار زیادی در این زمینه به وجود آید.
اپل طی یک سند ویژه به این قابلیت جدید اشاره کرده و مشخصههای آن را مورد بررسی قرار داده است. اپل در مورد امنیت سیستمعای ارتباطی در حال استفاده از این قابلیت در کنار امنیت اپلیکیشن آیمسیج توضیه داده است.
در این میان شرکت اپل اعلام کرده که این قابلیت تنها برای تصاویری فعال میشود که برای اکانتهای زیر سن قانونی فرستاده یا دریافت شود.
اپل تاکید کرده که سیستم تشخیص هوشمند برای تمامی تصاویر کار نمیکند، بلکه این سیستم طراحی شده تا از وقوع رخدادهایی نظیر درخواست دولتها برای دسترسی به همه دادههای کاربران جلوگیری کند. برخی از مقامات قضایی و پلیسهای کشورها درخواست رسمی اطلاعات کاربران را میکنند که این موضوع به ناچار توسط اپل باید اجرایی شود. با این حال این سیستم جدید باعث میشود تا اپل دیگر نیازی به ارائه کامل اطلاعات کاربران را به دولتها نداشته باشد و تنها کاربرانی که توسط هوش مصنوعی به عنوان فعال در زمینه کارهای غیرقانونی شناخته میشوند را به صورت خودکار مورد بررسی قرار دهد.
اپل تاکید کرده که به دولت هیچ کشوری اجازه و امکان استفاده از فناوری هوش مصنوعی تشخیص تصاویر خود را در راهکارها و محتوایی غیر از کودکآزاری نمیدهد و از پیش تمامی درخواستهای احتمالی دولتها را در این زمینه رد میکند. در حقیقت هیچ یک از تصاویر غیر مربوط به آزار و اذیت کودکان در این مکانیزم تست و بررسی نمیشوند.
اپل با وجود این توضیحات هنوز با موجی از انتقادها در زمینههای مختلف مواجه شده است و توضیحات اپل در این زمینه هنوز نتوانسته بسیاری از کاربران را متقاعد کند.