اپل، آیفون کاربران را در جست‌وجوی تصاویر بهره‌برداری جنسی از کودکان اسکن می‌کند

شرکت فناوری اپل اعلام کرده است که به منظور حمایت از کودکان و مقابله با پخش تصاویر آزار سوءاستفاده جنسی از آنان، قابلیت‌های تازه‌ای را به سیستم عامل گوشی‌های خود اضافه می‌کند.

به گزارش یورونیوز، ابزار جدید که نئورال مچ (NeuralMatch) نام دارد، تصاویر را قبل از بارگذاری روی فضای ذخیره‌سازی آنلاین iCloud به صورت خودکار اسکن می‌کند. اگر تصویر اسکن شده با یکی از تصاویر پایگاه داده تصاویر پورنوگرافیک کودکان در نرم‌افزار مطابقت داشت، توسط یک کارشناس اپل مورد بازبینی قرار می‌گیرد. در صورت تایید پورنوگرافیک بودن عکس، حساب کاربر غیرفعال شده و به مرکز ملی کودکان مفقود و مورد سوء استفاده قرار گرفته اطلاع داده می‌شود.

اپل می‌گوید همچنین قصد دارد به منظور محافظت از کودکان، پیام‌های رمزگذاری شده کاربران را از لحاظ محتوای جنسی تحت بازرسی قرار دهد.

تصمیمات اخیر اپل استقبال گروه‌های حقوق بشری و حامی حقوق کودکان را در پی داشته است. با این حال در سوی مقابل منتقدان و سازمان‌های حامی حریم خصوصی را نگران کرده است.

شرکت الکترانیکس فرانتیر، پیشگام در زمینه آزادی‌های مدنی آنلاین، اقدام جدید اپل را برای کسانی که در حفظ حریم خصوصی و امنیت خود به این شرکت اعتماد کرده‌اند «تکان‌دهنده» خوانده است.

اپل استدلال می‌کند که ابزارهای جدیدش در واقع چیزی را نمی‌بینند، بلکه تنها «اثر انگشت» ریاضی اجزای سازنده تصاویر را تشخیص می‌دهند.

متیو گرین، محقق ارشد رمزنگاری در دانشگاه جان هاپکینز آمریکا، می‌گوید الگوریتم سیستم طراحی‌شده توسط اپل می‌تواند به راحتی دور زده شود و کاربران بی‌گناه قربانی شوند. در همین حال که سوءاستفاده‌های دیگری از این سیستم توسط دولت‌هایی نظیر چین برای ردگیری مخالفان و معترضان می‌توانند انجام شوند.

در مقابل موافقان استدلال می‌کنند هرچند سوءاستفاده از سامانه جدید اپل محتمل است، اما ضرورت مبارزه با سوءاستفاده جنسی از کودکان بسیار بیشتر است.

جان کلارک، رئیس مرکز ملی کودکان مفقود و مورد سوء استفاده قرار گرفته، می‌گوید: «با توجه به شمار بالای افرادی که از محصولات اپل استفاده می‌کنند، این اقدامات ایمنی جدید می‌توانند ارزشی حیاتی و نجات‌دهنده برای کودکان داشته باشند.»

شرکت‌های فناوری از جمله مایکروسافت، گوگل و فیس‌بوک سال‌هاست که از فناوری اثر انگشت دیجیتال برای ردیابی تصاویر سوء‌استفاده جنسی از کودکان استفاده می‌کنند و پایگاه داده مشترکی از این تصاویر ایجاد کرده‌اند.

اپل سال‌هاست تحت فشار دولت آمریکا قرار داشته تا امکان نظارت بیشتری بر داده‌های رمزگذاری شده کاربرانش را فراهم کند. پلیس فدرال این کشور، اف‌بی‌آی، به دفعات از اپل خواسته تا در جرائمی مانند تروریسم یا استثمار جنسی کودکان نظارت بیشتری اعمال کند.

اپل گفته است تغییرات جدید امسال به عنوان بخشی از برنامه به‌روز‌رسانی سیستم عامل برای کامپیوترهای مک، ساعت‌های مچی اپل‌واچ و گوشی‌های آیفون اعمال خواهد شد.