در یک تحول مهم در عرصه هوش مصنوعی با تمرکز بر حفظ حریم خصوصی، اپل با معرفی «Apple Intelligence» در iOS 18 و مک Sequoia، توانایی اجرای مدلهای هوش مصنوعی را در سه لایه امنیتی ارائه داده است.
به گزارش تکناک، در سالهای اخیر، هوش مصنوعی به محور توجه صنعت فناوری تبدیل شده است. با اینکه مدلهای زبانی بزرگ (LLMs) قابلیتهایی چشمگیر ارائه میدهند، اما همیشه نگرانیهایی جدی درباره حریم خصوصی کاربران به همراه داشتهاند. این مدلها اغلب از طریق فضای ابری اجرا میشوند و اطلاعات کاربران روی سرورهایی ذخیره میشود که در معرض خطر دسترسیهای ناخواسته قرار دارند.
با توجه به سابقه اپل در اولویتدادن به حریم خصوصی، بسیاری از کاربران و تحلیلگران کنجکاو بودند که این شرکت چگونه در چارچوب Apple Intelligence با این مسئله برخورد خواهد کرد. اکنون با معرفی رسمی قابلیتهای هوش مصنوعی اپل، پاسخ این پرسش روشن شده است: اپل حفظ حریم خصوصی را نهتنها در طراحی محصول، بلکه در معماری فنی مدلهای هوش مصنوعی نیز بهطور جدی دنبال کرده است.
فهرست مطالب
اجرای مدلها بر روی دستگاه (On-device)
به نقل از 9to5mac، یکی از پایههای امنیت در Apple Intelligence، اجرای مدلها بهطور کامل روی خود دستگاه کاربر است. این تصمیم باعث شده تا فقط دستگاههایی که از نظر سختافزاری توانایی پردازش این مدلها را دارند، از این قابلیت پشتیبانی کنند؛ مانند iPhone 15 Pro، iPhone 16 و کلیه دستگاههای iPad و Mac دارای تراشه M1 یا بالاتر.
این مدلهای رویدستگاه نیازمند دستکم ۸ گیگابایت حافظه یکپارچه هستند – ظرفیتی که از iPhone 15 Pro به بعد در اختیار کاربران قرار گرفت. مزیت این رویکرد آن است که دادههای شخصی و درخواستهای کاربران از دستگاه خارج نمیشوند و کاملاً به صورت محلی پردازش میشوند. قابلیتهایی مانند خلاصهسازی اعلانها و تولید Genmoji نمونههایی از این پردازشهای محلی هستند.
در جریان کنفرانس WWDC25، اپل اعلام کرد که توسعهدهندگان نیز میتوانند از مدلهای رویدستگاه با نام Apple Foundational Models در اپلیکیشنهای خود بهرهمند شوند. این موضوع نه تنها قدرت پردازشی بیشتری در اختیار توسعهدهندگان قرار میدهد، بلکه انگیزه آنها برای استفاده از سرویسهای شخص ثالثی همچون OpenAI و Google Gemini را کاهش میدهد – چرا که نیازی به ارسال دادههای کاربر به سرورهای خارجی نخواهد بود.

محاسبه ابری خصوصی (Private Cloud Compute)
در کنار مدلهای محلی، اپل راهکاری امن برای پردازش درخواستهای سنگینتر از طریق فضای ابری نیز ارائه کرده است: Private Cloud Compute. این سیستم که در iOS 26 نقش پررنگتری یافته، به کاربران اجازه میدهد تا از طریق Siri Shortcuts، درخواستهایی را به مدلهای ابری ارسال کنند.
به گفته اپل، Private Cloud Compute به گونهای طراحی شده که هیچگونه دادهای را ذخیره نمیکند و حتی خود شرکت نیز به دادههای کاربران دسترسی ندارد. در حرکتی بیسابقه، اپل اعلام کرده است که تصویر نرمافزار این زیرساخت را در دسترس پژوهشگران مستقل قرار خواهد داد تا آنها بتوانند امنیت این سیستم را بهصورت شفاف و قابل راستیآزمایی بررسی کنند.
همکاری با ChatGPT تحت شرایط ویژه
بخش دیگری از استراتژی اپل در زمینه هوش مصنوعی، ادغام با ChatGPT است. این همکاری که تحت شرایط سختگیرانه حریم خصوصی صورت میگیرد، تضمین میکند که دادههای کاربران اپل نه توسط OpenAI ذخیره میشود و نه در آموزش مدلهای آینده مورد استفاده قرار میگیرد.

ارسال درخواست به ChatGPT تنها با اجازه صریح کاربر انجام میشود. این در حالی است که اخیراً دادگاه در پی شکایت روزنامه The New York Times از OpenAI، این شرکت را موظف به نگهداری دائمی دادههای کاربران کرد. با این حال، OpenAI تأکید کرده است که کاربران تجاری – از جمله اپل– که از APIهای بدون ذخیرهسازی داده استفاده میکنند، تحت تأثیر این حکم قرار نمیگیرند، زیرا دادههای آنان اصلاً ذخیره نمیشود.
از این رو، استفاده از ChatGPT از طریق Siri، خصوصیترین راه ممکن برای بهرهمندی از مدلهای زبانی پیشرفته به شمار میآید.
جمعبندی
اپل با ارائه ترکیبی از مدلهای محلی، محاسبه ابری خصوصی، و ادغام حسابشده با سرویسهای شخص ثالث مانند ChatGPT، استاندارد جدیدی در زمینه حفظ حریم خصوصی در عصر هوش مصنوعی تعریف کرده است.
در زمانی که دیگر شرکتها به ذخیرهسازی گسترده دادههای کاربر تکیه دارند، اپل نشان داده است که پیشرفت فناوری میتواند با حفاظت از حقوق کاربران همراه باشد – نه در تضاد با آن.