معرفی چارچوب امنیتی هوش مصنوعی گوگل

معرفی چارچوب امنیتی هوش مصنوعی گوگل

امروز ما یک چارچوب مفهومی را برای کمک به تامین امنیت فناوری هوش مصنوعی منتشر می کنیم.

توانایی هوش مصنوعی، به خصوص هوش مصنوعی تولیدی، بسیار بزرگ است. با این حال، در تلاش برای پیشرفت در این مرزهای جدید نوآوری، استانداردهای صنعتی واضحی برای ساخت و استقرار این فناوری به صورت مسئولانه لازم است. به همین دلیل امروز ما بسیار هیجان‌زده هستیم که چارچوب امنیتی هوش مصنوعی (SAIF) را معرفی کنیم، یک چارچوب مفهومی برای سیستم‌های امن هوش مصنوعی.

چرا الان SAIF را معرفی می‌کنیم
SAIF تحت تاثیر بهترین روش‌های امنیتی — مانند بررسی، تست و کنترل زنجیره تامین — است که ما آنها را در توسعه نرم‌افزار اعمال کردیم، همان‌طور که درک ما از
مگاترند‌های امنیتی
و خطرات خاصی که به سیستم‌های هوش مصنوعی ویژه است ادغام شده است.

یک چارچوب در بین بخش‌های عمومی و خصوصی حیاتی است تا مطمئن شوید که افراد مسئول تکنولوژی که پیشرفت‌های هوش مصنوعی را پشتیبانی می‌کنند، از فناوری‌هایی که خطراتی را پشتیبانی می‌کند که وقتی مدل‌های هوش مصنوعی پیاده‌سازی می‌شوند، امن به صورت پیش‌فرض باشند. امروز گامی مهم است.

در طول سال‌ها در گوگل، ما به یک
رویکرد باز
و
همکاری‌ها
به سایبرامنی پیوسته‌ای خوش‌آمد به میان آورده‌ایم. این شامل ترکیب استخبارات در خط، تخصص و نوآوری با تعهد به به اشتراک گذاری اطلاعات تهدیدی با دیگران برای کمک به پاسخ به – و پیشگیری از – حملات سایبری. با توجه به این رویکرد، SAIF برای کمک به کاهش خطرات خاصی که سیستم‌های هوش مصنوعی مانند
دزدیدن مدل
،
سم‌زدایی داده‌های آموزش
، وارد کردن ورودی‌های خبیث از طریق
تزریق دستور
، و
استخراج اطلاعات محرمانه
در داده‌های آموزشی، طراحی شده است. چرا که قابلیت‌های هوش مصنوعی به طور فزاینده‌ای در محصولات در سراسر جهان یکپارچه می‌شوند، پایبندی به یک
چارچوب جسورانه و مسئولانه
حتی مهم‌تر است.

حال به SAIF و شش عنصر اصلی آن نگاهی بیاندازیم:
### 1. گسترش پایه‌های امنیتی قوی به اکوسیستم هوش مصنوعی
در برگرفتن توانایی‌های محافظتی سیستم‌های امن به طور پیش‌فرض و تجربه
ایجاد شده در دو دهه گذشته
برای حفاظت از سیستم‌های هوش مصنوعی، برنامه‌ها، و کاربران. در همین حال، توانیس بر سازمانی‌ها برای گام‌های پیشرفته در هوش مصنوعی و شروع به مقیاس‌پذیری و تطبیق محافظتی در بستر محیطی هوش مصنوعی و مدل‌های تهدیدی در حال تکامل است. به عنوان مثال، تکنیک‌های تزریق مانند
تزریق SQL
برای مدتی وجود داشته‌اند، و سازمان‌ها می‌توانند اقداماتی مانند تصفیه ورودی و محدود کردن را انطباق دهند تا بهتر در برابر حملاتی مانند
حملات تزریق دستور سریع
دفاع کنند.
### 2. گسترش تشخیص و واکنش برای جلب هوش هوش مصنوعی به دامنه تهدیدهای یک سازمان
زمان در تشخیص و واکنش به حوادث سایبری مربوط به هوش مصنوعی بسیار حیاتی است، و گسترش اطلاعان هوش تهدید و سایر قابلیت‌ها برای یک سازمان هر دو را بهبود می بخشد. برای سازمان‌ها، این شامل نظارت بر ورودی‌ها و خروجی‌های سیستم‌های تولیدی هوش مصنوعی برای شناسایی ناهنجاری‌ها و استفاده از
اطلاعات تهدید
برای پیش‌بینی حملات است. این تلاش معمولاً نیازمند همکاری با تیم‌های اعتماد و ایمنی، هوش تهدید، و تیم‌های مقابله با سوءاستفاده می‌باشد.
### 3. اتوماسیون دفاعی برای همگام شدن با تهدیدات قدیمی و جدید
سازماندهی‌های جدیدتر هوش مصنوعی می‌توانند مقیاس و سرعت تحرک برای پاسخ به حوادث امنیتی را بهبود بخشن. دشمنان
احتمالاً از هوش مصنوعی برای افزایش تأثیر خود استفاده خواهند کرد
، بنابراین اهمیت دارد که
از هوش مصنوعی و قابلیت‌های فعلی و آینده‌اش
برای ماندگار و با صرفه برای محافظت در برابر آنها استفاده شود.
### 4. هماهنگ کردن کنترل‌های سطح پلت فورم برای اطمینان از امنیت یکپارچه در سراسر سازمان
یکنواختی در کنار چارچوب‌های کنترلی می‌تواند به کاهش خطر هوش مصنوعی بپردازد و محافظت‌ها را در بسترهای و ابزارهای مختلف بسط دهد تا اطمینان حاصل شود که بهترین حفاظت‌ها برای تمامی برنامه‌های هوش مصنوعی در یک شیوه قابل مقیاس و صرفه‌جوی موجود است. در گوگل، این شامل گستراندن حفاظت‌های پیش‌فرض امنیتی به پلت فورم‌های هوش مصنوعی مانند
Vertex AI
و
Security AI Workbench
می‌شود، و کنترل‌ها و حفاظت‌ها را در چرخه توسعه نرم‌افزار جای می‌دهند. قابلیت‌هایی که به موارد کاربرد عمومی پاسخ می‌دهند، مانند
API Perspective
، می‌تواند کمک کند تا تمامی سازمان از حفاظت‌های هوش مصنوعی در جدترین وضعیت استفاده کند.
### 5. تطبیق کنترل‌ها برای تنظیم تسهیلات و ایجاد حلقه‌های بازخورد سریع‌تر برای پیاده‌سازی هوش مصنوعی
تست مداوم اجراها از طریق یادگیری مداوم می‌تواند تضمین کند که قابلیت‌های شناسایی و حفاظتی تغییرات محیط تهدیدی را پوشش می دهد با تکنیک‌هایی مانند یادگیری تقویتی مبتنی بر حادثه‌ها و بازخورد کاربر و مراحلی مانند به‌روزرسانی مجموعه داده‌های آموزشی، تنظیم مدل‌ها برای به پاسخگویی استراتژیک به حملات و اجازه دادن به نرم‌افزاری که برای ساختن مدل‌ها استفاده می‌شود، امنیت بیشتری در زمینه‌های مربوط به آن (مثلاً شناسایی رفتارهای غیرعادی) جاسازی شود. سازمان‌ها همچنین می‌توانند تمرینات
تیم قرمز
را برای بهبود اطمینان از امنیت محصولات و قابلیت‌های قدرت گرفته از هوش مصنوعی انجام دهند.
### 6. قرار دادن ریسک‌های سیستم‌های هوش مصنوعی در فرآیندهای تجاری اطراف
سرانگردانی آخرین به آخر از ارزیابی‌های ریسک مربوط به نحوه اینکه سازمان‌ها چگونه هوش مصنوعی را پیاده می‌کنند می‌تواند به تصمیمات کمک کند. این شامل ارزیابی ریسک ته به ته، مانند تاریخچه داده، اعتبار سنجی و نظارت بر رفتار عملیاتی برای این نوع از برنامه‌ها می‌شود. علاوه بر این، سازمان‌ها بایستی چک‌های خودکاری برای اعتبار عملکرد هوش مصنوعی ساختند.
### چرا ما یک جامعه امنیتی هوش مصنوعی برای همه را پشتیبانی می‌کنیم
ما طولانی‌اند که برای افزایش نرد مرزی ایمنی و کاهش خطر کلی فریم‌ورک‌های صنعتی را توسعه داده‌ایم و غالباً همکاری کرده‌ایم. ما با دیگران همکاری کرده‌ایم تا
چارچوب‌های سطح تامین سطوح برای مصنوعات نرم‌افزاری (SLSA)
را برای بهبود امان زنجیره تامین نرم‌افزار منتشر کنیم، و کار پیشروی که درباره مدل دسترسی
BeyondCorp
به
پیۀ اعتماد صفر
که امروزه استاندارد صنعتی می‌باشد باعث شده‌است تا آنچه را که از این و زحمات دیگر آموخته‌ایم، در این طول مدت موفق باشد، شما باید یک جامعه را ایجاد کنید تا از پشتیبانی و پیشرفت کار پشتیبان می‌کند. به همین دلیل هیجان زده هستیم که اولین گام های سفر ما برای ایجاد جامعه SAIF را برای همه اعلام کنیم.
### نحوه اجرای گوگل SAIF را
ما در حال حمایت و پیشبرد


منبع:
این مقاله در اصل در https://blog.google/technology/safety-security/introducing-googles-secure-ai-framework/ منتشر شده است.