معرفی چارچوب امنیتی هوش مصنوعی گوگل
معرفی چارچوب امنیتی هوش مصنوعی گوگل
امروز ما یک چارچوب مفهومی را برای کمک به تامین امنیت فناوری هوش مصنوعی منتشر می کنیم.
توانایی هوش مصنوعی، به خصوص هوش مصنوعی تولیدی، بسیار بزرگ است. با این حال، در تلاش برای پیشرفت در این مرزهای جدید نوآوری، استانداردهای صنعتی واضحی برای ساخت و استقرار این فناوری به صورت مسئولانه لازم است. به همین دلیل امروز ما بسیار هیجانزده هستیم که چارچوب امنیتی هوش مصنوعی (SAIF) را معرفی کنیم، یک چارچوب مفهومی برای سیستمهای امن هوش مصنوعی.
چرا الان SAIF را معرفی میکنیم
SAIF تحت تاثیر بهترین روشهای امنیتی — مانند بررسی، تست و کنترل زنجیره تامین — است که ما آنها را در توسعه نرمافزار اعمال کردیم، همانطور که درک ما از
مگاترندهای امنیتی
و خطرات خاصی که به سیستمهای هوش مصنوعی ویژه است ادغام شده است.
یک چارچوب در بین بخشهای عمومی و خصوصی حیاتی است تا مطمئن شوید که افراد مسئول تکنولوژی که پیشرفتهای هوش مصنوعی را پشتیبانی میکنند، از فناوریهایی که خطراتی را پشتیبانی میکند که وقتی مدلهای هوش مصنوعی پیادهسازی میشوند، امن به صورت پیشفرض باشند. امروز گامی مهم است.
در طول سالها در گوگل، ما به یک
رویکرد باز
و
همکاریها
به سایبرامنی پیوستهای خوشآمد به میان آوردهایم. این شامل ترکیب استخبارات در خط، تخصص و نوآوری با تعهد به به اشتراک گذاری اطلاعات تهدیدی با دیگران برای کمک به پاسخ به – و پیشگیری از – حملات سایبری. با توجه به این رویکرد، SAIF برای کمک به کاهش خطرات خاصی که سیستمهای هوش مصنوعی مانند
دزدیدن مدل
،
سمزدایی دادههای آموزش
، وارد کردن ورودیهای خبیث از طریق
تزریق دستور
، و
استخراج اطلاعات محرمانه
در دادههای آموزشی، طراحی شده است. چرا که قابلیتهای هوش مصنوعی به طور فزایندهای در محصولات در سراسر جهان یکپارچه میشوند، پایبندی به یک
چارچوب جسورانه و مسئولانه
حتی مهمتر است.
حال به SAIF و شش عنصر اصلی آن نگاهی بیاندازیم:
### 1. گسترش پایههای امنیتی قوی به اکوسیستم هوش مصنوعی
در برگرفتن تواناییهای محافظتی سیستمهای امن به طور پیشفرض و تجربه
ایجاد شده در دو دهه گذشته
برای حفاظت از سیستمهای هوش مصنوعی، برنامهها، و کاربران. در همین حال، توانیس بر سازمانیها برای گامهای پیشرفته در هوش مصنوعی و شروع به مقیاسپذیری و تطبیق محافظتی در بستر محیطی هوش مصنوعی و مدلهای تهدیدی در حال تکامل است. به عنوان مثال، تکنیکهای تزریق مانند
تزریق SQL
برای مدتی وجود داشتهاند، و سازمانها میتوانند اقداماتی مانند تصفیه ورودی و محدود کردن را انطباق دهند تا بهتر در برابر حملاتی مانند
حملات تزریق دستور سریع
دفاع کنند.
### 2. گسترش تشخیص و واکنش برای جلب هوش هوش مصنوعی به دامنه تهدیدهای یک سازمان
زمان در تشخیص و واکنش به حوادث سایبری مربوط به هوش مصنوعی بسیار حیاتی است، و گسترش اطلاعان هوش تهدید و سایر قابلیتها برای یک سازمان هر دو را بهبود می بخشد. برای سازمانها، این شامل نظارت بر ورودیها و خروجیهای سیستمهای تولیدی هوش مصنوعی برای شناسایی ناهنجاریها و استفاده از
اطلاعات تهدید
برای پیشبینی حملات است. این تلاش معمولاً نیازمند همکاری با تیمهای اعتماد و ایمنی، هوش تهدید، و تیمهای مقابله با سوءاستفاده میباشد.
### 3. اتوماسیون دفاعی برای همگام شدن با تهدیدات قدیمی و جدید
سازماندهیهای جدیدتر هوش مصنوعی میتوانند مقیاس و سرعت تحرک برای پاسخ به حوادث امنیتی را بهبود بخشن. دشمنان
احتمالاً از هوش مصنوعی برای افزایش تأثیر خود استفاده خواهند کرد
، بنابراین اهمیت دارد که
از هوش مصنوعی و قابلیتهای فعلی و آیندهاش
برای ماندگار و با صرفه برای محافظت در برابر آنها استفاده شود.
### 4. هماهنگ کردن کنترلهای سطح پلت فورم برای اطمینان از امنیت یکپارچه در سراسر سازمان
یکنواختی در کنار چارچوبهای کنترلی میتواند به کاهش خطر هوش مصنوعی بپردازد و محافظتها را در بسترهای و ابزارهای مختلف بسط دهد تا اطمینان حاصل شود که بهترین حفاظتها برای تمامی برنامههای هوش مصنوعی در یک شیوه قابل مقیاس و صرفهجوی موجود است. در گوگل، این شامل گستراندن حفاظتهای پیشفرض امنیتی به پلت فورمهای هوش مصنوعی مانند
Vertex AI
و
Security AI Workbench
میشود، و کنترلها و حفاظتها را در چرخه توسعه نرمافزار جای میدهند. قابلیتهایی که به موارد کاربرد عمومی پاسخ میدهند، مانند
API Perspective
، میتواند کمک کند تا تمامی سازمان از حفاظتهای هوش مصنوعی در جدترین وضعیت استفاده کند.
### 5. تطبیق کنترلها برای تنظیم تسهیلات و ایجاد حلقههای بازخورد سریعتر برای پیادهسازی هوش مصنوعی
تست مداوم اجراها از طریق یادگیری مداوم میتواند تضمین کند که قابلیتهای شناسایی و حفاظتی تغییرات محیط تهدیدی را پوشش می دهد با تکنیکهایی مانند یادگیری تقویتی مبتنی بر حادثهها و بازخورد کاربر و مراحلی مانند بهروزرسانی مجموعه دادههای آموزشی، تنظیم مدلها برای به پاسخگویی استراتژیک به حملات و اجازه دادن به نرمافزاری که برای ساختن مدلها استفاده میشود، امنیت بیشتری در زمینههای مربوط به آن (مثلاً شناسایی رفتارهای غیرعادی) جاسازی شود. سازمانها همچنین میتوانند تمرینات
تیم قرمز
را برای بهبود اطمینان از امنیت محصولات و قابلیتهای قدرت گرفته از هوش مصنوعی انجام دهند.
### 6. قرار دادن ریسکهای سیستمهای هوش مصنوعی در فرآیندهای تجاری اطراف
سرانگردانی آخرین به آخر از ارزیابیهای ریسک مربوط به نحوه اینکه سازمانها چگونه هوش مصنوعی را پیاده میکنند میتواند به تصمیمات کمک کند. این شامل ارزیابی ریسک ته به ته، مانند تاریخچه داده، اعتبار سنجی و نظارت بر رفتار عملیاتی برای این نوع از برنامهها میشود. علاوه بر این، سازمانها بایستی چکهای خودکاری برای اعتبار عملکرد هوش مصنوعی ساختند.
### چرا ما یک جامعه امنیتی هوش مصنوعی برای همه را پشتیبانی میکنیم
ما طولانیاند که برای افزایش نرد مرزی ایمنی و کاهش خطر کلی فریمورکهای صنعتی را توسعه دادهایم و غالباً همکاری کردهایم. ما با دیگران همکاری کردهایم تا
چارچوبهای سطح تامین سطوح برای مصنوعات نرمافزاری (SLSA)
را برای بهبود امان زنجیره تامین نرمافزار منتشر کنیم، و کار پیشروی که درباره مدل دسترسی
BeyondCorp
به
پیۀ اعتماد صفر
که امروزه استاندارد صنعتی میباشد باعث شدهاست تا آنچه را که از این و زحمات دیگر آموختهایم، در این طول مدت موفق باشد، شما باید یک جامعه را ایجاد کنید تا از پشتیبانی و پیشرفت کار پشتیبان میکند. به همین دلیل هیجان زده هستیم که اولین گام های سفر ما برای ایجاد جامعه SAIF را برای همه اعلام کنیم.
### نحوه اجرای گوگل SAIF را
ما در حال حمایت و پیشبرد
منبع:
این مقاله در اصل در https://blog.google/technology/safety-security/introducing-googles-secure-ai-framework/ منتشر شده است.

