جمعه ۲ آذر ۱۴۰۳ , 22 Nov 2024
جالب است ۰
شرکت گوگل در نظر دارد تا به‌سرعت چارچوبی را برای ایمن‌سازی هوش مصنوعی مولد طراحی کند.
شرکت گوگل در نظر دارد تا به‌سرعت چارچوبی را برای ایمن‌سازی هوش مصنوعی مولد طراحی کند.
 
به گزارش افتانا به نقل از اینفوسکیوریتی، هوش مصنوعی مولد به سرعت در حال پیشرفت است، اما راه‌های خلاقانه‌ای که مردم برای استفاده مخرب از آن پیدا می‌کنند نیز روز به روز تغییر می‌کند. بسیاری از دولت‌ها در تلاش هستند تا برنامه‌های کنترل‌کننده خود را برای کاهش خطر سوءاستفاده از هوش مصنوعی تسریع کنند.
 
در همین حال، برخی از توسعه‌دهندگان هوش مصنوعی مولد به دنبال این هستند که چگونه می‌توانند به امنیت مدل‌ها و خدمات خود کمک کنند. گوگل، مالک چت‌بات مولد هوش مصنوعی Bard و شرکت مادر آزمایشگاه تحقیقاتی هوش مصنوعی DeepMind، چارچوب هوش مصنوعی امن (SAIF) خود را در 8 ژوئن 2023 رونمایی کرد.
 
رویال هانسن، معاون مهندسی حریم خصوصی، ایمنی و امنیت گوگل و فیل ونبلز، مدیر ارشد Google Cloud در اعلام کردند SAIF یک چارچوب مفهومی جسورانه و معتبر برای کمک به امنیت مشترک فناوری هوش مصنوعی باشد.
 
این تلاش مبتنی بر تجربه گوگل در توسعه مدل‌های امنیت سایبری، مانند چارچوب مشارکتی سطوح زنجیره تأمین برای مصنوعات نرم‌افزاری (SLSA) و BeyondCorp، معماری اعتماد صفر آن است که توسط بسیاری از سازمان‌ها استفاده می‌شود.
 
SAIF به طور خاص «اولین گام» است که برای کمک به کاهش خطرات خاص سیستم‌های هوش مصنوعی مانند سرقت مدل، مسمومیت داده‌های آموزشی، ورودی‌های مخرب از طریق تزریق سریع و استخراج اطلاعات محرمانه در داده‌های آموزشی طراحی شده است.
 
SAIF حول شش اصل مرکزی بنا شده است:
 
1) گسترش پایه‌های امنیتی قوی در اکوسیستم هوش مصنوعی، از جمله استفاده از حفاظت از زیرساخت‌های پیش‌فرض (مانند تکنیک‌های کاهش تزریق SQL)
 
2) گسترش تشخیص و پاسخ برای وارد کردن هوش مصنوعی به دنیای تهدید یک سازمان: نظارت بر ورودی‌ها و خروجی‌های سیستم‌های هوش مصنوعی مولد برای شناسایی ناهنجاری‌ها و استفاده از هوش تهدید برای پیش‌بینی حملات
 
3) خودکار کردن دفاع به منظور همگام شدن با تهدیدات موجود و جدید
 
4) هماهنگ کردن کنترل‌های سطح پلتفرم برای اطمینان از امنیت پایدار در سراسر سازمان، از Vertex AI و Security AI Workbench متعلق به گوگل و Perspective API، یک API منبع باز و رایگان که توسط تیم‌های فناوری Jigsaw و Counter Abuse Google ایجاد شده و از یادگیری ماشینی برای شناسایی استفاده می‌کند
 
5) تطبیق کنترل‌ها برای تنظیم کاهش‌ها و ایجاد حلقه‌های بازخورد سریع‌تر برای استقرار هوش مصنوعی، از جمله تکنیک‌هایی مانند یادگیری تقویتی بر اساس حوادث و بازخورد کاربر، به‌روزرسانی مجموعه داده‌های آموزشی، مدل‌های تنظیم دقیق برای پاسخ استراتژیک به حملات و تمرین تیم قرمز
 
6) زمینه‌سازی ریسک‌های سیستم هوش مصنوعی در فرآیندهای کسب‌وکار اطراف با انجام ارزیابی‌های ریسک سرتاسر مرتبط با نحوه استقرار هوش مصنوعی توسط سازمان‌ها
 
ونبلز و هانسن همچنین تصریح کردند که به زودی چندین ابزار منبع باز برای کمک به اجرای عناصر SAIF برای امنیت هوش مصنوعی منتشر خواهد شد.
 
آن‌ها همچنین متعهد شدند که برنامه‌های شکار اشکالات گوگل را برای پاداش و تشویق به تحقیقات پیرامون ایمنی و امنیت هوش مصنوعی گسترش دهند.
 
در نهایت، آن‌ها گفتند که گوگل متعهد به کمک به توسعه استانداردهای بین‌المللی در زمینه امنیت هوش مصنوعی، مانند چارچوب مدیریت ریسک هوش مصنوعی و چارچوب امنیت سایبری مؤسسه ملی استانداردها و فناوری ایالات متحده (NIST) و همچنین سیستم مدیریت هوش مصنوعی ISO/IEC 42001 و استانداردهای سیستم مدیریت امنیت ISO/IEC 27001 است.
 
منبع: Infosecurity
کد مطلب : 20948
https://aftana.ir/vdcc4oqi.2bqx08laa2.html
ارسال نظر
نام شما
آدرس ايميل شما
کد امنيتی