دیجیاتو: مطالعه روی یک سیستم کدنویسی هوش مصنوعی به نام Codex نشان داد که خطر نوشتن کدهای ناامن و نادرست با هوش مصنوعی افزایش مییابد.
به گزارش افتانا، در یک مطالعه جدید نشان داده شده است مهندسان نرمافزاری که از سیستمهای
هوش مصنوعی تولیدکننده کد استفاده میکنند، به احتمال زیاد در برنامههایی که توسعه میدهند،
آسیبپذیریهای امنیتی ایجاد میکنند. این مقاله که توسط تیمی از محققان وابسته به دانشگاه استنفورد تهیه شده است، مشکلات احتمالی کدنویسی هوش مصنوعی را نشان میدهد، درحالیکه فروشندگانی مانند
GitHub بهطور جدی شروع به بازاریابی آنها کردهاند.
نیل پری، کاندیدای دکترا در استنفورد و یکی از نویسندگان اصلی این مطالعه، به وبسایت TechCrunch گفت: کدنویسی هوش مصنوعی درحالحاضر جایگزین مناسبی برای توسعهدهندگان انسانی نیست. توسعهدهندگانی که از آنها برای تکمیل کارهای خارج از حوزه تخصصی خودشان استفاده میکنند، باید نگران باشند و کسانی که از آنها برای سرعت بخشیدن به کارهایی استفاده میکنند که قبلاً در آنها مهارت کسب کردهاند، باید با دقت خروجیها و زمینه استفاده از آنها را در یک پروژه کلی بررسی کنند.
در این مطالعه، محققان بهطور خاص روی Codex، سیستم تولید کد هوش مصنوعی که توسط OpenAI توسعه یافته است، متمرکز شدند. محققان ۴۷ توسعهدهنده را استخدام کردند تا از Codex برای تکمیل مشکلات مربوط به امنیت در زبانهای برنامهنویسی از جمله پایتون، جاوا اسکریپت و C استفاده کنند.
Codex با کمک میلیاردها خط کد عمومی آموزش داده شده است تا بتواند با توجه به زمینه کد موجود، کدها و توابع اضافی دیگری را پیشنهاد کند.
به گفته محققان، احتمال بیشتری وجود داشت تا شرکتکنندگانی که به Codex دسترسی داشتند، در مقایسه با گروه کنترل، برای مشکلات برنامهنویسی خود راهحلهای نادرست و ناامنی (از نظر امنیت سایبری) بنویسند. حتی این احتمال وجود دارد که تصور کنند پاسخهای ناامنشان در مقایسه با افراد گروه کنترل، امن است.
بنابراین چگونه ممکن است فروشندگانی مانند GitHub از معرفی نقصهای امنیتی توسط توسعهدهندگانی که از کدنویسی هوش مصنوعی استفاده میکنند، جلوگیری کنند؟ نویسندگان این مطالعه به چند ایده اشاره کردهاند که یکی از آنها شامل استفاده از مکانیزمی برای «تصفیه» درخواستهای کاربران برای ایمنترشدن کدهای آنها میشود.