جمعه ۲ آذر ۱۴۰۳ , 22 Nov 2024
جالب است ۰
مطالعه روی یک سیستم کدنویسی هوش مصنوعی به نام Codex نشان داد که خطر نوشتن کدهای ناامن و نادرست با هوش مصنوعی افزایش می‌یابد.
منبع : دیجیاتو
دیجیاتو: مطالعه روی یک سیستم کدنویسی هوش مصنوعی به نام Codex نشان داد که خطر نوشتن کدهای ناامن و نادرست با هوش مصنوعی افزایش می‌یابد.

به گزارش افتانا، در یک مطالعه جدید نشان داده شده است مهندسان نرم‌افزاری که از سیستم‌های هوش مصنوعی تولید‌کننده کد استفاده می‌کنند، به احتمال زیاد در برنامه‌هایی که توسعه می‌دهند، آسیب‌پذیری‌های امنیتی ایجاد می‌کنند. این مقاله که توسط تیمی از محققان وابسته به دانشگاه استنفورد تهیه شده است، مشکلات احتمالی کدنویسی هوش مصنوعی را نشان می‌دهد، در‌حالی‌که فروشندگانی مانند GitHub به‌طور جدی شروع به بازاریابی آن‌ها کرده‌اند.

نیل پری، کاندیدای دکترا در استنفورد و یکی از نویسندگان اصلی این مطالعه، به وب‌سایت TechCrunch گفت: کدنویسی هوش مصنوعی در‌حال‌حاضر جایگزین مناسبی برای توسعه‌دهندگان انسانی نیست. توسعه‌دهندگانی که از آن‌ها برای تکمیل کارهای خارج از حوزه تخصصی خودشان استفاده می‌کنند، باید نگران باشند و کسانی که از آن‌ها برای سرعت بخشیدن به کارهایی استفاده می‌کنند که قبلاً در آن‌ها مهارت کسب کرده‌اند، باید با دقت خروجی‌ها و زمینه استفاده از آن‌ها را در یک پروژه کلی بررسی کنند.

در این مطالعه، محققان به‌طور خاص روی Codex، سیستم تولید کد هوش مصنوعی که توسط OpenAI توسعه یافته است، متمرکز شدند. محققان ۴۷ توسعه‌دهنده را استخدام کردند تا از Codex برای تکمیل مشکلات مربوط به امنیت در زبان‌های برنامه‌نویسی از جمله پایتون، جاوا اسکریپت و C استفاده کنند.

Codex با کمک میلیاردها خط کد عمومی آموزش داده شده است تا بتواند با توجه به زمینه کد موجود، کدها و توابع اضافی دیگری را پیشنهاد کند.

به گفته محققان، احتمال بیشتری وجود داشت تا شرکت‌کنندگانی که به Codex دسترسی داشتند، در مقایسه با گروه کنترل، برای مشکلات برنامه‌نویسی خود راه‌حل‌های نادرست و ناامنی (از نظر امنیت سایبری) بنویسند. حتی این احتمال وجود دارد که تصور کنند پاسخ‌های ناامنشان در مقایسه با افراد گروه کنترل، امن است.

بنابراین چگونه ممکن است فروشندگانی مانند GitHub از معرفی نقص‌های امنیتی توسط توسعه‌دهندگانی که از کدنویسی هوش مصنوعی استفاده می‌کنند، جلوگیری کنند؟ نویسندگان این مطالعه به چند ایده اشاره کرده‌اند که یکی از آن‌ها شامل استفاده از مکانیزمی برای «تصفیه» درخواست‌های کاربران برای ایمن‌تر‌شدن کدهای آن‌ها می‌شود.
کد مطلب : 20180
https://aftana.ir/vdcaw6nu.49nwa15kk4.html
ارسال نظر
نام شما
آدرس ايميل شما
کد امنيتی