جمعه ۲ آذر ۱۴۰۳ , 22 Nov 2024
جالب است ۰
هوش مصنوعی ChatGPT به مجرمان سایبری در تولید بدافزار و ایمیل‌های فیشینگ کمک کرده است.
منبع : دیجیاتو
دیجیاتو: هوش مصنوعی ChatGPT به مجرمان سایبری در تولید بدافزار و ایمیل‌های فیشینگ کمک کرده است.

به گزارش افتانا، کارشناسان امنیت سایبری می‌گویند شواهد استفاده از ChatGPT توسط مجرمان حالا به‌وضوح قابل مشاهده است. این افراد از این ابزار هوش مصنوعی برای طراحی حملات فیشینگ و بدافزارها استفاده می‌کنند. ولی همین مسئله می‌تواند شرکت‌های تولیدکننده هوش مصنوعی را در معرض خطر قرار دهد، چون آن‌ها احتمالاً مصونیت قضایی نخواهند داشت.

بر اساس گزارش اینسایدر، چت‌بات ChatGPT کارهای گوناگونی از نوشتن مقاله گرفته تا تحلیل محتوا را انجام می‌دهد و می‌تواند سرعت عمل افراد را بالا ببرد. اما این مسئله درخصوص مجرمان سایبری هم صدق می‌کند. «سرگی شایکِویچ»، محقق شرکت امنیت سایبری Checkpoint، می‌گوید شواهد استفاده از هوش مصنوعی برای تولید کد در حملات باج‌افزاری مشهود است.

شایکویچ و تیمش در انتهای سال ۲۰۲۱ شروع به مطالعه درباره پتانسیل‌های هوش مصنوعی در کمک به جرایم سایبری کردند و دریافتند که مجرمان با کمک این ابزارها می‌توانند ایمیل فیشینگ و کدهای مخرب تولید کنند. شایکویچ می‌گوید تیم او می‌خواست ببیند مجرمان واقعاً از هوش مصنوعی در حملات دنیای واقعی استفاده می‌کنند یا صرفاً به‌شکل تئوری آن‌ها را امتحان کرده‌اند.

ChatGPT واقعاً به مجرمان سایبری کمک می‌کند
از آن‌جایی که به‌راحتی نمی‌توان فهمید یک ایمیل فیشینگ با ChatGPT نوشته شده است یا خیر، محققان برای بررسی‌های بیشتر به دارک وب مراجعه کردند. آن‌ها در تاریخ ۲۱ دسامبر ۲۰۲۲ متوجه شدند که مجرمان از این چت‌بات برای ساخت یک اسکریپت پایتون استفاده کرده‌اند که در حملات سایبری استفاده می‌شود. شایکویچ می‌گوید کد این اسکریپت اشتباهاتی هم داشت، اما بخش عمده آن درست بود.

حالا سوء استفاده از ChatGPT کارشناسان امنیت را نگران کرده است، چون این ابزارها می‌توانند به مجرمانی که دانش فنی کمی دارند، کمک کنند تا حملات خود را پیاده‌سازی نمایند. پیش‌تر شرکت Blackberry مدعی شده بود که طبق نظرسنجی آن‌ها، ۷۴ درصد از متخصصان امنیت نگران استفاده از این مدل هوش مصنوعی در جرایم سایبری هستند.

اما از سوی دیگر، کمک ابزارهای هوش مصنوعی به مجرمان سایبری می‌تواند برای شرکت‌های تولیدکننده آن‌ها مشکل‌ساز باشد. اکثر شرکت‌های فناوری تحت حمایت ماده ۲۳۰ قانون شایستگی ارتباطات از مسئولیت‌پذیری در قبال نشر محتوا در پلتفرم‌های خود مصون هستند. اما درباره چت‌بات‌ها، چون این پیشنهادها از جانب خود هوش مصنوعی ارائه می‌شود، شرکت‌هایی مثل OpenAI احتمالاً مسئول کمک به مجرمان خواهند بود.
کد مطلب : 20466
https://aftana.ir/vdch-kni.23nv-dftt2.html
ارسال نظر
نام شما
آدرس ايميل شما
کد امنيتی