جمعه ۲ آذر ۱۴۰۳ , 22 Nov 2024
جالب است ۰
یک گروه امنیت سایبری تأیید کرده است که عاملان تهدید زیادی به ساخت بدافزار توسط هوش مصنوعی ChatGPT روی آورده‌اند.
یک گروه امنیت سایبری تأیید کرده است که عاملان تهدید زیادی به ساخت بدافزار توسط هوش مصنوعی ChatGPT روی آورده‌اند.
 
به گزارش افتانا به نقل از تک‌رادار، محبوب ترین چت‌بات جهان یعنی ChatGPT در حال استفاده شدن توسط عوامل تهدید برای ایجاد گونه‌های جدید بدافزار است.
 
شرکت امنیت سایبری WithSecure تأیید کرده است که نمونه‌هایی از بدافزارهای ایجاد شده توسط این هوش مصنوعی را در فضای مجازی پیدا کرده است. چیزی که ChatGPT را خیلی خطرناک می‌کند این است که این هوش مصنوعی می‌تواند بدافزارهای بی‌شماری را تولید کند که همین مسئله تشخیص آن‌ها را دشوار می‌کند.
 
عوامل تهدید سایبری به سادگی می‌توانند نمونه‌هایی از کدهای بدافزار موجود ChatGPT را ارائه کنند و به آن دستور دهند تا بر اساس آن‌ها، گونه‌های جدیدی ایجاد کند که امکان تداوم بدافزار را بدون نیاز به تقریبا همان سطح زمان، تلاش و تخصص قبلی فراهم می‌کند.
 
این خبر در حالی شنیده می‌شود که همچنان مذاکرات برای تعیین قوانین تنظیم‌کننده هوش مصنوعی به منظور جلوگیری از این فناوری در جهت اهداف مخرب ادامه دارد چراکه همزمان با رونمایی از چت‌بات هوش مصنوعی ChatGPT در نوامبر سال گذشته هیچگونه مقرراتی وجود نداشت.
 
پادمان‌های خاصی در داخل مدل وجود دارد که به منظور جلوگیری از اجرای دستورات شرورانه است، اما راه‌هایی وجود دارد که عوامل تهدید می‌توانند این موارد را دور بزنند.
 
جوهانی هینتیکا، مدیرعامل WithSecure عنوان کرده بود که هوش مصنوعی معمولا توسط مدافعان امنیت سایبری مورد استفاده قرار گرفته است تا بدافزارهای دستی تولید شده توسط عوامل تهدید را شناسایی کنند و جلوی آن‌ها را بگیرند.
 
این در حالی است که به نظر می‌رسد اکنون با در دسترس بودن رایگان ابزارهای قدرتمند هوش مصنوعی مانند ChatGPT، روندها در حال تغییر است. ابزارهای دسترسی از راه دور برای مقاصد غیرقانونی مورد استفاده قرار گرفته‌اند و اکنون نیز هوش مصنوعی همینطور است.
 
علاوه بر این، با افزایش موفقیت حملات باج‌افزاری با سرعت نگران‌کننده، به نظر می‌رسد عوامل تهدید روی استفاده از هوش مصنوعی سرمایه‌گذاری می‌کنند تا حملات موفق‌تری نسبت به قبل داشته باشند.
 
منبع: Techradar
کد مطلب : 20888
https://aftana.ir/vdcfccd0.w6dxcagiiw.html
ارسال نظر
نام شما
آدرس ايميل شما
کد امنيتی