جمعه ۲ آذر ۱۴۰۳ , 22 Nov 2024
جالب است ۰
مدیرعامل شرکت Recorded Future معتقد است مجرمان سایبری که از لحاظ اخلاقی یا قانون محدود نشده‌اند، برای استفاده از هوش مصنوعی برای یافتن هک‌های ابتکاری جدید رقابت می‌کنند.
اختصاصی افتانا: مدیرعامل شرکت Recorded Future معتقد است مجرمان سایبری که از لحاظ اخلاقی یا قانون محدود نشده‌اند، برای استفاده از هوش مصنوعی برای یافتن هک‌های ابتکاری جدید رقابت می‌کنند.
 
به گزارش افتانا به نقل از زی‌دی‌نت، کریستوفر آلبرگ، مدیرعامل پلتفرم اطلاعات تهدید Recorded Future در مصاحبه‌ای اظهار داشت: هوش مصنوعی مولد در حال تغییر امنیت سایبری است و همزمان به دو گروه مهاجمان و مدافعان کمک می‌کند. مجرمان سایبری از هوش مصنوعی برای انجام حملات پیچیده و جدید در مقیاس بزرگ استفاده می‌کنند و مدافعان از همان فناوری برای محافظت از زیرساخت‌های حیاتی، سازمان‌های دولتی و شبکه‌های شرکتی استفاده می‌کنند.
 
هوش مصنوعی مولد به عوامل تهدید کمک کرده است تا استراتژی‌های حمله جدید را نوآوری کرده و توسعه دهند و این فناوری آن‌ها را قادر می‌سازد تا یک قدم جلوتر از دفاع امنیت سایبری باقی بمانند. هوش مصنوعی به مجرمان سایبری کمک می‌کند فرآیند حملات را خودکار انجام دهند، سطوح حمله را اسکن کنند و محتوایی تولید کنند که با مناطق جغرافیایی و جمعیتی مختلف مطابقت داده شود و به آن‌ها امکان می‌دهد طیف وسیع‌تری از قربانیان احتمالی را در کشورهای مختلف هدف قرار دهند. مجرمان سایبری این فناوری را برای ایجاد ایمیل‌های فیشینگ قانع‌کننده به کار گرفتند. متن تولید شده توسط هوش مصنوعی به مهاجمان کمک می‌کند تا ایمیل‌ها و پیام‌های متنی بسیار شخصی‌سازی شده‌ای را تولید کنند که احتمال فریب دادن اهداف را افزایش می‌دهد.
 
آلبرگ تأکید کرد: من فکر می‌کنم لازم نیست خیلی خلاقانه فکر کنید تا متوجه شوید که هوش مصنوعی واقعاً می‌تواند به [جنایتکاران سایبری] کمک کند تا حملات سایبری انجام دهند.
 
مدافعان از هوش مصنوعی برای دفع حملات استفاده می‌کنند. سازمان‌ها از این فناوری برای جلوگیری از نشت و یافتن آسیب‌پذیری‌های شبکه به طور فعال استفاده می‌کنند. این فناوری همچنین به صورت پویا وظایفی مانند تنظیم هشدار برای کلمات کلیدی خاص و شناسایی اطلاعات حساس آنلاین را به صورت خودکار انجام می‌دهد. شکارچیان تهدید از هوش مصنوعی برای شناسایی الگوهای غیرمعمول و خلاصه کردن مقادیر زیادی از داده‌ها استفاده می‌کنند و نقاط را بین منابع متعدد اطلاعات و الگوهای پنهان به هم متصل می‌کنند.
 
این کار همچنان به متخصصان انسانی نیاز دارد، اما آلبرگ می‌گوید فناوری هوش مصنوعی مولد که در پروژه‌هایی مانند ChatGPT می‌بینیم می‌تواند خیلی زیاد به انسان کمک کند.
 
او گفت: ما می‌خواهیم چرخه تحلیل را تسریع کنیم تا به ما کمک کند با سرعت تجزیه و تحلیل کنیم. انجام این کار بسیار سخت است و من فکر می‌کنم که ما شاهد پیشرفتی در اینجا هستیم که بسیار هیجان‌انگیز است.
 
آلبرگ همچنین تهدیدات بالقوه‌ای را که ماشین‌های بسیار هوشمند ممکن است به همراه داشته باشند، مورد بحث قرار داد. از آنجایی که جهان به طور فزاینده‌ای دیجیتالی و به هم مرتبط می‌شود، توانایی دور زدن واقعیت و شکل دادن به ادراکات می‌تواند توسط عوامل تهدید مورد سوءاستفاده قرار گیرد. این تهدیدها به دولت‌ها و ملت‌ها محدود نمی‌شود و چشم‌انداز را حتی پیچیده‌تر و نامتقارن‌تر می‌کند.
 
هوش مصنوعی این پتانسیل را دارد که به محافظت در برابر این تهدیدات نوظهور کمک کند، اما مجموعه‌ای از خطرات خود را نیز به همراه دارد. برای مثال، ماشین‌هایی با قابلیت‌های پردازشی بالا می‌توانند سیستم‌ها را سریع‌تر و موثرتر از انسان‌ها هک کنند. برای مقابله با این تهدیدات، باید اطمینان حاصل کنیم که هوش مصنوعی به صورت تدافعی و با درک روشنی از اینکه چه کسی در کنترل است استفاده می‌شود.
 
همانطور که هوش مصنوعی در جامعه ادغام می‌شود، برای قانون‌گذاران، قضات و سایر تصمیم‌گیرندگان مهم است که این فناوری و پیامدهای آن را درک کنند. ایجاد اتحادهای قوی بین کارشناسان فنی و سیاست‌گذاران در جهت‌یابی آینده هوش مصنوعی در شکار تهدید و فراتر از آن بسیار مهم خواهد بود.
 
فرصت‌ها، چالش‌ها و ملاحظات اخلاقی هوش مصنوعی در امنیت سایبری پیچیده و در حال تحول هستند. اطمینان از مدل‌های هوش مصنوعیِ بی‌طرفانه و حفظ مشارکت انسانی در تصمیم‌گیری به مدیریت چالش‌های اخلاقی کمک می‌کند. هوشیاری، همکاری و درک واضح از این فناوری در مقابله با تهدیدات بلندمدت بالقوه ماشین‌های بسیار هوشمند، بسیار مهم خواهد بود.
 
گفتنی است، Recorded Future بزرگ‌ترین شرکت اطلاعاتی جهان با پوشش کامل تهدیدهای سایبری، زیرساخت‌ها و اهداف امنیت سایبری است.
 
منبع: ZDNET
کد مطلب : 20768
https://aftana.ir/vdcc4mqi.2bqxe8laa2.html
ارسال نظر
نام شما
آدرس ايميل شما
کد امنيتی