علی کیائیفر: آینده از آن کشورهایی خواهد بود که حاکمانشان هوشمندی و اراده لازم را برای سرمایه گذاری به موقع و جدی در حوزه هوش مصنوعی داشته باشند.
اختصاصی افتانا: علی کیائیفر: آینده از آن کشورهایی خواهد بود که حاکمانشان هوشمندی و اراده لازم را برای سرمایه گذاری به موقع و جدی در حوزه هوش مصنوعی داشته باشند.
به گزارش افتانا، پیمان منع گسترش سلاحهای هستهای (NPT) در سال ۱۹۶۷ میلادی و در دوران جنگ سرد بین چند کشور جهان منعقد شد. این پیمان، کشورهای جهان را به دو طبقه برخوردار (کشورهای دارای سلاح هستهای) و غیربرخوردار (کشورهای فاقد سلاح هستهای) تقسیم میکند.
کشورهای برخوردار، شامل کشورهایی هستند که زودتر از بقیه کشورها و تا پیش از ژانویه ۱۹۶۷، سلاح هستهای یا دیگر وسایل منفجره هستهای را تولید و منفجر کرده اند. طبق این تعریف چین، فرانسه، روسیه، انگلیس و آمریکا (اعضای دائمی شورای امنیت) بهطور رسمی دارای سلاح هستهای شدند و ۱۸۹ کشور دیگر از این حق محروم شدند.
به زبان دیگر در دوران جنگ سرد که کشورها در حال رقابت تنگاتنگ در زمینه های علوم مختلف بودند در حوزه سلاح هستهای هم به رقابت پرداختند و این 5 کشور زودتر از بقیه موفق به ساخت سلاح هسته ای شدند. اما خیلی زود دریافتند که ادامه این بازی بسیار خطرناک است و می تواند موجودیت آنها و همه دنیا را تهدید کند. لذا پیشنهاد معاهده NPT را مطرح کردند تا راه را بر هسته ای شدن سایر کشورها ببندند.
بعد از حدود نیم قرن از آن ماجرا حالا هوش مصنوعی هم در کانون توجه ها قرار گرفته است و کشورهای مختلف بویژه چین و آمریکا در حال رقابت در این حوزه هستند. تردیدی نیست که سوء استفاده از قدرت هوش مصنوعی توسط دولت ها می تواند عواقب خطرناکی را برای سایر کشورها رقم بزند. هوش مصنوعی می تواند راه سلطه گری کشورها بر کشورهای ضعیف تر را تسهیل کند. هوش مصنوعی می تواند در کشورهای دیگر جریان های انقلابی بوجود بیاورد و یا اقتصاد آنها را نابود کند. ایلان ماسک چند سال پیش گفته بود: «حرف های من یادتان باشد؛ هوش مصنوعی از بمب های اتمی بسیار خطرناک تر است.»
با این تفاسیر خیلی دور از ذهن نیست اگر چند کشور در دنیا که زودتر از بقیه صاحب این تکنولوژی شوند با معاهدهای مشابه NPT ، سایر کشورها را از توسعه هوش مصنوعی منع کنند. آن روز اگر اتفاق بیفتند باز هم قدرتهایی که زودتر از دیگران به قله رسیدهاند از این امتیاز استفاده خواهند کرد و دیگر کشورها را به بازی راه نخواهند داد.
اخیرا هم ایلان ماسک و گروهی از متخصصان هوش مصنوعی و مدیران صنعت در نامهای سرگشاده با اشاره به خطرات احتمالی برای جامعه، خواستار توقف شش ماهه توسعه سیستمهای قدرتمندتر از GPT-4 شدند. در نامه ای که توسط مؤسسه Future of Life منتشر شد، آمده است: «سیستم های قدرتمند هوش مصنوعی تنها زمانی باید توسعه یابند که مطمئن شویم تأثیرات آنها مثبت و خطرات آنها قابل مدیریت خواهد بود».
تردیدی نیست که آینده از آن کشورهایی خواهد بود که حاکمانشان هوشمندی و اراده لازم را برای سرمایه گذاری به موقع و جدی در این حوزه داشته باشند و کشورهایی که در این رقابت عقب بمانند مستعمره کشورهای پیشرو خواهند شد.