متا در تغییر سیاستی که انتقادات زیادی را به همراه آورده است، اعلام کرد که آژانسهای دولتی آمریکا و پیمانکاران بخش امنیت ملی این کشور میتوانند از مدلهای هوش مصنوعی متنباز Llama برای اهداف نظامی استفاده کنند.
متا در تغییر سیاستی که انتقادات زیادی را به همراه آورده است، اعلام کرد که آژانسهای دولتی آمریکا و پیمانکاران بخش امنیت ملی این کشور میتوانند از مدلهای هوش مصنوعی متنباز Llama برای اهداف نظامی استفاده کنند.
به گزارش افتانا، متا اعلام کرد مدلهای هوش مصنوعی خود به نام Llama را در اختیار آژانسهای فدرال آمریکا میگذارد و با پیمانکاران دفاعی از جمله Lockheed Martin و Booz Allent و پیمانکاران متمرکز بر فناوری از جمله Palantir و Anduril همکاری میکند. مدلهای متنباز Llama، امکان دسترسی و توزیع آزاد توسط توسعهدهندگان، شرکتها و دولتها فراهم میکنند.
این تغییر رویکرد بزرگی نسبت به منع پیشین متا برای استفاده نظامی از فناوریهای این شرکت محسوب میشود. اقدام جدید متا یک استثنا نسبت به «سیاست کاربرد قابل قبول» این شرکت محسوب میشود که استفاده از نرمافزار هوش مصنوعی متا را برای «صنایع هستهای و نظامی» ممنوع میکند.
نیک کلگ، رئیس امور بینالملل متا، در یک پست وبلاگی نوشت: متا میخواهد نقش خود را در حمایت از امنیت، ایمنی و رونق آمریکا- و نزدیکترین متحدانش-ایفا کند. استفاده گسترده از مدلهای هوش مصنوعی آمریکایی برای منافع اقتصادی و امنیتی مفید است.
کلگ در پست خود با اشاره به اینکه دولت آمریکا میتواند از این فناوری برای ردیابی فعالیتهای تروریستی و بهبود امنیت سایبری موسسات آمریکایی استفاده کند، گفت: هدف ما باید این باشد که به ایالات متحده در حفظ برتری فناورانه و همچنین گسترش بینالمللی هوش مصنوعی و تضمین مسئولیتپذیری و اخلاقی بودن نوآوریها و حمایت از منافع استراتژیک و ژئوپلیتیک ایالات متحده و متحدان نزدیک آن کمک کند.
او چندین بار هم تکرار کرد که مدلهای هوش مصنوعی متا به پیشتازی ایالات متحده از دیگر دولتها کمک میکند.
به گفته سخنگوی متا، این شرکت، فناوری خود را با اعضای اتحادیه اطلاعاتی پنچ چشم (کانادا، بریتانیا، استرالیا، نیوزیلند و آمریکا) به اشتراک میگذارد.
اکنون متا بابت اقدام جدید خود با انتقاداتی روبرو است. فناوریها و اپلیکیشنهای نظامی سیلیکونولی در سالهای اخیر بحثبرانگیز شدهاند و کارکنان شرکتهایی مثل مایکروسافت، گوگل و آمازون به شدت علیه قرارداد نظامی با آژانسهای دفاعی و ارتش اعتراض کردهاند. متا همچنین به دلیل رویکرد متن باز خود نیز مورد انتقاد قرار گرفتهاست. گوگل و اوپنایآی میگویند هسته اصلی هوش مصنوعی و فناوری آنها به حدی پتانسیل سوء استفاده دارد که عرضه آن، منطقی و امن نیست؛ اما متا میگوید هوش مصنوعی را فقط در صورتی میتوان به صورت امن توسعه داد که میلیونها نفر، کد آن را دیده و ارزیابی کنند.
به گفته برخی منابع آگاه، مدیران متا همچنین نگران قانونگذاری شدید دولت آمریکا و دیگر دولتها علیه هوش مصنوعی متن باز هستند. رویترز نیز اخیرا گزارشی درمورد استفاده موسسات تحقیقاتی مرتبط با دولت چین از Llama در ساخت اپلیکیشنهایی برای ارتش آزادیبخش خلق چین داشت که به آتش انتقادات علیه متا دامن زد. مدیران متا البته با انتقاد از این گزارش اعلام کردهاند که دولت چین اجازه استفاده از Llama برای اهداف نظامی را ندارد.