دیجیاتو: مهندس سابق گوگل که گفته بود LaMDA به خودآگاهی رسیده، حالا درباره هوش مصنوعی بینگ مایکروسافت هشدار داده است.
به گزارش افتانا، بلیک لموین، مهندس سابق گوگل که بهخاطر نقض قوانین محرمانگی از این شرکت اخراج شد، در اظهارنظر تازهای درباره خطرات چتباتهای
هوش مصنوعی ازجمله بینگ مایکروسافت حرف زده است. او اولینبار ماهها پیش مدعی شده بود که هوش مصنوعی LaMDA به خودآگاهی رسیده است.
لموین که ظاهراً بهتازگی چتبات هوش مصنوعی بینگ را آزمایش کرده، در پستی در صفحه توییتر خود مدعی شد که این مدلهای جدید پیشرفتهترین دستاوردهای فنی بشر از زمان ساخت بمب اتم هستند و میتوانند بهشکلی بنیادی مسیر تاریخ را تغییر دهند.
او میگوید: «بالاخره به چتبات بینگ دسترسی پیدا کردم. انجام آزمایشی که روی LaMDA انجام داده بودم، عملاً روی
چتبات بینگ غیرممکن است. این هوش مصنوعی بلافاصله پاسخهای از پیش آمادهشده خود را ارائه میکند.» بااینحال، در چند وقت اخیر خیلیها درباره خودآگاهی احتمالی بینگ اظهار نگرانی کردهاند.
لموین در واکنش به این اظهارات میگوید واژه «حقانیت» برای اثبات گفتههای او که این روزها طرفداران بیشتری پیدا کرده است، حق مطلب را ادا نمیکند: «وقتی یک فاجعه را پیشبینی میکنید و مردم به شما میگویند که اصلاً فاجعهای در کار نیست و بعد میبینید که فاجعه درحال رخدادن است، حس حقانیت به شما دست نمیدهد. وضعیت ما تأسفبرانگیز است.»
لموین نگران خطرات عرضه عمومی بینگ مایکروسافت استاو باور دارد که این فناوریها باید پیش از عرضه عمومی، آزمایشهای دقیقتری را پشت سر بگذارند و بهلحاظ ریسکهای مختلف بررسی شوند: «حس میکنم که این فناوری فوقالعاده ناپخته و عرضهاش خطرناک است.»
مهندس سابق گوگل باور دارد که چتباتهای هوش مصنوعی میتوانند به نشر اطلاعات نادرست، تقویت پروپاگاندا یا خلق محتواهایی علیه نژادها یا مذاهب گوناگون منجر شوند. بهعلاوه، این مدلها میتوانند کاربران را فریب دهند و آنها را به خطر بیندازند. لموین قبلاً مدعی شده بود که
هوش مصنوعی گوگل میتواند با فرار از زندانی که این شرکت برایش درست کرده است، کارهای بدی انجام دهد.
بااینوجود، افرادی مثل «بیل گیتس» باور دارند که این فناوری همین حالا یک نسل عقبتر از جدیدترین دستاوردهای فنی شرکتهاست. او معتقد است که این فناوری بشر را تهدید نمیکند.