جمعه ۲ آذر ۱۴۰۳ , 22 Nov 2024
جالب است ۰
شرکت پشتیبان ChatGPT اقداماتی را برای رفع نگرانی‌های مربوط به حریم خصوصی داده‌ها پیشنهاد خواهد کرد که باعث ممنوعیت موقت چت‌بات هوش مصنوعی در ایتالیا شد.
اختصاصی افتانا: شرکت پشتیبان ChatGPT اقداماتی را برای رفع نگرانی‌های مربوط به حریم خصوصی داده‌ها پیشنهاد خواهد کرد که باعث ممنوعیت موقت چت‌بات هوش مصنوعی در ایتالیا شد.

به گزارش افتانا به نقل از سکیوریتی ویک، مقام حفاظت از داده‌های ایتالیا، معروف به Garante، هفته گذشته چت‌بات محبوب OpenAI مستقر در سانفرانسیسکو را مسدود کرد و به آن دستور داد تا به طور موقت پردازش اطلاعات شخصی کاربران ایتالیایی را در حالی که در حال بررسی نقض احتمالی قوانین حفظ حریم خصوصی داده‌های اتحادیه اروپا است، متوقف کند.

کارشناسان گفتند که این اولین مورد از این قبیل است که یک دموکراسی ممنوعیت سراسری را بر یک پلتفرم اصلی هوش مصنوعی اعمال می‌کند.

در یک تماس ویدیویی اواخر روز چهارشنبه بین کمیسیون‌های سازمان دیده‌بان و مدیران OpenAI از جمله مدیرعامل شرکت سام آلتمن، این شرکت قول داد اقداماتی را برای رفع نگرانی‌ها انجام دهد. این راه حل‌ها به تفصیل بیان نشده است.

ناظر ایتالیایی اعلام کرد که نمی‌خواهد مانع توسعه هوش مصنوعی شود، اما به OpenAI بر اهمیت پیروی از قوانین سختگیرانه حریم خصوصی اتحادیه اروپا تأکید کرد.

رگولاتورها این ممنوعیت را پس از افشای پیام‌ها و اطلاعات پرداخت برخی از کاربران در اختیار دیگران قرار دادند. آن‌ها همچنین این سوال را مطرح کردند که آیا مبنای قانونی برای OpenAI برای جمع آوری مقادیر انبوهی از داده‌های مورد استفاده برای آموزش الگوریتم‌های ChatGPT وجود دارد یا خیر و این نگرانی را مطرح کردند که سیستم گاهی اوقات اطلاعات نادرستی در مورد افراد ایجاد کند.

به‌اصطلاح فناوری هوش مصنوعی مولد مانند ChatGPT روی مجموعه‌ای از داده‌ها، از جمله کتاب‌های دیجیتال و نوشته‌های آنلاین، آموزش داده شده و قادر به تولید متنی است که سبک‌های نوشتاری انسان را تقلید می‌کند.

این سیستم‌ها سر و صدایی در دنیای فناوری و فراتر از آن ایجاد کرده‌اند، اما همچنین باعث ایجاد ترس در بین مقامات، قانون‌گذاران و حتی دانشمندان کامپیوتر و رهبران صنعت فناوری درباره خطرات اخلاقی و اجتماعی احتمالی شده‌اند.

پس از اقدام ایتالیا، سایر تنظیم‌کننده‌ها در اروپا و جاهای دیگر توجه بیشتری را به خود جلب کرده‌اند.

کمیسیون حفاظت از داده‌های ایرلند گفت: در حال پیگیری با رگولاتور ایتالیایی برای درک مبنای اقدام آن‌ها است و ما با تمام مقامات حفاظت از داده اتحادیه اروپا در رابطه با این موضوع هماهنگ خواهیم کرد.

رگولاتور حریم خصوصی داده‌های فرانسه، CNIL پس از دریافت دو شکایت درباره ChatGPT گفت که در حال بررسی است. کمیسر حریم خصوصی کانادا نیز پس از دریافت شکایتی درباره مشکوک شدن به جمع‌آوری، استفاده و افشای اطلاعات شخصی بدون رضایت، تحقیقاتی را در مورد OpenAI آغاز کرده است.

در یک پست وبلاگی در این هفته، دفتر کمیسری اطلاعات بریتانیا هشدار داد که سازمان‌هایی که در حال توسعه یا استفاده از هوش مصنوعی مولد هستند باید از همان ابتدا تعهدات حفاظت از داده‌های خود را در نظر بگیرند و سیستم‌هایی را با حفاظت از داده‌ها به عنوان پیش‌فرض طراحی کنند.

این دفتر گفت: این مسئله اختیاری نیست - اگر داده‌های شخصی را پردازش می‌کنید، این قانون است.

در پاسخی آشکار به نگرانی‌ها، OpenAI یک پست وبلاگی را روز چهارشنبه منتشر کرد که در آن رویکرد خود به ایمنی هوش مصنوعی را تشریح کرد. این شرکت اعلام کرد که در صورت امکان، اطلاعات شخصی را از داده‌های آموزشی حذف می‌کند، مدل‌های خود را برای رد درخواست‌های اطلاعات شخصی افراد خصوصی تنظیم می‌کند و بر اساس درخواست‌های حذف اطلاعات شخصی از سیستم‌های خود عمل می‌کند.

منبع: Security Week
کد مطلب : 20627
https://aftana.ir/vdcgu39x.ak9zx4prra.html
ارسال نظر
نام شما
آدرس ايميل شما
کد امنيتی