پژوهشی جدید از دانشگاههای هاروارد، براون و توبینگن نشان میدهد که نحوه پردازش اطلاعات در مدلهای هوش مصنوعی شباهت قابلتوجهی به شیوه تفکر انسان دارد. این پژوهش که بر روی برخی مدلهای معروف هوش مصنوعی انجام شده، نشان میدهد که هوش مصنوعی نه فقط در نتایج نهایی، بلکه در فرآیند رسیدن به آن نتایج نیز شبیه انسانها عمل میکند.
پژوهشی جدید از دانشگاههای هاروارد، براون و توبینگن نشان میدهد که نحوه پردازش اطلاعات در مدلهای هوش مصنوعی شباهت قابلتوجهی به شیوه تفکر انسان دارد. این پژوهش که بر روی برخی مدلهای معروف هوش مصنوعی انجام شده، نشان میدهد که هوش مصنوعی نه فقط در نتایج نهایی، بلکه در فرآیند رسیدن به آن نتایج نیز شبیه انسانها عمل میکند.
به گزارش افتانا، مدلهای ترنسفورمر مانندGPT وVision Transformers (ViT) در تولید پاسخهای مشابه انسان بسیار خوب عمل میکنند. اما محققانی از دانشگاههای هاروارد، براون و توبینگن تصمیم گرفتند پا را فراتر بگذارند و بررسی کنند که آیا محاسبات درونی این مدلها شبیه نحوه پردازش زبان و تصویر در مغز انسان بهصورت لحظهای است یا خیر. در این مطالعه، به جای تمرکز صرف بر خروجی نهایی مدل، پژوهشگران بررسی کردند که چگونه پیشبینیهای داخلی مدل در طول یک عبور رو به جلو (forward pass) در شبکه عصبی تغییر میکند.
در یک عبور رو به جلو، دادهها لایه به لایه در مدل حرکت میکنند تا به خروجی برسند. محققان بررسی کردند که چگونه سیگنالهای درونی مدل (مانند میزان اطمینان به پاسخهای مختلف) در طول این فرآیند تغییر میکند و آیا این روند شبیه رفتارهای انسانی است یا خیر.
برای این مقایسه، آنها چندین «معیار پردازشی» (Process Metrics) از فعالیت لایه به لایه مدل استخراج کردند، مانند:
- عدم قطعیت (entropy)
- اعتماد به پاسخ درست
- تفاوت بین پاسخ درست و پاسخ شهودی اما اشتباه
- تقویت پاسخ درست در برابر پاسخ شهودی
این معیارها در سه حالت بررسی شدند: مقدار نهایی در آخرین لایه، میانگین در طول همه لایهها (AUC)، و نقطهای که بیشترین تغییر بین لایهها رخ میدهد(Max-delta) سپس از این دادهها برای پیشبینی رفتار انسانی استفاده شد.
آزمایشها در پنج زمینه مختلف
پژوهشگران عملکرد مدلهای هوش مصنوعی را در پنج نوع وظیفه مختلف بررسی کردند:
یادآوری اطلاعات عمومی (مثلاً نام پایتختها): مدلها هم مثل انسان ابتدا به پاسخهای شهودی اما اشتباه گرایش داشتند، اما در مراحل بعدی پاسخ صحیح را پیدا میکردند.
تشخیص بین گزینهها: مدلها مثل انسانها زمان بیشتری برای تصمیمگیریهای دشوار صرف میکردند.
طبقهبندی مفهومی با ماوس: مسیر حرکت ماوس انسانها شباهت زیادی به مسیر «تصمیمگیری» مدلها در طول لایههای پردازشی داشت.
استدلال منطقی: هم انسانها و هم مدلها گاهی بر اساس باورهایشان پاسخ میدادند، نه منطق.
تشخیص تصویر در شرایط جدید: مدلهای بینایی هم مشابه انسانها در مواجهه با تصاویر ناشناخته دچار تردید میشدند.
در هر پنج مطالعه، نتایج نشان داد که فقط خروجی درست مهم نیست، روش پردازش هم اهمیت دارد. معیارهای پردازشی برگرفته از دینامیک لایه-زمانی توانستند به شکل معنیداری پیشبینی بهتری از رفتار انسانی ارائه دهند؛ نه فقط از نظر دقت، بلکه در معیارهایی مثل بار شناختی، زمان واکنش و میزان تردید. این یعنی محرکهایی که برای مدل «سختتر» هستند و نیاز به پردازش لایهبهلایه بیشتری دارند، برای انسانها هم دشوارتر هستند و باعث واکنش کندتر یا خطاهای بیشتر میشوند.
افق جدیدی برای تبیینپذیری و شناخت انسان
این مطالعه نشان میدهد که مدلهای هوش مصنوعی فقط شبیه انسانها پاسخ نمیدهند، بلکه گاهی شبیه آنها فکر میکنند. اطلاعاتی که مدل در مسیر رسیدن به پاسخ نهایی تولید میکند، میتواند بازتابی از روندهای ذهنی انسان باشد؛ از تردید و اشتباه گرفته تا اصلاح و اطمینان.
این یافتهها میتوانند به فهم بهتر مغز انسان کمک کنند و در عین حال، باعث شوند هوش مصنوعی در آینده رفتاری انسانیتر، قابلپیشبینیتر و تبیینپذیرتر داشته باشد.
البته پژوهشگران تاکید دارند که این مطالعه فقط روی مدلهایی خاص و از پیش آموزشدیده مانند LLaMA-2 و ViT اجرا شده و قابل تعمیم به همه معماریها یا مدلهای تنظیمشده نیست؛ اما پایهای است برای پرسشها و مطالعات آینده.