تشابه ساختار تفکر هوش مصنوعی و انسان ثابت شد
پژوهشی مشترک میان دانشگاههای هاروارد، براون و توبینگن، شباهت الگوی تفکر هوش مصنوعی و انسان را اثبات کرده است.

به گزارش خبرنگار مهر؛ در سالهای اخیر، پیشرفت شگرف مدلهای زبانی و بینایی هوش مصنوعی مبتنی بر معماری ترنسفورمر (Transformer) مرزهای درک ما از ظرفیتهای این فناوری نوظهور را جابهجا کرده است.
معماری ترنسفورمر که مبنای مدلهای پیشرفتهای از جمه «GPT» و «Vision Transformer» است، توانسته درک ماشینی از زبان و تصویر را تا حدی ارتقا دهد که خروجیهای تولیدشده به شکل چشمگیری به پاسخهای انسانی شباهت پیدا کنند.
این در حالی است که پژوهشی مشترک میان دانشگاههای هاروارد، براون و توبینگن پا را فراتر نهاده و این پرسش بنیادین را مطرح کرده است که آیا شباهت میان انسان و هوش مصنوعی صرفاً در سطح پاسخ نهایی است یا در لایههای زیرین پردازش نیز مشابهتهایی میان پردازش مغز و ماشین وجود دارد.
یافتههای این تحقیق نشان میدهد که فرایندهای درونی این مدلها بهویژه نحوه تحول احتمالات و اطمینان در طول لایههای شبکه عصبی و پردازش اطلاعات، بهنحو شگفتانگیزی با مراحل پردازش شناختی در مغز انسان قرابت دارند.
به عقیده بسیاری از متخصصان، این همارزی ساختاری میتواند پیامدهایی بنیادین برای حوزههای مدلسازی شناختی، تحلیل رفتاری، علوم اعصاب محاسباتی و طراحی سامانههای هوشمند تبیینپذیر داشته باشد؛ بهویژه در مسیر توسعه مدلهایی که نه تنها خروجیهای دقیق بلکه فرایندهای فکری قابلدرک و همساز با ادراک انسانی ارائه میدهند.
خبرنگار مهر در این نوشته کوتاه به مرور برخی از ابعاد پژوهش صورت گرفته و یافتههای آن درباره الگوی تفکر هوش مصنوعی و مغز انسان میپردازد.
الگوی مشابه فرایند تفکر در انسان و ماشین
پژوهش یادشده با هدف بررسی تشابهات پردازشی میان مدلهای هوش مصنوعی ترنسفورمر و نظامهای ادراکی انسان، تمرکز خود را از تحلیل صرفِ خروجی مدل به بررسی «پویاییهای لایه زمان» (layer-time dynamics) در جریان گذار معطوف کرده است.
بر همین اساس، در فرآیند «forward pass»، داده ورودی به صورت مرحلهای از هر لایه شبکه عبور میکند تا به خروجی نهایی برسد.
پژوهشگران برای نخستین بار این سیر پردازشی درونی را با روندهای شناختی انسان در حل مسئله مقایسه کردهاند.
آنان در این پژوهش مشترک تلاش کردند با بهرهگیری از دادههای رفتاری انسانی نظیر دقت پاسخ، زمان واکنش، مسیر ماوس و رفتارهای معطوف بر تایپ محتوا، به درک بهتری از همپوشانی شناختی انسان و مدلهای یادشده دست یابند.
در این چارچوب، چهار مؤلفه کلیدی برای سنجش پویاییهای درونی مدلها تعریف شد که هر یک بازتابی از نحوه «فکر کردن» مدل در گذر زمان هستند:
۱.
میزان عدم قطعیت یا ابهام (entropy)
2.
میزان اطمینان به پاسخ صحیح (log probability) یا (reciprocal rank)
3.
اطمینان نسبی بین پاسخ صحیح و یک پاسخ نادرست ولی شهودی
۴.
شاخص توانمندسازی پاسخ درست در برابر پاسخ شهودی اشتباه
این سنجهها در سه مقیاس زمانی ارزیابی شدند که جزیات آن به شرح زیر است:
۱.
مقدار نهایی در خروجی مدل
۲.
مساحت زیر منحنی روند تغییرات در تمام لایهها (AUC)
3.
نقطه اوج تغییرات بین لایهها (Max-delta) یا لحظه «تصمیمگیری» نهایی مدل برای ارائه پاسخ
این پژوهش پنج مطالعه تجربی را در حوزههای زبانی، منطقی و بینایی شامل میشد.
در مطالعه نخست، شرکتکنندگان نام پایتخت ایالتهایی نظیر ایلینوی را به یاد میآوردند؛ جایی که پاسخ شهودی، یعنی شیکاگو با پاسخ واقعی، یعنی شهر اسپرینگفیلد تفاوت دارد.
مدلهای ترنسفورمر در فرایند حل این مسئله، روندی مشابه انسان را نشان دادند.
آنها در لایههای میانی پردازش خود بیشتر با پاسخ شهودی همسو بودند و تنها در مراحل نهایی پاسخ صحیح تقویت میشد.
این الگو نهتنها در خروجی نهایی، بلکه در مسیر تحول احتمال پاسخها نیز بازتاب یافت و بهخوبی با الگوی تردید و اطمینان در ذهن انسان مطابقت داشت.
در مطالعه دوم، وظیفه شناسایی صحیح بین دو گزینه متناقض برای هوش مصنوعی مطرح شد.
در این حالت، سنجههای اطمینان نسبی (مثل اختلاف لگاریتم احتمال) بیشترین قدرت پیشبینی رفتار انسان را بهویژه در پیشبینی دقت پاسخ و زمان واکنش نشان دادند.
پژوهشگران در مطالعه سوم، دستهبندی مفهومی بر اساس نمونهها و مسیر حرکت ماوس مانند طبقهبندی نهنگ بهعنوان پستاندار را مورد ارزیابی دقیق قرار دادند.
در این مرحله نیز سنجههای پردازشی مدل توانستند ویژگیهای حرکتی ماوس انسان را پیشبینی کنند و شتاب یا مسیر آن با میزان اطمینان مدل ارتباط مستقیم داشت.
مدلهای هوش صمنوعی در مطالعه چهارم، آزمونهای استدلال قیاسی دریافت کردند.
این آزمونها چالشی برای منطق انسان محسوب میشوند زیرا پاسخها اغلب تحت تأثیر باورهای پیشینی افراد قرار میگیرند.
مدلهای مورد بررسی نیز در چنین مواردی سوگیریهایی مشابه بروز دادند و سنجههای «اطمینان میانگین در طول لایهها» در این بخش با دقت و زمان واکنش انسانی همبستگی بالایی داشت.
در نهایت، در پنجمین مطالعه، مدل «Vision Transformer» در حوزه بینایی مورد بررسی قرار گرفت.
نتیجه آن که حتی در وظایف سختتری مانند تشخیص تصویر از مجموعههای خارج از توزیع (OOD)، مشخص شد که رفتار پردازشی مدل با انسان مشابه است.
بر اساس اعلام پژوهشگران حاضر در این پروژه علمی، متریک عدمقطعیت (entropy) به صورت ویژه در طول لایهها توانست بهخوبی دقت و زمان واکنش انسان را در این موقعیتها پیشبینی کند.
این مجموعه از مطالعات، نشان داد که مدلهای بزرگ نه تنها خروجیهای مشابه با انسان دارند، بلکه فرآیند رسیدن به آن خروجیها نیز از نظر سازوکارهای زمانی و پردازشی، به نحوی با مراحل ادراک انسانی همراستا و شبیه است.
از همین روی، نتایج این پژوهش پرسشهای تازهای در باب کارکردهای شناختی مدلهای زبانی و ظرفیت آنها برای تحلیل، شبیهسازی و حتی آموزش فرایندهای ذهنی انسان مطرح میسازد.
جمعبندی
یافتههای این پژوهش، نشانهای قدرتمند از همگرایی فرآیندهای شناختی در انسان و ماشین است.
برخلاف دیدگاهی که مدلهای هوش مصنوعی را صرفاً بهمثابه جعبههای سیاه در نظر میگیرد و آنها را ابزاری میداند که صرفاً ورودی را به خروجی نگاشت میکنند بدون آنکه بتوان از درون آنها چیزی درباره سازوکارهای شناختی آموخت، نتایج این تحقیق حاکی از آن است که برخی مکانیسمهای پردازشی درونی مدلهای ترنسفورمر، همراستا با مراحل تصمیمسازی و حل مسئله در مغز انسان عمل میکنند.
بهویژه روند تغییر اعتماد و عدمقطعیت در لایههای مختلف مدل، بسیار شبیه به نوسانات ذهنی انسان در مواجهه با انتخابهای متناقض، درگیری با تردید و تثبیت نهایی تصمیم است.
به عقیده کارشناسان، این همپوشانی نهتنها افقهای جدیدی را برای توسعه سامانههای هوشمند شفاف، تبیینپذیر و قابلدرک از منظر انسانی گشوده است، بلکه میتواند در آینده به ابزاری بدل شود که برای مدلسازی شناخت، آزمون فرضیههای روانشناختی و طراحی مداخلات آموزشی مبتنی بر الگوهای ذهنی انسان مورد استفاده قرار گیرند.
به عبارت دیگر، این نتایج میتوانند پلی میان علوم شناختی تجربی و علوم رایانشی برقرار سازند.
با وجود این، باید با احتیاط علمی به این یافتهها نگریست.
نخست آن که دامنه تعمیمپذیری این الگوهای همگرایی هنوز محدود به مدلهای خاص و وظایف مشخصی است که در این پژوهش مورد بررسی قرار گرفتهاند.
هنوز مشخص نیست که آیا این شباهت در سایر معماریها، حوزههای موضوعی یا وظایف چندوجهی نیز مشاهده خواهد شد یا خیر.
نکته دوم نیز تمایز میان بازنماییهای آماری جمعی و تقلید از فرآیندهای شناختی فردی یک پرسش کلیدی و بنیادین باقی مانده است.
آیا این مدلها واقعاً مانند انسان «فکر میکنند»، یا صرفاً الگویی میانگین از رفتار هزاران انسان را بازتولید میکنند؟
پاسخ به این پرسش بنیادین، نهتنها برای تفسیر شناختی نتایج بلکه برای تعیین قابلیت اعتماد به مدل در تصمیمسازیهای حساس نیز اهمیت اساسی دارد.
با این همه، این مطالعه را میتوان گامی رو به جلو در رمزگشایی از سازوکارهای درونی مدلهای بزرگ زبانی و بینایی دانست؛ اقدامی که تلاشی نوین برای اتصال حوزه یادگیری ماشین به فهم عمیقتری از ماهیت تفکر، ادراک و داوری انسانی در لحظه محسوب میشود.