مقاله‌یِ اخیرِ دیوید چالمرز -فیلسوف استرالیایی- در بوستون ریویو پاسخِ نسبتا مختصر اما کاملی‌ست به این پرسش که آیا مدل‌های زبانیِ بزرگی مثل GPT  آگاه‌اند و یا سرآخر می‌توانند باشند؟

 

فارغ از موافقت یا مخالفت با نظرات و استدلالاتِ چالمرز، خوانندنش می‌تواند تصویر کمابیش یکدستی از بحثِ جاری در سطحی فنی و شکلی دقیق، اما با زبانی کاملا ساده و قابل‌فهم به دست دهد. این‌که شاخه‌های بحث کدام‌اند، صف‌بندیِ موافقین و مخالفین چگونه است و اختلافات کلیدی بر سر چیست. خواننده طرفدار هر کمپینی باشد، بخشی از استدلال و نگاهِ خویش را در جایی از مقاله خواهد یافت. الگوی خوبی‌ست از چگونه پرداختن به موضوعی فنی، داغ و پرمناقشه بدون افتادن در دامِ پیچیدگی و ابهامِ غلوشده یا ساده‌گیری و خام‌اندیشی به قصدِ زدنِ حرف‌های هیجان‌انگیز و مخاطب‌پسند.

 

بحث را با مفهوم آگاهی آغاز می‌کند و دو تِرمِ نسبتا رایج در این بحث را در کنار هم قرار می‌دهد: consciousness و sentience. اعتراف می‌کند این دو تِرم به جای هم به کار می‌روند و کمابیش معنای مشابهی دارند و هر دو هم اگرچه به سادگی قابل بحث و درک‌اند اما توضیح فنی و تعیین معیار برای‌شان فعلا دور از دست‌رس است. این را به عنوان کسی می‌گوید که دهه‌هاست در این‌باره نوشته و نظریه‌پردازی کرده. ترجیح می‌دهد در این بحث‌ها از همان consciousness استفاده کند چون به تعبیر خودش "دست‌کم اصطلاح مشخص‌تری‌ست".

 

پرسشِ اصلیِ مقاله را با ارجاع به بحثِ جنجالیِ سال گذشته بر سر LaMDA شرکت گوگل بررسی می‌کند: جایی که موافقان و مخالفان هر دو اصرار داشتند "شواهد"ی دال بر آگاه‌بودن یا آگاه‌نبودنِ آن مدلِ زبانی، نظر آن‌ها را تایید می‌کند. 

 

محور کلیدیِ مقاله‌ی چالمرز این است که چه‌چیز یا چیزهایی می‌تواند به عنوان مدرک (evidence) برای وجود یا فقدانِ آگاهی قلمداد شود؟ و از این‌جا مقاله‌اش به دو بخش تقسیم می‌شود: شواهدِ آگاه بودنِ مدل زبانی، جایی‌که استدلال این است که: مدل زبانیِ موردِ نظر دارای خاصیت x است، اگر پدیده‌ای ویژگی x را داشته باشد آن پدیده آگاه است، پس مدل زبانی مورد نظر آگاه است. در این بخش تمام کاندیداهای موجود برای قرارگیری به جای x را بررسی می‌کند.

 

پس از آن، نظرِ کمپین مخالف را به همین شیوه تحلیل می‌کند: آن‌هایی که مدعی‌اند این مدل‌ها فاقد x هستند و سیستمی که فاقد x باشد، آگاه نیست. و سپس بررسی تمام کاندیداهای موجود برای قرارگیری به جای x . 

باید در نظر گرفت، در این دو کمپین، چیزهایی که به جای x می‌نشینند کاملا با هم متفاوت‌اند. مثلا برخی از طرفدارانِ گروه اول توانایی گفتگو (Conversational Ability) یا هوش عمومی(General Intelligence) را معیارِ آگاهی می‌دانند درحالی‌که برخی از منتسبان به گروه دوم، بیولوژی یا مثلا فرآیند موسوم به پردازش مکرر (Recurrent Processing) را معیاری برای آگاهی می‌دانند. 

 

در نتیجه یک تفاوتِ ساختاری و تئوریک میان دو کمپین وجود دارد: آن‌چیزی را که اولی برای آگاهی کافی می‌داند با آن‌چه دومی فقدان‌اش را به معنای نبودِ آگاهی می‌گیرد یکی نیستند و چالمرز این نکته را با قرار دادن این دو شاخه در برابر هم به طور ضمنی نشان می‌دهد. در واقع، گره کور برخی مجادلات این است که طرفین، درباره‌ی پدیده‌ای مشابه، معیارهایی متفاوت به کار می‌برند. از نکات جالب دیگر بحث‌اش نشان دادن برخی خطاها در بحث‌های عمومی‌ست. مثلا تاکید بر این‌که هوش عمومی یا هوشمندتر شدنِ این مدل‌ها اساسا ارتباطی با آگاهی ندارد چون در نمونه‌های طبیعی بسیاری موجودات بنابر تعریف آگاه‌اند اما درجه‌ی هوش‌شان بسیار پایین‌تر از مدل‌های موجود فرض می‌شود.

 

در نتیجه‌گیری به طور محتاطانه در اظهار‌نظر و کمی بی‌احتیاط (با درصدبندیِ من‌درآوردی) در پیش‌بینی مدعی می‌شود مدل‌های زبانیِ فعلی فاصله‌ای معنادار با آگاه بودن دارند اما به نظر او این فاصله در یک دهه پر خواهد شد و بهتر است فرض کنیم مدلِ زبانیِ آگاه از راه می‌رسد. چالمرز روی‌هم‌رفته معتقد است مدلِ زبانی می‌تواند در نهایت آگاه باشد. به این ترتیب اگرچه با آگاه بودنِ نمونه‌های فعلی مخالف است، اما نظرِ برخی متفکرانِ کمپین روبه‌رو را هم رد می‌کند که آگاهی را به کل ورایِ قلمروِ مدل زبانی می دانند. جنبه‌ی اخلاقیِ بحث را هم اینجا به میان می‌آورد: اگر مدلِ زبانیِ آگاه، چیزِ خوبی نیست بهتر است برای نساختن‌اش همین امروز دست به کار شویم.

 

پی‌نوشت: طرح اول خروجی یکی از پلتفرم‌های هوش مصنوعی است برای "یک مدلِ زبانیِ آگاه" به قلم پیکاسو. فاجعه‌ی دوم، همان است بدون نام پیکاسو.

 

علی صدر     

مردادماه ۱۴۰۲