موانع خلاقیت – بخش دوم

بیگ بنگ: آیا موتور تحلیلی می‌تواند حس ملال یکسانی داشته باشد؟ آیا اصلاً می‌تواند چیزی را حس کند؟ آیا می‌خواهد چیزهای زیادی از بشریت(یا موتورهای تحلیل‌گونه) را بهتر کند؟ آیا می‌تواند سر برنامه‌دهی‌ با برنامه‌ریز‌ش مخالفت کند؟ اینجا بود که بینش بابیج و لاولیس نمی‌توانست کمکی بهشان بکند. آنها فکر می‌کردند نوعی کارکردهای شناختی از مغز انسان در فراسوی دسترس جهان‌شمولی محاسباتی بود.

به گزارش بیگ بنگ، همان‌طور که لاو‌لیس نوشته:« موتور تحلیلی هیچ قصدی برای موجب‌شدن چیزی ندارد. این دستگاه می‌تواند هر کاری که می‌دانیم و به آن دستور می‌دهیم را انجام دهد. می‌تواند از تحلیل‌ها پیروی کند ولی قدرت پیش‌بینی هر نوع ارتباط تحلیلی یا حقایق را ندارد.» و با این حال ‘موجب‌شدن چیزها’، ‘پیروی از تحلیل‌ها’ و ‘پیش‌بینی ارتباطات تحلیلی و حقایق’ همگی رفتارهای مغز و از این‌رو اتم‌هایی است که از آنها مغزها تشکیل شده‌ است. این نوع رفتارها از قوانین فیزیک تبعیت می‌کند. بنابراین به صورت بی‌وقفه از جهان‌شمولیتی پیروی می‌کند که (با برنامه‌ی مناسب) یک موتور تحلیلی هم متحمل آنها خواهد شد، اتم به اتم و قدم به قدم. درست است که اتم‌های مغز به جای مواد زیستی توسط دندانه‌ها و اهرم‌های فلزی شبیه‌سازی می‌شود- ولی در بافت فعلی، استنباط هر چیز مادی از این تمایز مثل نژاد‌پرستی خواهد بود.

بابیج و لاولیس برخلاف تلاش‌های بسیارشان نتوانستند به طور کامل اشتیاق خود را درباره‌ی موتور تحلیلی به دیگران انتقال دهند. در یکی از بزرگ‌ترین لحظاتی که می‌توانست در تاریخ ماندگار شود ایده‌ی رایانه‌ی جهانی در انباری تفکرات انسانی پژمرده شد. این امر تا قرن بیستم طول کشید؛ زمانی که آلن تورینگ با یک سری خارق‌العاده هنرنمایی‌ فکری به میدان آمد و زمینه‌ی بنیان‌های نظریه‌ی کلاسیک محاسبات را فراهم کرد، محدودیت‌های محاسبه‌پذیری را بنیان نهاد، در ساخت اولین رایانه‌ی کلاسیک جهانی شرکت کرد و با شکستن رمز انیگما در پیروزی متفقین در جنگ جهانی دوم سهم داشت.

تورینگ کاملاً جهان‌شمولی را درک کرده بود. در مقاله‌ی ‘تشکیلات محاسباتی و هوش’ که در سال ۱۹۵۰ منتشر کرد از آن استفاده کرد تا چیزی که ‘استدلال مخالف بانوی لاو‌لیس’ می‌نامید و هر استدلال مخالف دیگر معقول و نامعقول را کنار بزند. او نتیجه‌گیری کرد که یک برنامه‌ی رایانه‌ای که اندوخته‌اش شامل تمام ویژگی‌های متمایز مغز انسان باشد- احساسات، اراده‌ی آزاد( اختیار)، خودآگاهی و تمام چیزهای دیگر- را می‌توان نوشت.

این ادعای شگفت‌انگیز دنیای متفکران را به دو گروه تقسیم کرد؛‌ یک گروه اصرار می‌کردند که هوش کلی مصنوعی کاملاً غیرممکن است و گروه دیگر می‌گفتند که این اتفاق حتمی و قریب‌الوقوع است. هر دو گروه اشتباه می‌کردند. گروه اول که در ابتدا گروه غالب را تشکیل می‌دادند به دلایل زیادی اشاره کردند که دامنه‌ی آن از فراطبیعی تا ناسازگاری کشیده می‌شد. همگی در این اشتباه پایه‌ مشترک بودند که درک نمی‌کردند جهان‌شمولی محاسباتی بر چه چیزی درباره‌ی دنیای فیزیکی و مخصوصاً مغز انسان‌ها دلالت دارد.

ولی اشتباه پایه‌ای گروه دیگر بود که مسئول عدم پیشرفت است. آنها نتوانستند تشخیص دهند چیزی که مغز انسان را از دیگر سامانه‌های فیزیکی متمایز می‌سازد، از نظر کیفی با تمام کارکردهای دیگر تفاوت دارد و نمی‌توان آن را به همان صورتی مشخص و معین کرد که تمام شاخصه‌های دیگر برنامه‌های رایانه‌ای را می‌توان تشخیص داد. نمی‌توان آن را با هر نوع از روش‌هایی که برای نوشتن هر نوع برنامه‌ی دیگری مناسب است برنامه‌‌دهی کرد. همچنین نمی‌توان فقط با بهبود عملکردشان در وظایفی که فعلاً اجرا می‌کنند به این امر دست پیدا کرد و اهمیتی هم ندارد که این بهبود و اصلاح چقدر باشد.

چرا؟ من کارکرد هسته‌ای در سوال خلاقیت را فرا می‌خوانم: قابلیت تولید تبیینات جدید. برای مثال فرض کنیم از کسی می‌خواهید تا برای شما یک برنامه‌ی رایانه‌ای بنویسد تا اندازه‌گیری‌های دما را از سانتی‌گراد به فارنهایت تبدیل کند. حتی موتور تفاضلی را هم می‌شد برنامه‌ریزی کرد تا این کار را انجام دهد. یک رایانه‌ی جهانی مثل موتور تحلیلی می‌توانست این امر را با روش‌های بسیار بیشتری به دست بیاورد. شاید بخواهید برای تعیین کارکرد این برنامه برای برنامه‌ریز، برای مثال فهرست بلند بالایی از تمام ورودی‌هایی که احتمالاً می‌خواستید به آن بدهید( مثلا تمام اعداد از ۸۹.۲- تا ۵۷.۸+ با افزایش ۰.۱) به علاوه‌ی خروجی‌های صحیح معادل‌اش را فراهم کنید تا این برنامه بتواند با نگاه به پاسخ‌های فهرست در هر موقعیتی کار کند. از سوی دیگر احتمال دارد که یک الگوریتم طرح کنید مثل « تقسیم بر ۵، ضربدر ۹ و به علاوه‌ی ۳۲ و سپس گِردَش کنیم». نکته‌ی موضوع این است که هر طوری که برنامه کار کند، آن را طوری برنامه‌ریزی می‌کنید تا انتظارات شما را برآورده کند- تا یک تبدیل‌کننده‌ی دمای واقعی باشد-  اگر و تنها اگر همیشه به طور صحیحی هر دمایی که به آن می‌دهید را درون دامنه‌ی بیان شده تبدیل کند.

حالا تصور کنید به برنامه‌ای با کارکرد جاه‌طلبانه‌تری نیاز دارید: تا بعضی از مسائل قدیمی و حل‌نشده‌ی فیزیک نظری- مثلاً ماهیت ماده‌ی تاریک-  را با تبیین جدیدی نشانی‌دهی کند که به اندازه‌ی کافی قابل‌تأمل و دقیق باشد تا معیارهای لازم برای انتشار در یک مجله‌ی دانشگاهی را داشته باشد.

احتمالاً چنین برنامه‌ای AGI (و حتی بیشتر)‌ خواهد بود، اما چطور وظایف‌اش را برای برنامه‌ریزان رایانه مشخص می‌کنید؟ جدا از اینکه پیچیده‌تر از تبدیل دما است: مشکلات بنیادی بسیاری وجود دارد. فرض کنید قرار بود به نوعی فهرستی(درست مثل برنامه‌ی تبدیل دما) از تبیین‌های ماده‌ی تاریک به آنها بدهید که خروجی‌های قابل‌قبولی از برنامه باشد. اگر برنامه یکی از آن تبیین‌ها را بعداً به دست بدهد این موضوع شامل به انجام رساندن لازمه‌ی ما برای تولید تبیین‌های جدید نخواهد بود. هیچ‌کدام از آن تبیین‌ها جدید نخواهد بود: شما قبلاً خودتان آنها را درست کردید تا مشخصات آن را بنویسید. بنابراین در این مورد و در واقع در تمامی موارد دیگر برنامه‌دهی AGI واقعی، فقط الگوریتمی با کارکرد مناسب کفایت خواهد کرد ولی نوشتن آن الگوریتم( بدون یافتن اکتشافاتی جدید در فیزیک و پنهان کردن آنها در برنامه) دقیقاً کاری است که می‌خواستید برنامه‌ریزان انجام دهند!

متاسفم “دیو” نمی‌توانم این کار را انجام دهم: هال، هوش رایانه‌ای فیلم ۲۰۰۱: ادیسه‌ی فضایی استنلی کوبریک

معمولاً مباحث AGI با تصور تنها یک آزمون از برنامه و نه مشخصات‌اش، از این موضوع دوری می‌کند( این آزمون سنتی توسط خود تورینگ مطرح شد). این آزمون می‌گفت وقتی انسان‌ها با این برنامه از طریق نوعی واسطه‌ی کاملاً متنی تعامل داشته باشند، قضاوت‌های (انسانی) قادر نخواهد بود تشخیص دهد که این برنامه انسان است یا نه، بنابراین تنها قابلیت‌های شناختی خواهد بود که بر خروجی تاثیر خواهد گذاشت ولی این آزمون(اگر کاملاً رفتاری باشد) هیچ سرنخی به ما نمی‌دهد که چطور به این معیار یا ملاک برسیم. همچنین نمی‌توان با روش ‘الگوریتم‌های فرگشتی’ به هدف‌مان برسیم: بدون اینکه بدانیم چطور یک برنامه‌ی AGI‌ بنویسیم آزمون تورینگ را نمی‌توان خودکارسازی کرد چون ‘قضاوت‌های’ یک برنامه باید خود قابلیت را هدف بگیرد.

و در هر نوع موردی AGI نمی‌تواند کاملاً از نظر رفتاری تعریف شود. در آزمایش فکری کلاسیک ‘مغز در خمره’، وقتی مغز به صورت موقتی از مجراهای ورودی و خروجی‌اش جدا شود، دارد فکر می‌کند، حس می‌کند و برای خودش تبییناتی را درست می‌کند یعنی دارای تمام شاخصه‌های شناختی یک AGI‌ است. بنابراین شاخصه‌های مربوط یک برنامه‌ی AGI تنها شامل روابط بین ورودی‌ها و خروجی‌هایش نیست.

نتیجه این است که برخلاف هر نوع کارکردی که تا به امروز برنامه‌ریزی شده، این یکی را نمی‌توان با مشخصات یا آزمونی از خروجی‌هایش به دست آورد. چیزی که بدان نیازمندیم کمتر از یک پیشرفت غیرمنتظره در فلسفه نیست، نظریه‌ی معرفت‌شناسانه‌ی جدیدی که توضیح می‌دهد چطور مغزها شناخت تبیینی ایجاد می‌کند و از این‌رو به طور کلی بدون اینکه آنها را به عنوان برنامه‌ها به کار بیاندازید تعیین می‌کند کدام الگوریتم‌ها دارای آن کارکرد است و کدام نیست.

ادامه دارد »»»

مطالعه قسمت اول

ترجمه: امیرحسین سلیمانی/ سایت علمی بیگ بنگ

منبع: aeon.co