بیگ بنگ: چیزهایی که راجع به معرفت‌شناسی می‌دانیم اشاره می‌کند هر نوع روشی که به سمت ِ پیشرفت غیرمنتظرۀ فلسفی پیش نرود، باید بیهوده باشد. متاسفانه چیزهایی که راجع به معرفت‌شناسی می‌دانیم اکثراً حاوی کار فیلسوف کارل پوپر است و تقریباً به صورت کلی دست کم گرفته شده و تعبیرات خوبی از آن صورت نگرفته است( حتی- یا شاید مخصوصاً توسط فیلسوفان).

به گزارش بیگ بنگ، برای مثال تقریباً توسط همۀ افراد معتبر بدیهی شمرده می‌شود که شناخت، از باورهایی صادق و موجه تشکیل می‌شود و از این‌رو تفکر حوزه‌ی ‘هوش کلی مصنوعی یا AGI’ باید شامل فرآیندهایی در این مابین باشد که بعضی از نظریات‌اش را به منزله‌ی صادق‌ یا محتمل‌ توجیه و باقی آنها را به منزله‌ی کاذب یا غیرمحتمل رد ‌کند. تصور غلط غالب این است که اگر فرض کنیم ‘آینده مثل گذشته خواهد بود’ می‌توان از تجارب تکرار شده توسط فرآیندی که به گفته‌ی بعضی ‘استقرا(induction)’ نامیده می‌شود نظریاتی را ‘استنتاج'( یا ‘برون‌یابی’ یا ‘تعمیم’) کرد، اما این امر غیرممکن است. برای مثال خودم به یاد دارم که چند هزار بار متوالی شاهد بودم که بر روی تقویم‌ها دو عدد اول سال ‘۱۹’ بود. هیچ‌وقت خلاف آن را مشاهده نکردم تا این که یک روز آنها به ‘۲۰’ تبدیل شد. نه تنها متعجب نشده بودم بلکه کاملاً توقع بازه‌ای ۱۷ هزار ساله را داشتم تا دوباره آنها به ‘۱۹’ تبدیل شود. دوره‌ای که نه من و نه هیچ انسان دیگری حتی یکبار هم تجربه نکرده است.

در حقیقت آینده در اکثر موارد با گذشته تفاوت خواهد داشت. البته که با تعیین تبیین، آن ‘تغییرات’ شدید در الگوی قبلی ۱۹ها به سادگی با در نظر گرفتن آنها به عنوان الگو یا قانون زیرساخت ناوردا درک می‌شود ولی این تبیین همیشه اول می‌آید. بدون آن هر نوع تداوم از هر نوع توالی‌ای مساوی است با ‘همان اتفاق که دوباره دارد تحت یک تبیینی اتفاق می‌افتد.’ بنابراین چرا هنوز خِرَدی متداول است که نظریات خود را با استقرا به دست می‌آوریم؟ به دلایلی خارج از محدوده‌ی این مقاله، خرد متداول به استعاره‌ای به نام ‘مسئله‌ی استقرا’ پایبند است که می‌پرسد: ‘چطور و چرا استقرا می‌تواند با این اوصاف و برخلاف به ترتیبِ غیرممکن و نامعتبربودن‌شان انجام شود و به باورهای صادق موجه‌ ختم شود؟’ به یمن این استعاره، هر دلیلی دال بر رد این موضوع( مثل کارهای پوپر و دیوید میلر در سال ۱۹۸۸) به جای پایان دادن به استقراگرایی، به سادگی باعث می‌شود تا جریان غالب فکری در اعماق مسئله‌ی بزرگ استقرا با هیبت بزرگ‌تری حیرت‌زده شوند.

در مورد اینکه چطور مسئله‌ی هوش کلی مصنوعی(AGI) درک شده، اثر فاجعه‌بار قاب‌بندی هم‌زمان‌ ِ آن به عنوان ‘مسئله‌ی استقرا’ و تظاهر به آسان بودن این مسئله را ایجاد می کند؛ که چون تفکر را به عنوان فرآیند پیش‌بینی‌ قالب‌بندی می‌کند، الگوهای آینده‌ی تجارب حسی مثل موارد گذشته‌ی خود خواهند بود. این کار شبیه برون‌یابی است- کاری که رایانه‌ها همیشه انجام می‌دهند( وقتی به آنها نظریه‌ای از چگونگی به وجود آمدن داده‌ها داده شود) اما در واقعیت تنها جزء بسیار کوچکی از تفکر درباره‌ی پیش‌بینی است، چه برسد به پیش‌بینی تجارب حسی‌مان. راجع به دنیا فکر می‌کنیم: نه فقط دنیای فیزیکی بلکه به دنیای انتزاعات مثل فرق بین خوب و بد، زیبایی و زشتی، بی‌نهایت و بی‌نهایت کوچک، علّیت، داستان‌های تخیلی، اشک‌ها و آرزوها( و همچنین به خودمان فکر می‌کنیم).

حالا حقیقت این است که شناخت از تبیین‌های گمانه‌زنی‌‌شده تشکیل می‌شود- حدسیاتی درباره‌ی چیزهایی که واقعاً در آن دنیاها هست( یا باید باشد یا امکان دارد باشد). حتی در علوم دشوار(hard sciences) این حدسیات هیچ بنیانی ندارد و به توجیه نیاز ندارد. چرا؟ چون اگرچه شناخت حقیقی طبق تعریف حاوی حقیقت/ صدق نیست ولی تقریباً همیشه حاوی خطاهایی هم است. بنابراین برحسب مطالعات انجام‌شده در ریاضیات و منطق، این ‘حقیقت’ نیست. تفکر از انتقاد و اصلاح جزئی حدسیات صادق با هدف مکان‌یابی و حذف خطاها و تصورات غلط آن تشکیل شده است نه تولید یا توجیه برون‌یابی‌هایی از داده‌های حسی و بنابراین تلاش‌ها برای ایجاد AGI که موضوع دوم را انجام می‌دهد به اندازه‌ی تلاش برای آوردن حیات با دعا و رخ دادن رویدادی آفرینشی در آنجا فایده‌ای ندارد و محکوم به شکست است.

در حال حاضر یکی از تاثیر‌گذارترین نسخه‌های روش ‘استقرا’ برای AGI ( و فلسفه‌ی علم) بیزگرایی(Bayesianism) است که به طرز ناعادلانه‌ای به خاطر ریاضیدان قرن ۱۸ توماس بیز نام‌گذاری شده که هیچ نقشی در این اشتباه نداشته است. این مکتب فرض می‌کند که ذهن با اختصاص‌دادن احتمالات به ایده‌هایشان و اصلاح آن احتمالات با راهنمایی تجربه به عنوان راهی برای انتخاب چگونگی عملکردش کار می‌کند. وقتی بحث ارزش‌های AGI وسط می‌آید( ایده‌های اخلاقی و زیبایی‌شناختی‌ای که انتخاب‌ها و اهداف‌اش را اطلاع می‌دهد)، این موضوع به طرز به خصوصی منحرف می‌شود و تنها اجازه‌ی مدلی رفتاری از آنها را می‌دهد که در آن ارزش‌هایی که به وسیله‌ی ‘تجارب’ ‘به پاداش رسیده‌ است’ ‘تقویت شده’ و بر رفتار حاکم می‌شود در حالی که ارزش‌هایی که به وسیله‌ی ‘تجارب’ ‘تنبیه شده است’ خاموش می‌شود. همان‌طور که در بالا گفتم آن مدل رفتارگرایانه و ورودی- خروجی برای اکثر برنامه‌دهی‌های رایانه‌های به غیر از AGI مناسب است ولی به طرز ناامیدکننده‌ای برای AGI کاربرد ندارد. خیلی کنایه‌آمیز است که جریان غالب فکری روانشناسی به شدت رفتارگرایی را رد می‌کند( ناقص و غیرانسانی تشخیص داده شده است) در حالی که علم رایانه به یمن تصورات غلط فلسفی مثل استقراگرایی هنوز میخواهد، شناخت انسان‌گونه را بر اساس خطوط رفتارگرایانه بسازد.

به علاوه برخلاف چیزهای متفاوت عظیمی که در بالا بهشان اشاره شد و درباره‌ی آنها تببین‌هایی را ایجاد می‌کنیم، روش اصلی‌مان برای انجام این کار یعنی گمانه‌زنی و انتقاد پاپری، منطقی منفرد و وحدت‌یافته دارد. از این‌رو اصطلاح ‘کلی’ در هوش مصنوعی هم همین‌طور است. یک برنامه‌ی رایانه‌ای یا آن منطقِ هنوز درک نشده را دارد که در این صورت می‌تواند تفکر انسان‌گونه را راجع به هر چیزی از جمله تفکر خودش و اینکه چطور آن را بهبود ببخشید اجرا کند یا این منطق را ندارد که در این صورت اصلاً یک AGI نیست. متعاقباً روش ناامیدانه‌ی دیگری برای AGI این است که از شناخت موجود از اینکه چطور وظایف مشخص را برنامه‌ریزی کنیم- مثل شطرنج بازی کردن، اجرای تحلیل آماری یا جستجو در دادگان‌ها- شروع کنیم و سپس تلاش کنیم تا آن برنامه‌ها را به این امید بهبود ببخشیم که این کار به نوعی به عنوان یک اثر فرعی یک هوش مصنوعی تولید کند؛ همان‌طور که برای اسکای‌نت در فیلم‌های ترمیناتور( نابودگر) اتفاق افتاد.

امروزه کارکردهای شگفت‌آوری در حال شتاب‌گیری برای رایانه‌ها است که بعضی از آنها زودتر از آن چیزی که همین چند وقت پیش فکر می‌کردیم عرضه شده‌ است، اما چیزی که چندان شگفت‌آور نیست، استدلالی است که اغلب از این تحولات استقبال می‌کند: اینکه آنها دارند به مرزهای هوش مصنوعی کلی می‌رسند. همه‌گیری شدید مخصوصی از این اتفاق اخیراً رخ داد، زمانی که یک موتور جستجو به نام واتسون( که توسط شرکت آی‌بی‌اِم طراحی شده بود) بازیکن انسانی را در یک بازی جستجوی دادگان مربوط به لغات به نام خطر شکست داد. مجموعه مستند پی‌بی‌اِس آن را ‘باهوش‌ترین دستگاه روی زمین’ نامید و کارکردش را ‘شبیه‌سازی فرآیند افکار انسانی با نرم‌افزار’ توصیف کرد ولی این دقیقاً کاری است که این دستگاه انجام نمی‌دهد.

مشکل اینجاست که بازی خطر( مثل هر یک از کارکردهای محاسباتی که امروزه در آن به درستی شگفت‌زده می‌شویم) به طور قاطع در میان کارکردهایی قرار دارد که می‌تواند به صورت استاندارد و رفتارگرایانه‌ای تعیین شود که در بالا به بحث گذاشتم. هیچ پاسخی در بازی خطر هیچ‌وقت در مجله‌ای از اکتشافات جدید منتشر نخواهد شد. این حقیقت که انسان‌ها آن وظیفه را با استفاده از خلاقیت برای تولید حدسیات زیرساختی به میزان خوبیِ کمتری انجام می‌دهند، نشانه‌ی داشتن قابلیت‌های نزدیک به انسانی آن دستگاه نیست. برای دو روشی که کاملاً از پایه با یکدیگر تفاوت دارد دقیقاً برعکس آن صحیح است. به همین صورت، وقتی یک برنامه‌ی رایانه‌ای یک استاد شطرنج را شکست می‌دهد، این دو از الگوریتم‌‌هایی استفاده می‌کنند که کمترین شباهتی با یکدیگر ندارد. استاد شطرنج می‌تواند توضیح دهد چرا به نظر می‌رسید ارزش‌اش را داشت تا با قربانی کردن اسب به برتری راهبردی دست پیدا کرد و می‌تواند کتاب هیجان‌انگیزی در این باره بنویسد ولی برنامه تنها می‌تواند ثابت کند که قربانی کردن باعث ایجاد یک کیش و مات نمی‌شود و نمی‌تواند کتابی در این باره بنویسد چون اصلاً نمی‌داند که هدف یک بازی شطرنج چیست. برنامه‌دهی AGI مسئله‌ی یکسانی با برنامه‌دهی یک بازی خطر یا شطرنج نیست.

یک AGI از نظر کیفی و نه کمّی با تمام برنامه‌های رایانه‌ای دیگر تفاوت دارد. تصور غلط اسکای‌نت هم به همین صورت این امید را می‌رساند که AGI فقط مشخصه‌ای نوآیندی(emergence) از پیچدگی است  یا آن نیروی افزایش‌یافته‌ی رایانه، AGI را تولید می‌کند( انگار کسی قبلاً برنامه‌ی AGI را نوشته باشد ولی سال‌ها طول بکشد تا هر جمله را ادا کند.) در ماورای تصور است که قابلیت‌های منحصر به فرد مغز به خاطر ‘موازی‌گرایی( موازات) کلان‌’ یا ساختار عصبی‌اش باشد، دو ایده‌ای که جهان‌شمولی محاسباتی را نقض می‌کند. توقع ساخت یک هوش کلی مصنوعی بدون درک عملکردش مثل این است که توقع داشته باشیم اگر آسمان‌خراش‌ها را به اندازه‌‌ی کافی بلند بسازیم بتوانند پرواز کنند.

در سال ۱۹۵۰ تورینگ توقع داشت این اتفاق تا سال ۲۰۰۰ بیافتد ‘می‌توان از تفکر ماشین‌ها سخن گفت بدون اینکه توقع داشته باشیم مورد انتقاد قرار بگیرد.’ در سال ۱۹۶۸ آرتور سی. کلارک توقع داشت این اتفاق تا سال ۲۰۰۱ بیافتد. الان سال ۲۰۱۲ است و هیچ‌کس نتوانسته بهتر از خود تورینگ در برنامه‌دهی یک AGI عمل کند.

این موضوع گروه اول را شگفت‌زده نمی‌کند( گروهی رفته‌رفته کوچک شده از مخالفان احتمال به وجود آمدن AGI) ولی افرادی که در گروه دیگر هستند( گروهی که می‌گوید AGI قریب‌الوقوع و حتمی است) با وجود چنین تاریخچه‌ای از شکست‌ها، در به در به دنبال توجیهاتی برای تبیین این موضوع هستند یا حداقل بتوانند آن را از طریق منطقی رد کنند و قطعاً به خاطر آشفته نشدن با این حقیقت  که هیچ‌وقت نمی‌توانند چنین انطباق یا توجیه با اصول عقلانی‌ای از تجربه را( مثل کاری که توقع دارند AGIشان انجام دهد) استنتاج کنند، به دلایل زیادی فکر کرده‌اند.

خود اصطلاح AGI مثالی از این دلایل است. این حوزه را قبلاً هوش مصنوعی یا AI می‌نامیدند ولی AI به‌تدریج برای توصیف انواع برنامه‌های رایانه‌ای نامربوط مثل اجراکننده‌های بازی‌های رایانه‌ای، موتورهای جستجو و ربات‌های سخنگو مناسب بود تا اینکه حرف G( کلی) به آن اضافه شد تا دوباره بتوان به نکته‌ی اصلی اشاره کرد ولی حالا با این مفهوم یا دلالت که یک AGI تنها گونه‌ی هوشمندتری از ربات‌های سخنگو است.

دسته‌ی دیگری از انطباق‌های عقلانی‌سازی با خطوط کلی هم‌مسیر است: AGI آن‌قدرها هم خوب نیست و نرم‌افزارهای موجود هم به همان اندازه باهوش و یا باهو‌ش‌تر ولی به نوعی غیرانسانی است و ما هم آن‌قدر پوچ یا آن‌قدر از نظر فرهنگی سوگیری داریم که نمی‌توانیم اعتبار در خور را به آن بدهیم. این موضوع مقداری کشش یا جاذبه دارد، چون نابخردی دائماً مشهورِ نسبی‌گرایی فرهنگی و همچنین استعاره‌ی مربوط به آن را فرا می‌خواند که:« ما انسان‌ها به ایده‌آل بودن در میان حیوانات افتخار می‌کنیم ولی این افتخار نادرست است چون آنها هم زبان، ابزار و… خودآگاهی دارند.»

اهمیت نسبت داده شده به ‘خودآگاه’ شدن اسکای‌نت را به خاطر می‌آورید؟ این تنها یک تعبیر غلط دیگر فلسفی است که به نوع خود کافی است تا هر نوع رویکرد امکان‌پذیر به AGI را مسدود کند. حقیقت این است که تولیدکنندگان امروزی نرم‌افزار اگر بخواهند به سادگی می‌توانند رایانه‌ای را برنامه‌دهی کنند تا از نظر رفتاری ‘خودآگاهی’ داشته باشد- برای مثال ‘آزمون آینه’ را با موفقیت پشت سر بگذارد تا قادر باشد از یک آینه استفاده کند تا حقایقی درباره‌ی خودش را استنباط کند. تا جایی که من اطلاع دارم هیچ‌کس این کار را انجام نداده؛ احتمالاً چون مثل قابلیتی جزئی و ناچیز تقریباً بلا استفاده است.

شاید دلیل شهرت بدون استحقاق خودآگاهی برای مرتبط بودن با AGI، این باشد که به یمن قضیه‌ی کورت گودل و اختلاف‌نظرهای متعدد در منطق صوری در قرن بیستم، هر نوع خودارجاعی، شهرتی برای رازهای ماورالطبیعه را به دست آورده است. خودآگاهی هم از این قاعده مستثنی نیست. و اینجا دوباره مسئله‌ی اصطلاح‌شناسی‌ مبهم را داریم: اصطلاح ‘خودآگاهی’ دارای بازه‌ی وسیعی از معانی است. در یک سوی مقیاس، مسئله‌ی فلسفی ماهیت احساسات عینیِ( شخصی)’کوآلیا’ وجود دارد که به شدت به مسئله‌ی AGI مرتبط است. در سوی دیگر ‘خودآگاهی’ به سادگی چیزی است که وقتی تحت بیهوش‌کننده‌های معمولی قرار می‌گیریم از دست می‌دهیم. مشخصاً حیوانات زیادی این نوع خودآگاهی را دارند.

AGI قطعاً قادر به داشتن خودآگاهی است ولی این بدان خاطر است که آنها کلی خواهند بود: آنها قادر به داشتن آگاهی از انواع چیزهای عمیق و ظریف از جمله خودشان هستند. این بدان معنی نیست که میمون‌های انسان‌وار(Ape) که آزمایش آینه را با موفقیت پشت سر می‌گذرانند چیزی از ویژگی‌های ‘هوش کلی‌ای’ سر در می‌آورند که AGI نسخه‌ای مصنوعی از آن خواهد بود. قطعاً تحقیق شگفت‌انگیز ریچارد بایرنه درون یاده‌های(memes) گوریل نشان داده است چطور میمون‌های انسان‌وار قادر به یادگیری رفتارهای کارآمد از یکدیگر هستند بدون اینکه بفهمند این رفتارها به چه دردی می‌خورد: تبیین چگونگی عملکرد شناخت میمون‌های انسان‌وار واقعاً رفتارگرایانه است.

به طرز کنایه‌آمیزی آن گروه از  توجیهات عقلانی( AGI قبلاً انجام شده/ بدیهی است/ در میمون‌های انسان‌وار وجود دارد/ یک استعاره‌ی فرهنگی است) تصاویر بازتاب‌دهنده‌ای از استدلال‌هایی است که از گروه AGI غیرممکن است نشأت گرفته است. برای هر استدلالی به صورت ‘نمی‌توانید AGI را انجام دهید چون هیچ‌وقت قادر نخواهید بود روح انسانی را برنامه‌دهی کنید چون ماورالطبیعه است’، گروه AGI آسان است، این توجیه عقلانی را دارد که ‘اگر فکر می‌کنید که شناخت انسانی از نظر کیفی با شناخت‌ میمون‌های انسان‌وار تفاوت دارد باید به یک روح ماورالطبیعه باور داشته باشید.’

ادامه دارد »»»

مطالعه قسمت اول

مطالعه قسمت دوم

ترجمه: امیرحسین سلیمانی/ سایت علمی بیگ بنگ

منبع: aeon.co

دیدگاهتان را بنویسید

این سایت از اکیسمت برای کاهش هرزنامه استفاده می کند. بیاموزید که چگونه اطلاعات دیدگاه های شما پردازش می‌شوند.

6 دیدگاه

  1. متن بسیار غامض است تلاش زیادی کردم که منظور نویسنده رو درک کنم ولی صادقانه بگویم بعضی از قسمتهای آن برای من هنوز هم مبهم است از نویسنده گان عزیز اینگونه مقالات خواهشمندم که به رونویسی یا ترجمه از یک کتاب یا مقاله بسنده نکرده و حداقل چندین منبع مرتبط با اون مقاله یا کتاب رو که معمولا در بخش کتابشناسی و یا مراجع معرفی شده اند مطالعه کنند تا خود دقیقا آنچه نویسنده بیان میکند رو بفهمند و بعد با فهم از پیش شروع به نوشتن متن و یا مقاله ای از روی متن مربوطه با ابتکار خود بکنند و در آخر به متن اصلی به عنوان مرجع اصلی در مقاله خود اشاره نمایند. با تشکر از زحمات شما عزیزان

    1. دوست عزیز هدف از ترجمه و انتشار چنین مقالاتی ارائه‌ی نظر خود افراد متخصص در حوزه‌ی مربوطه بدون هیچ واسطه‌ای است. حال اگر بعضی از جاهای مقاله به نظر شما مبهم بوده به دلیل طرز نوشتاری نویسنده‌ی اصلی مطلب است. با این حال ساده‌نویسی‌هایی صورت گرفته ولی باز به دلیل تخصصی بودن مطلب یک مقدار مقاله سنگین به نظر می‌رسد و باید از قبل اطلاعاتی برای فهم این مقاله داشت. اگر ایراد نوشتاری هم مشاهده می‌کنید اطلاع دهید تا تصحیح شود. اگر قسمت‌هایی از مقاله را متوجه نشده‌اید خوشحال می‌شوم تا جایی که بتوانم به سوال شما پاسخ بدهم.

  2. سلام وقت بخیر
    میخواستم بدونم مستند Farthest 2017 رو ترجمه نمیکنید؟
    این مستند با نمره 8.2 از 10 در IMDB یکی از بهترین مستند های منتشر شده در سال 2017 هستش…!