بیگ بنگ: چیزهایی که راجع به معرفتشناسی میدانیم اشاره میکند هر نوع روشی که به سمت ِ پیشرفت غیرمنتظرۀ فلسفی پیش نرود، باید بیهوده باشد. متاسفانه چیزهایی که راجع به معرفتشناسی میدانیم اکثراً حاوی کار فیلسوف کارل پوپر است و تقریباً به صورت کلی دست کم گرفته شده و تعبیرات خوبی از آن صورت نگرفته است( حتی- یا شاید مخصوصاً توسط فیلسوفان).
به گزارش بیگ بنگ، برای مثال تقریباً توسط همۀ افراد معتبر بدیهی شمرده میشود که شناخت، از باورهایی صادق و موجه تشکیل میشود و از اینرو تفکر حوزهی ‘هوش کلی مصنوعی یا AGI’ باید شامل فرآیندهایی در این مابین باشد که بعضی از نظریاتاش را به منزلهی صادق یا محتمل توجیه و باقی آنها را به منزلهی کاذب یا غیرمحتمل رد کند. تصور غلط غالب این است که اگر فرض کنیم ‘آینده مثل گذشته خواهد بود’ میتوان از تجارب تکرار شده توسط فرآیندی که به گفتهی بعضی ‘استقرا(induction)’ نامیده میشود نظریاتی را ‘استنتاج'( یا ‘برونیابی’ یا ‘تعمیم’) کرد، اما این امر غیرممکن است. برای مثال خودم به یاد دارم که چند هزار بار متوالی شاهد بودم که بر روی تقویمها دو عدد اول سال ‘۱۹’ بود. هیچوقت خلاف آن را مشاهده نکردم تا این که یک روز آنها به ‘۲۰’ تبدیل شد. نه تنها متعجب نشده بودم بلکه کاملاً توقع بازهای ۱۷ هزار ساله را داشتم تا دوباره آنها به ‘۱۹’ تبدیل شود. دورهای که نه من و نه هیچ انسان دیگری حتی یکبار هم تجربه نکرده است.
در حقیقت آینده در اکثر موارد با گذشته تفاوت خواهد داشت. البته که با تعیین تبیین، آن ‘تغییرات’ شدید در الگوی قبلی ۱۹ها به سادگی با در نظر گرفتن آنها به عنوان الگو یا قانون زیرساخت ناوردا درک میشود ولی این تبیین همیشه اول میآید. بدون آن هر نوع تداوم از هر نوع توالیای مساوی است با ‘همان اتفاق که دوباره دارد تحت یک تبیینی اتفاق میافتد.’ بنابراین چرا هنوز خِرَدی متداول است که نظریات خود را با استقرا به دست میآوریم؟ به دلایلی خارج از محدودهی این مقاله، خرد متداول به استعارهای به نام ‘مسئلهی استقرا’ پایبند است که میپرسد: ‘چطور و چرا استقرا میتواند با این اوصاف و برخلاف به ترتیبِ غیرممکن و نامعتبربودنشان انجام شود و به باورهای صادق موجه ختم شود؟’ به یمن این استعاره، هر دلیلی دال بر رد این موضوع( مثل کارهای پوپر و دیوید میلر در سال ۱۹۸۸) به جای پایان دادن به استقراگرایی، به سادگی باعث میشود تا جریان غالب فکری در اعماق مسئلهی بزرگ استقرا با هیبت بزرگتری حیرتزده شوند.
در مورد اینکه چطور مسئلهی هوش کلی مصنوعی(AGI) درک شده، اثر فاجعهبار قاببندی همزمان ِ آن به عنوان ‘مسئلهی استقرا’ و تظاهر به آسان بودن این مسئله را ایجاد می کند؛ که چون تفکر را به عنوان فرآیند پیشبینی قالببندی میکند، الگوهای آیندهی تجارب حسی مثل موارد گذشتهی خود خواهند بود. این کار شبیه برونیابی است- کاری که رایانهها همیشه انجام میدهند( وقتی به آنها نظریهای از چگونگی به وجود آمدن دادهها داده شود) اما در واقعیت تنها جزء بسیار کوچکی از تفکر دربارهی پیشبینی است، چه برسد به پیشبینی تجارب حسیمان. راجع به دنیا فکر میکنیم: نه فقط دنیای فیزیکی بلکه به دنیای انتزاعات مثل فرق بین خوب و بد، زیبایی و زشتی، بینهایت و بینهایت کوچک، علّیت، داستانهای تخیلی، اشکها و آرزوها( و همچنین به خودمان فکر میکنیم).
حالا حقیقت این است که شناخت از تبیینهای گمانهزنیشده تشکیل میشود- حدسیاتی دربارهی چیزهایی که واقعاً در آن دنیاها هست( یا باید باشد یا امکان دارد باشد). حتی در علوم دشوار(hard sciences) این حدسیات هیچ بنیانی ندارد و به توجیه نیاز ندارد. چرا؟ چون اگرچه شناخت حقیقی طبق تعریف حاوی حقیقت/ صدق نیست ولی تقریباً همیشه حاوی خطاهایی هم است. بنابراین برحسب مطالعات انجامشده در ریاضیات و منطق، این ‘حقیقت’ نیست. تفکر از انتقاد و اصلاح جزئی حدسیات صادق با هدف مکانیابی و حذف خطاها و تصورات غلط آن تشکیل شده است نه تولید یا توجیه برونیابیهایی از دادههای حسی و بنابراین تلاشها برای ایجاد AGI که موضوع دوم را انجام میدهد به اندازهی تلاش برای آوردن حیات با دعا و رخ دادن رویدادی آفرینشی در آنجا فایدهای ندارد و محکوم به شکست است.
در حال حاضر یکی از تاثیرگذارترین نسخههای روش ‘استقرا’ برای AGI ( و فلسفهی علم) بیزگرایی(Bayesianism) است که به طرز ناعادلانهای به خاطر ریاضیدان قرن ۱۸ توماس بیز نامگذاری شده که هیچ نقشی در این اشتباه نداشته است. این مکتب فرض میکند که ذهن با اختصاصدادن احتمالات به ایدههایشان و اصلاح آن احتمالات با راهنمایی تجربه به عنوان راهی برای انتخاب چگونگی عملکردش کار میکند. وقتی بحث ارزشهای AGI وسط میآید( ایدههای اخلاقی و زیباییشناختیای که انتخابها و اهدافاش را اطلاع میدهد)، این موضوع به طرز به خصوصی منحرف میشود و تنها اجازهی مدلی رفتاری از آنها را میدهد که در آن ارزشهایی که به وسیلهی ‘تجارب’ ‘به پاداش رسیده است’ ‘تقویت شده’ و بر رفتار حاکم میشود در حالی که ارزشهایی که به وسیلهی ‘تجارب’ ‘تنبیه شده است’ خاموش میشود. همانطور که در بالا گفتم آن مدل رفتارگرایانه و ورودی- خروجی برای اکثر برنامهدهیهای رایانههای به غیر از AGI مناسب است ولی به طرز ناامیدکنندهای برای AGI کاربرد ندارد. خیلی کنایهآمیز است که جریان غالب فکری روانشناسی به شدت رفتارگرایی را رد میکند( ناقص و غیرانسانی تشخیص داده شده است) در حالی که علم رایانه به یمن تصورات غلط فلسفی مثل استقراگرایی هنوز میخواهد، شناخت انسانگونه را بر اساس خطوط رفتارگرایانه بسازد.
به علاوه برخلاف چیزهای متفاوت عظیمی که در بالا بهشان اشاره شد و دربارهی آنها تببینهایی را ایجاد میکنیم، روش اصلیمان برای انجام این کار یعنی گمانهزنی و انتقاد پاپری، منطقی منفرد و وحدتیافته دارد. از اینرو اصطلاح ‘کلی’ در هوش مصنوعی هم همینطور است. یک برنامهی رایانهای یا آن منطقِ هنوز درک نشده را دارد که در این صورت میتواند تفکر انسانگونه را راجع به هر چیزی از جمله تفکر خودش و اینکه چطور آن را بهبود ببخشید اجرا کند یا این منطق را ندارد که در این صورت اصلاً یک AGI نیست. متعاقباً روش ناامیدانهی دیگری برای AGI این است که از شناخت موجود از اینکه چطور وظایف مشخص را برنامهریزی کنیم- مثل شطرنج بازی کردن، اجرای تحلیل آماری یا جستجو در دادگانها- شروع کنیم و سپس تلاش کنیم تا آن برنامهها را به این امید بهبود ببخشیم که این کار به نوعی به عنوان یک اثر فرعی یک هوش مصنوعی تولید کند؛ همانطور که برای اسکاینت در فیلمهای ترمیناتور( نابودگر) اتفاق افتاد.
امروزه کارکردهای شگفتآوری در حال شتابگیری برای رایانهها است که بعضی از آنها زودتر از آن چیزی که همین چند وقت پیش فکر میکردیم عرضه شده است، اما چیزی که چندان شگفتآور نیست، استدلالی است که اغلب از این تحولات استقبال میکند: اینکه آنها دارند به مرزهای هوش مصنوعی کلی میرسند. همهگیری شدید مخصوصی از این اتفاق اخیراً رخ داد، زمانی که یک موتور جستجو به نام واتسون( که توسط شرکت آیبیاِم طراحی شده بود) بازیکن انسانی را در یک بازی جستجوی دادگان مربوط به لغات به نام خطر شکست داد. مجموعه مستند پیبیاِس آن را ‘باهوشترین دستگاه روی زمین’ نامید و کارکردش را ‘شبیهسازی فرآیند افکار انسانی با نرمافزار’ توصیف کرد ولی این دقیقاً کاری است که این دستگاه انجام نمیدهد.
مشکل اینجاست که بازی خطر( مثل هر یک از کارکردهای محاسباتی که امروزه در آن به درستی شگفتزده میشویم) به طور قاطع در میان کارکردهایی قرار دارد که میتواند به صورت استاندارد و رفتارگرایانهای تعیین شود که در بالا به بحث گذاشتم. هیچ پاسخی در بازی خطر هیچوقت در مجلهای از اکتشافات جدید منتشر نخواهد شد. این حقیقت که انسانها آن وظیفه را با استفاده از خلاقیت برای تولید حدسیات زیرساختی به میزان خوبیِ کمتری انجام میدهند، نشانهی داشتن قابلیتهای نزدیک به انسانی آن دستگاه نیست. برای دو روشی که کاملاً از پایه با یکدیگر تفاوت دارد دقیقاً برعکس آن صحیح است. به همین صورت، وقتی یک برنامهی رایانهای یک استاد شطرنج را شکست میدهد، این دو از الگوریتمهایی استفاده میکنند که کمترین شباهتی با یکدیگر ندارد. استاد شطرنج میتواند توضیح دهد چرا به نظر میرسید ارزشاش را داشت تا با قربانی کردن اسب به برتری راهبردی دست پیدا کرد و میتواند کتاب هیجانانگیزی در این باره بنویسد ولی برنامه تنها میتواند ثابت کند که قربانی کردن باعث ایجاد یک کیش و مات نمیشود و نمیتواند کتابی در این باره بنویسد چون اصلاً نمیداند که هدف یک بازی شطرنج چیست. برنامهدهی AGI مسئلهی یکسانی با برنامهدهی یک بازی خطر یا شطرنج نیست.
یک AGI از نظر کیفی و نه کمّی با تمام برنامههای رایانهای دیگر تفاوت دارد. تصور غلط اسکاینت هم به همین صورت این امید را میرساند که AGI فقط مشخصهای نوآیندی(emergence) از پیچدگی است یا آن نیروی افزایشیافتهی رایانه، AGI را تولید میکند( انگار کسی قبلاً برنامهی AGI را نوشته باشد ولی سالها طول بکشد تا هر جمله را ادا کند.) در ماورای تصور است که قابلیتهای منحصر به فرد مغز به خاطر ‘موازیگرایی( موازات) کلان’ یا ساختار عصبیاش باشد، دو ایدهای که جهانشمولی محاسباتی را نقض میکند. توقع ساخت یک هوش کلی مصنوعی بدون درک عملکردش مثل این است که توقع داشته باشیم اگر آسمانخراشها را به اندازهی کافی بلند بسازیم بتوانند پرواز کنند.
در سال ۱۹۵۰ تورینگ توقع داشت این اتفاق تا سال ۲۰۰۰ بیافتد ‘میتوان از تفکر ماشینها سخن گفت بدون اینکه توقع داشته باشیم مورد انتقاد قرار بگیرد.’ در سال ۱۹۶۸ آرتور سی. کلارک توقع داشت این اتفاق تا سال ۲۰۰۱ بیافتد. الان سال ۲۰۱۲ است و هیچکس نتوانسته بهتر از خود تورینگ در برنامهدهی یک AGI عمل کند.
این موضوع گروه اول را شگفتزده نمیکند( گروهی رفتهرفته کوچک شده از مخالفان احتمال به وجود آمدن AGI) ولی افرادی که در گروه دیگر هستند( گروهی که میگوید AGI قریبالوقوع و حتمی است) با وجود چنین تاریخچهای از شکستها، در به در به دنبال توجیهاتی برای تبیین این موضوع هستند یا حداقل بتوانند آن را از طریق منطقی رد کنند و قطعاً به خاطر آشفته نشدن با این حقیقت که هیچوقت نمیتوانند چنین انطباق یا توجیه با اصول عقلانیای از تجربه را( مثل کاری که توقع دارند AGIشان انجام دهد) استنتاج کنند، به دلایل زیادی فکر کردهاند.
خود اصطلاح AGI مثالی از این دلایل است. این حوزه را قبلاً هوش مصنوعی یا AI مینامیدند ولی AI بهتدریج برای توصیف انواع برنامههای رایانهای نامربوط مثل اجراکنندههای بازیهای رایانهای، موتورهای جستجو و رباتهای سخنگو مناسب بود تا اینکه حرف G( کلی) به آن اضافه شد تا دوباره بتوان به نکتهی اصلی اشاره کرد ولی حالا با این مفهوم یا دلالت که یک AGI تنها گونهی هوشمندتری از رباتهای سخنگو است.
دستهی دیگری از انطباقهای عقلانیسازی با خطوط کلی هممسیر است: AGI آنقدرها هم خوب نیست و نرمافزارهای موجود هم به همان اندازه باهوش و یا باهوشتر ولی به نوعی غیرانسانی است و ما هم آنقدر پوچ یا آنقدر از نظر فرهنگی سوگیری داریم که نمیتوانیم اعتبار در خور را به آن بدهیم. این موضوع مقداری کشش یا جاذبه دارد، چون نابخردی دائماً مشهورِ نسبیگرایی فرهنگی و همچنین استعارهی مربوط به آن را فرا میخواند که:« ما انسانها به ایدهآل بودن در میان حیوانات افتخار میکنیم ولی این افتخار نادرست است چون آنها هم زبان، ابزار و… خودآگاهی دارند.»
اهمیت نسبت داده شده به ‘خودآگاه’ شدن اسکاینت را به خاطر میآورید؟ این تنها یک تعبیر غلط دیگر فلسفی است که به نوع خود کافی است تا هر نوع رویکرد امکانپذیر به AGI را مسدود کند. حقیقت این است که تولیدکنندگان امروزی نرمافزار اگر بخواهند به سادگی میتوانند رایانهای را برنامهدهی کنند تا از نظر رفتاری ‘خودآگاهی’ داشته باشد- برای مثال ‘آزمون آینه’ را با موفقیت پشت سر بگذارد تا قادر باشد از یک آینه استفاده کند تا حقایقی دربارهی خودش را استنباط کند. تا جایی که من اطلاع دارم هیچکس این کار را انجام نداده؛ احتمالاً چون مثل قابلیتی جزئی و ناچیز تقریباً بلا استفاده است.
شاید دلیل شهرت بدون استحقاق خودآگاهی برای مرتبط بودن با AGI، این باشد که به یمن قضیهی کورت گودل و اختلافنظرهای متعدد در منطق صوری در قرن بیستم، هر نوع خودارجاعی، شهرتی برای رازهای ماورالطبیعه را به دست آورده است. خودآگاهی هم از این قاعده مستثنی نیست. و اینجا دوباره مسئلهی اصطلاحشناسی مبهم را داریم: اصطلاح ‘خودآگاهی’ دارای بازهی وسیعی از معانی است. در یک سوی مقیاس، مسئلهی فلسفی ماهیت احساسات عینیِ( شخصی)’کوآلیا’ وجود دارد که به شدت به مسئلهی AGI مرتبط است. در سوی دیگر ‘خودآگاهی’ به سادگی چیزی است که وقتی تحت بیهوشکنندههای معمولی قرار میگیریم از دست میدهیم. مشخصاً حیوانات زیادی این نوع خودآگاهی را دارند.
AGI قطعاً قادر به داشتن خودآگاهی است ولی این بدان خاطر است که آنها کلی خواهند بود: آنها قادر به داشتن آگاهی از انواع چیزهای عمیق و ظریف از جمله خودشان هستند. این بدان معنی نیست که میمونهای انسانوار(Ape) که آزمایش آینه را با موفقیت پشت سر میگذرانند چیزی از ویژگیهای ‘هوش کلیای’ سر در میآورند که AGI نسخهای مصنوعی از آن خواهد بود. قطعاً تحقیق شگفتانگیز ریچارد بایرنه درون یادههای(memes) گوریل نشان داده است چطور میمونهای انسانوار قادر به یادگیری رفتارهای کارآمد از یکدیگر هستند بدون اینکه بفهمند این رفتارها به چه دردی میخورد: تبیین چگونگی عملکرد شناخت میمونهای انسانوار واقعاً رفتارگرایانه است.
به طرز کنایهآمیزی آن گروه از توجیهات عقلانی( AGI قبلاً انجام شده/ بدیهی است/ در میمونهای انسانوار وجود دارد/ یک استعارهی فرهنگی است) تصاویر بازتابدهندهای از استدلالهایی است که از گروه AGI غیرممکن است نشأت گرفته است. برای هر استدلالی به صورت ‘نمیتوانید AGI را انجام دهید چون هیچوقت قادر نخواهید بود روح انسانی را برنامهدهی کنید چون ماورالطبیعه است’، گروه AGI آسان است، این توجیه عقلانی را دارد که ‘اگر فکر میکنید که شناخت انسانی از نظر کیفی با شناخت میمونهای انسانوار تفاوت دارد باید به یک روح ماورالطبیعه باور داشته باشید.’
ادامه دارد »»»
ترجمه: امیرحسین سلیمانی/ سایت علمی بیگ بنگ
منبع: aeon.co
لینک کوتاه نوشته : https://bigbangpage.com/?p=73315
با سپاس…
ذهن شلوغ ؛ اصلی ترین مانع خلاقیت
متن بسیار غامض است تلاش زیادی کردم که منظور نویسنده رو درک کنم ولی صادقانه بگویم بعضی از قسمتهای آن برای من هنوز هم مبهم است از نویسنده گان عزیز اینگونه مقالات خواهشمندم که به رونویسی یا ترجمه از یک کتاب یا مقاله بسنده نکرده و حداقل چندین منبع مرتبط با اون مقاله یا کتاب رو که معمولا در بخش کتابشناسی و یا مراجع معرفی شده اند مطالعه کنند تا خود دقیقا آنچه نویسنده بیان میکند رو بفهمند و بعد با فهم از پیش شروع به نوشتن متن و یا مقاله ای از روی متن مربوطه با ابتکار خود بکنند و در آخر به متن اصلی به عنوان مرجع اصلی در مقاله خود اشاره نمایند. با تشکر از زحمات شما عزیزان
دوست عزیز هدف از ترجمه و انتشار چنین مقالاتی ارائهی نظر خود افراد متخصص در حوزهی مربوطه بدون هیچ واسطهای است. حال اگر بعضی از جاهای مقاله به نظر شما مبهم بوده به دلیل طرز نوشتاری نویسندهی اصلی مطلب است. با این حال سادهنویسیهایی صورت گرفته ولی باز به دلیل تخصصی بودن مطلب یک مقدار مقاله سنگین به نظر میرسد و باید از قبل اطلاعاتی برای فهم این مقاله داشت. اگر ایراد نوشتاری هم مشاهده میکنید اطلاع دهید تا تصحیح شود. اگر قسمتهایی از مقاله را متوجه نشدهاید خوشحال میشوم تا جایی که بتوانم به سوال شما پاسخ بدهم.
با تشکر از آقای سلیمانی عزیز
سلام وقت بخیر
میخواستم بدونم مستند Farthest 2017 رو ترجمه نمیکنید؟
این مستند با نمره ۸.۲ از ۱۰ در IMDB یکی از بهترین مستند های منتشر شده در سال ۲۰۱۷ هستش…!