موانع خلاقیت-بخش چهارم

بیگ بنگ: اینکه بگوییم ‘هر چیزی که فعلاً نمی‌دانیم چطور برنامه‌ریزی کنیم هوش انسانی نام دارد’ هم یک جور توجیه عقلانی است. در واقع تصویر منعکس‌کننده‌ای از استدلالی است که توسط فیلسوف، جان سرل( از گروه « غیرممکن‌»‌ها) توسعه داده شده و اشاره می‌کند قبل از اینکه رایانه‌ها وجود داشته باشند، از موتورهای بخار و بعداً سامانه‌های تلگرافی به عنوان استعاره‌ای برای چگونگی کارکرد مغز انسان استفاده می‌شد.

به گزارش بیگ بنگ، “سرل” ادعا می‌کند که امید برای هوش کلی مصنوعی(AGI) به استعاره‌ی بی‌اساس مشابهی متکی است، یعنی ذهن ‘اساساً’ یک برنامه‌ی رایانه‌ای است ولی این یک استعاره نیست: جهان‌شمولی محاسبه از قوانین شناخته‌شده‌ی فیزیک پیروی می‌کند. راجر پنروز پیشنهاد داده مغز از محاسبات کوانتومی یا محاسبات فراکوانتومی‌ای استفاده می‌کند که به فیزیک ِ ناشناخته‌ی فراسوی نظریه‌ی کوانتوم متکی است و این امر شکست در ایجاد هوش مصنوعی بر روی رایانه‌های موجود را تبیین می‌کند.

از ابتدا اینکه AGIها افرادی هستند مثل من و شما به صورت ضمنی در هسته‌ی این ایده  بوده است. اگر برنامه‌ای وجود داشته باشد که فاقد حتی یک قابلیت شناختی‌ای باشد که توصیف‌کننده‌ی آدم‌هاست؛ آن‌وقت طبق تعریف، واجد شرایط یک هوش مصنوعی کلی نخواهد بود. استفاده از مشخصه‌های غیرشناختی( مثل درصد مقدار کربن) برای تعریف شخصیت، باز هم نوعی نژادپرستی مسحوب خواهد شد، اما این حقیقت که قابلیت ایجاد تبیین‌های جدید، از نظر اخلاقی و عقلانی، کارکرد منحصر به فرد و قابل‌توجه مردم( انسان‌ها و AGIها) است و آنها از طریق انتقاد و گمانه‌زنی به این کارکرد دست پیدا کرده‌اند، همه‌چیز را تغییر می‌دهد. در حال حاضر به جای اینکه به صورت حقیقی با شخصیت افراد رفتار شود، این امر اغلب به طور نمادین دیده می‌شود. این خوب نیست. اگر اصطلاح‌شناسی را کنار بگذاریم؛ تفاوت بین مردم واقعی( تعریف شده توسط آن معیار عینی) و نهادهای دیگر، اثرگذاری‌های عظیم اخلاقی و عملی دارد و برای کارکرد تمدنی که شامل هوش مصنوعی است هم امری حیاتی است.

برای مثال فقط این حقیقت که این برنامه، نه فقط یک رایانه بلکه یک شخص است می‌تواند مسائل فلسفی حل‌نشده‌ای را به وجود بیاورد که به محض به وجود آمدن AGIها به مباحثاتی عملی و سیاسی تبدیل خواهد شد. به محض اینکه یک برنامه‌ی هوش مصنوعی در یک رایانه اجرا شود، محروم کردن آن برنامه از رایانه‌اش قتل( یا براساس شرایط، حداقل حبس غیرقانونی یا بردگی) محسوب خواهد شد، درست مثل محرومیت ذهن انسان از بدن‌اش؛ ولی برخلاف یک جسم انسانی، یک برنامه‌ی AGI می‌تواند با لمس یک دکمه به چند رایانه رونوشت شود. آیا آن برنامه‌ها در حالی که هنوز مراحل یکسانی را اجرا می‌کنند( برای مثال قبل از اینکه به خاطر انتخابات تصادفی یا تجارب متفاوت افتراق پیدا کنند) شخص یکسانی خواهند بود یا چند نفر مختلف هستند؟ آیا به آنها یک حق رأی داده می‌شود یا چند تا؟ آیا حذف یکی از آنها قتل یا یک تجاوز جزئی به حساب می‌آید؟ و اگر یک برنامه‌نویس سرکش احتمالاً به صورت غیرقانونی میلیاردها فرد AGI(چه روی یک رایانه یا چندین رایانه) متفاوت درست کند چه اتفاقی خواهد افتاد؟ آنها هنوز  افرادی با حقوق فردی هستند. آیا به تمامی آنها حق رأی تعلق می‌گیرد؟

به علاوه در رابطه با AGIها، مثل هر نهاد دیگری که خلاقیت دارد، باید تقریباً تمام معانی ضمنی موجود واژه‌ی ‘برنامه‌دهی’ را فراموش کنیم. اینکه با AGIها مثل هر برنامه‌ی رایانه‌ای دیگر  برخورد و رفتار کنیم، شامل شستشوی مغزی، برده‌داری و استبداد خواهد بود. و ظلم در حق کودکان هم مثل ‘برنامه‌دهی’ یک هوش مصنوعی که در حال اجرا است، برخلاف تمام برنامه‌دهی‌های دیگر، شامل آموزش و مباحثه( به صورت اخلاقی و واقعی) است. نادیده گرفتن حقوق و شخصیت هوش مصنوعی نه تنها مثال شاخصی از شرارت خواهد بود؛ بلکه دستورالعملی برای فاجعه است: موجودات خلاق را نمی‌توان برای همیشه به بردگی گرفت.

بعضی از افراد می‌خواهند بدانند که آیا باید به اربابان رباتی جدیدمان خوش‌آمد بگوییم یا نه. بعضی امیدوارند بیاموزند چطور می‌توانیم برنامه‌دهی آنها را مجهز کنیم تا آنها را به طور اساسی از آسیب‌رسانی به انسان‌ها ناتوان کنیم( مثل قوانین رباتیک آیزاک آسیموف) یا مانع دستیابی آنها به نظریه‌ای شویم که می‌گوید جهان باید به گیره‌های کاغذ تبدیل شود(همان‌طور که توسط نیک بوستروم تصور شده است). هیچ‌کدام از اینها مشکل اصلی نیست. همیشه اینطور بوده و گفته شده که یک شخص خلاق و استثنایی می‌تواند( از نظر اقتصادی، تفکراتی یا هر چیز دیگری) از باقی انسانها هزاران برابر سودمندتر باشد، و چنین فردی که می‌تواند آسیب‌های عظیمی بزند است که قدرت‌هایش را به جای نیکی به شرارت تبدیل می‌کند.

این پدیده هیچ‌ ربطی به AGIها ندارد. نبرد بین ایده‌های نیکی و پلیدی به اندازه‌ی گونۀ ما قدیمی است و صرف نظر از سخت‌افزاری که دارید روی آن اجرا می‌شوید ادامه خواهد یافت. موضوع این است: می‌خواهیم نهادهایی هوشمند با ایده‌های ( اخلاقاً) خوب، همیشه نهادهای هوشمند شرور( زیستی یا مصنوعی) را شکست دهند؛ ولی جایزالخطا هستیم و مفهوم خودمان از واژه‌ی « نیکی» به اصلاحی پیوسته نیاز دارد. برای ارتقاء این اصلاح چطور باید جامعه را سازمان‌دهی کرد؟ اینکه بگوییم ‘تمام نهادهای هوشمند را به بردگی بگیریم’ به طرز فاجعه‌باری پاسخ اشتباه است و ‘به بردگی گرفتن تمام نهادهای هوشمندی که شبیه ما نیستند’ هم از مورد قبلی خیلی بهتر نیست.

یک پی‌آمد این است که دیگر نباید به آموزش(انسان‌ها یا همانند AGIها) به صورت دستورالعمل(instruction) نگاه کنیم تا از طریق آن دانش فعلی را بدون تغییری انتقال دهیم و کاری کنیم ارزش‌های موجود به صورت مطیعانه تصویب شود. همان‌طور که پاپر در بافت اکتشاف علمی نوشت ولی به همان مقدار در برنامه‌دهی AGIها و آموزش کودکان هم کاربرد دارد: ‘از بیرون چیزی به نام دستورالعمل وجود ندارد… ما با رونوشت‌برداری از آنها یا استنباط استقرایی آنها از مشاهده یا با هر روش دیگری از دستورالعمل‌های محیط، حقایق یا اثرات جدید را  کشف نمی‌کنیم. بلکه از روش آزمون و حذف خطا استفاده می‌کنیم’. به عبارت دیگر گمانه‌زنی و انتقاد. یادگیری باید چیزی باشد که نهادهای هوشمندِ تازه ایجاد شده انجام می‌دهند و برای خودشان کنترل می‌کنند.

دلیل اینکه به تمام این موضوعات فلسفی نخواهم پرداخت این نیست که بترسم قبل از اینکه پیچیدگی فلسفی برای درک هوش مصنوعی و ادغام‌شان در درون تمدن را توسعه داده باشیم، AGI اختراع شده باشد. دقیقاً برعکس: متقاعد شده‌ام که کل مسئله‌ی توسعه‌ی هوش مصنوعی موضوعی فلسفی است، نه علم رایانه یا کاراندام‌شناختی‌عصبی، و پیشرفت فلسفی‌ای که برای ادغام آینده‌شان ضروری است هم پیش‌نیازی برای توسعه‌ی آنها در آغاز کار است.

عدم پیشرفت در AGI به خاطر بن‌بست‌های عظیمِ تصورات غلط است. بدون معرفت‌شناسی پاپری حتی‌ نمی‌توان حدس زد چه کارکرد با جزئیاتی باید بدست بیاید تا یک هوش مصنوعی ایجاد کنیم و معرفت‌شناسی پاپری هم چندان شناخته‌شده نیست چه برسد به اینکه آن‌قدر خوب درک شده باشد تا بتوان آن را به کار گرفت. تفکر به یک AGI به عنوان دستگاهی برای ترجمه‌ی تجارب، پاداش‌ها و تنبیه‌ها به ایده‌ها( یا بدتر، فقط به رفتارها) مثل تلاش برای درمان بیماری‌های عفونی با متعادل‌ساختن خلط‌های چهارگانه‌ی جسمانی(bodily humours)  است: بیهوده است چون ریشه در یک جهان‌بینی عتیقه و شدیداً اشتباه دارد.

بدون درک این موضوع که کارکرد یک هوش مصنوعی به صورت کیفی با کارکرد تمام برنامه‌های رایانه‌ای دیگر تفاوت دارد، در حوزه‌ای کاملاً متفاوت کار می‌کنیم. اگر کسی در ساخت برنامه‌هایی کار کند که ‘تفکرشان’ اساساً قادر به نقض قیود از پیش تعیین‌شده نباشد، آن شخص دارد تلاش می‌کند شاخصه‌ی تعریف‌کننده‌ی یک موجود هوشمند و یک شخص که خلاقیت است را با مهندسی حذف کند.

پاک‌سازی این بن‌بست به خودی خود پاسخ را فراهم نخواهد کرد. با این حال این پاسخ( اگر برحسب شرایط ذکر شده به وجود آمده باشد) نمی‌تواند آن‌قدرها هم سخت باشد. باز پی‌آمد دیگری از درک متفاوت بودن کیفی قابلیتِ هدف‌گیری این است که چون انسان‌ها دارای این مشخصه هستند و میمون‌های انسان‌وار نه، اطلاعات برای چگونگی به دست آوردن آن باید در تعداد نسبتاً کوچکی از تفاوت‌های بین دی‌ان‌ای انسان‌ها و شامپانزه‌ها رمزگذاری شده باشد. بنابراین از این یک حیث می‌توانم با گروه AGI حتمی و قریب‌الوقوع است موافق باشم: محتمل است که فقط یک ایده‌ی منفرد بین ما و پیشرفت قرار گرفته باشد. ولی باید یکی از بهترین ایده‌های تاریخ باشد.

نویسنده: دیوید دویچ فیزیکدانی در دانشگاه آکسفورد و همکار انجمن سلطنتی است.

پایان

مطالعه قسمت اول

مطالعه قسمت دوم

مطالعه قسمت سوم

ترجمه: امیرحسین سلیمانی/ سایت علمی بیگ بنگ

منبع: aeon.co

(7 نفر , میانگین : 4٫57 از 5)
لینک کوتاه مقاله : http://bigbangpage.com/?p=74029
امیر حسین سلیمانی

امیر حسین سلیمانی

کاردانی عمران، علاقه‌مند به فیزیک، کیهان‌شناسی، عصب‌شناسی و فلسفه‌ی ذهن، متافیزیک و فلسفه است. و بعنوان نویسنده و مترجم علمی- نجومی در وب سایت بیگ بنگ فعالیت می کند.

شما ممکن است این را هم بپسندید

یک پاسخ

  1. بهنام طیبی گفت:

    به نظرم مطلب مقداری پیچیده بود و احتمالا نویسنده بجای نتیجه گیری در انتهای مطلب فقط بررسی انجام داده تا نتیجه گیری فقط به عهده مخاطب باشه

پاسخ دهید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *