بیگ بنگ: اینکه بگوییم ‘هر چیزی که فعلاً نمیدانیم چطور برنامهریزی کنیم هوش انسانی نام دارد’ هم یک جور توجیه عقلانی است. در واقع تصویر منعکسکنندهای از استدلالی است که توسط فیلسوف، جان سرل( از گروه « غیرممکن»ها) توسعه داده شده و اشاره میکند قبل از اینکه رایانهها وجود داشته باشند، از موتورهای بخار و بعداً سامانههای تلگرافی به عنوان استعارهای برای چگونگی کارکرد مغز انسان استفاده میشد.
به گزارش بیگ بنگ، “سرل” ادعا میکند که امید برای هوش کلی مصنوعی(AGI) به استعارهی بیاساس مشابهی متکی است، یعنی ذهن ‘اساساً’ یک برنامهی رایانهای است ولی این یک استعاره نیست: جهانشمولی محاسبه از قوانین شناختهشدهی فیزیک پیروی میکند. راجر پنروز پیشنهاد داده مغز از محاسبات کوانتومی یا محاسبات فراکوانتومیای استفاده میکند که به فیزیک ِ ناشناختهی فراسوی نظریهی کوانتوم متکی است و این امر شکست در ایجاد هوش مصنوعی بر روی رایانههای موجود را تبیین میکند.
از ابتدا اینکه AGIها افرادی هستند مثل من و شما به صورت ضمنی در هستهی این ایده بوده است. اگر برنامهای وجود داشته باشد که فاقد حتی یک قابلیت شناختیای باشد که توصیفکنندهی آدمهاست؛ آنوقت طبق تعریف، واجد شرایط یک هوش مصنوعی کلی نخواهد بود. استفاده از مشخصههای غیرشناختی( مثل درصد مقدار کربن) برای تعریف شخصیت، باز هم نوعی نژادپرستی مسحوب خواهد شد، اما این حقیقت که قابلیت ایجاد تبیینهای جدید، از نظر اخلاقی و عقلانی، کارکرد منحصر به فرد و قابلتوجه مردم( انسانها و AGIها) است و آنها از طریق انتقاد و گمانهزنی به این کارکرد دست پیدا کردهاند، همهچیز را تغییر میدهد. در حال حاضر به جای اینکه به صورت حقیقی با شخصیت افراد رفتار شود، این امر اغلب به طور نمادین دیده میشود. این خوب نیست. اگر اصطلاحشناسی را کنار بگذاریم؛ تفاوت بین مردم واقعی( تعریف شده توسط آن معیار عینی) و نهادهای دیگر، اثرگذاریهای عظیم اخلاقی و عملی دارد و برای کارکرد تمدنی که شامل هوش مصنوعی است هم امری حیاتی است.
برای مثال فقط این حقیقت که این برنامه، نه فقط یک رایانه بلکه یک شخص است میتواند مسائل فلسفی حلنشدهای را به وجود بیاورد که به محض به وجود آمدن AGIها به مباحثاتی عملی و سیاسی تبدیل خواهد شد. به محض اینکه یک برنامهی هوش مصنوعی در یک رایانه اجرا شود، محروم کردن آن برنامه از رایانهاش قتل( یا براساس شرایط، حداقل حبس غیرقانونی یا بردگی) محسوب خواهد شد، درست مثل محرومیت ذهن انسان از بدناش؛ ولی برخلاف یک جسم انسانی، یک برنامهی AGI میتواند با لمس یک دکمه به چند رایانه رونوشت شود. آیا آن برنامهها در حالی که هنوز مراحل یکسانی را اجرا میکنند( برای مثال قبل از اینکه به خاطر انتخابات تصادفی یا تجارب متفاوت افتراق پیدا کنند) شخص یکسانی خواهند بود یا چند نفر مختلف هستند؟ آیا به آنها یک حق رأی داده میشود یا چند تا؟ آیا حذف یکی از آنها قتل یا یک تجاوز جزئی به حساب میآید؟ و اگر یک برنامهنویس سرکش احتمالاً به صورت غیرقانونی میلیاردها فرد AGI(چه روی یک رایانه یا چندین رایانه) متفاوت درست کند چه اتفاقی خواهد افتاد؟ آنها هنوز افرادی با حقوق فردی هستند. آیا به تمامی آنها حق رأی تعلق میگیرد؟
به علاوه در رابطه با AGIها، مثل هر نهاد دیگری که خلاقیت دارد، باید تقریباً تمام معانی ضمنی موجود واژهی ‘برنامهدهی’ را فراموش کنیم. اینکه با AGIها مثل هر برنامهی رایانهای دیگر برخورد و رفتار کنیم، شامل شستشوی مغزی، بردهداری و استبداد خواهد بود. و ظلم در حق کودکان هم مثل ‘برنامهدهی’ یک هوش مصنوعی که در حال اجرا است، برخلاف تمام برنامهدهیهای دیگر، شامل آموزش و مباحثه( به صورت اخلاقی و واقعی) است. نادیده گرفتن حقوق و شخصیت هوش مصنوعی نه تنها مثال شاخصی از شرارت خواهد بود؛ بلکه دستورالعملی برای فاجعه است: موجودات خلاق را نمیتوان برای همیشه به بردگی گرفت.
بعضی از افراد میخواهند بدانند که آیا باید به اربابان رباتی جدیدمان خوشآمد بگوییم یا نه. بعضی امیدوارند بیاموزند چطور میتوانیم برنامهدهی آنها را مجهز کنیم تا آنها را به طور اساسی از آسیبرسانی به انسانها ناتوان کنیم( مثل قوانین رباتیک آیزاک آسیموف) یا مانع دستیابی آنها به نظریهای شویم که میگوید جهان باید به گیرههای کاغذ تبدیل شود(همانطور که توسط نیک بوستروم تصور شده است). هیچکدام از اینها مشکل اصلی نیست. همیشه اینطور بوده و گفته شده که یک شخص خلاق و استثنایی میتواند( از نظر اقتصادی، تفکراتی یا هر چیز دیگری) از باقی انسانها هزاران برابر سودمندتر باشد، و چنین فردی که میتواند آسیبهای عظیمی بزند است که قدرتهایش را به جای نیکی به شرارت تبدیل میکند.
این پدیده هیچ ربطی به AGIها ندارد. نبرد بین ایدههای نیکی و پلیدی به اندازهی گونۀ ما قدیمی است و صرف نظر از سختافزاری که دارید روی آن اجرا میشوید ادامه خواهد یافت. موضوع این است: میخواهیم نهادهایی هوشمند با ایدههای ( اخلاقاً) خوب، همیشه نهادهای هوشمند شرور( زیستی یا مصنوعی) را شکست دهند؛ ولی جایزالخطا هستیم و مفهوم خودمان از واژهی « نیکی» به اصلاحی پیوسته نیاز دارد. برای ارتقاء این اصلاح چطور باید جامعه را سازماندهی کرد؟ اینکه بگوییم ‘تمام نهادهای هوشمند را به بردگی بگیریم’ به طرز فاجعهباری پاسخ اشتباه است و ‘به بردگی گرفتن تمام نهادهای هوشمندی که شبیه ما نیستند’ هم از مورد قبلی خیلی بهتر نیست.
یک پیآمد این است که دیگر نباید به آموزش(انسانها یا همانند AGIها) به صورت دستورالعمل(instruction) نگاه کنیم تا از طریق آن دانش فعلی را بدون تغییری انتقال دهیم و کاری کنیم ارزشهای موجود به صورت مطیعانه تصویب شود. همانطور که پاپر در بافت اکتشاف علمی نوشت ولی به همان مقدار در برنامهدهی AGIها و آموزش کودکان هم کاربرد دارد: ‘از بیرون چیزی به نام دستورالعمل وجود ندارد… ما با رونوشتبرداری از آنها یا استنباط استقرایی آنها از مشاهده یا با هر روش دیگری از دستورالعملهای محیط، حقایق یا اثرات جدید را کشف نمیکنیم. بلکه از روش آزمون و حذف خطا استفاده میکنیم’. به عبارت دیگر گمانهزنی و انتقاد. یادگیری باید چیزی باشد که نهادهای هوشمندِ تازه ایجاد شده انجام میدهند و برای خودشان کنترل میکنند.
دلیل اینکه به تمام این موضوعات فلسفی نخواهم پرداخت این نیست که بترسم قبل از اینکه پیچیدگی فلسفی برای درک هوش مصنوعی و ادغامشان در درون تمدن را توسعه داده باشیم، AGI اختراع شده باشد. دقیقاً برعکس: متقاعد شدهام که کل مسئلهی توسعهی هوش مصنوعی موضوعی فلسفی است، نه علم رایانه یا کاراندامشناختیعصبی، و پیشرفت فلسفیای که برای ادغام آیندهشان ضروری است هم پیشنیازی برای توسعهی آنها در آغاز کار است.
عدم پیشرفت در AGI به خاطر بنبستهای عظیمِ تصورات غلط است. بدون معرفتشناسی پاپری حتی نمیتوان حدس زد چه کارکرد با جزئیاتی باید بدست بیاید تا یک هوش مصنوعی ایجاد کنیم و معرفتشناسی پاپری هم چندان شناختهشده نیست چه برسد به اینکه آنقدر خوب درک شده باشد تا بتوان آن را به کار گرفت. تفکر به یک AGI به عنوان دستگاهی برای ترجمهی تجارب، پاداشها و تنبیهها به ایدهها( یا بدتر، فقط به رفتارها) مثل تلاش برای درمان بیماریهای عفونی با متعادلساختن خلطهای چهارگانهی جسمانی(bodily humours) است: بیهوده است چون ریشه در یک جهانبینی عتیقه و شدیداً اشتباه دارد.
بدون درک این موضوع که کارکرد یک هوش مصنوعی به صورت کیفی با کارکرد تمام برنامههای رایانهای دیگر تفاوت دارد، در حوزهای کاملاً متفاوت کار میکنیم. اگر کسی در ساخت برنامههایی کار کند که ‘تفکرشان’ اساساً قادر به نقض قیود از پیش تعیینشده نباشد، آن شخص دارد تلاش میکند شاخصهی تعریفکنندهی یک موجود هوشمند و یک شخص که خلاقیت است را با مهندسی حذف کند.
پاکسازی این بنبست به خودی خود پاسخ را فراهم نخواهد کرد. با این حال این پاسخ( اگر برحسب شرایط ذکر شده به وجود آمده باشد) نمیتواند آنقدرها هم سخت باشد. باز پیآمد دیگری از درک متفاوت بودن کیفی قابلیتِ هدفگیری این است که چون انسانها دارای این مشخصه هستند و میمونهای انسانوار نه، اطلاعات برای چگونگی به دست آوردن آن باید در تعداد نسبتاً کوچکی از تفاوتهای بین دیانای انسانها و شامپانزهها رمزگذاری شده باشد. بنابراین از این یک حیث میتوانم با گروه AGI حتمی و قریبالوقوع است موافق باشم: محتمل است که فقط یک ایدهی منفرد بین ما و پیشرفت قرار گرفته باشد. ولی باید یکی از بهترین ایدههای تاریخ باشد.
نویسنده: دیوید دویچ فیزیکدانی در دانشگاه آکسفورد و همکار انجمن سلطنتی است.
پایان
ترجمه: امیرحسین سلیمانی/ سایت علمی بیگ بنگ
منبع: aeon.co
لینک کوتاه نوشته : https://bigbangpage.com/?p=74029
به نظرم مطلب مقداری پیچیده بود و احتمالا نویسنده بجای نتیجه گیری در انتهای مطلب فقط بررسی انجام داده تا نتیجه گیری فقط به عهده مخاطب باشه