بیگ بنگ: استیون هاوکینگ فیزیکدان مشهور بریتانیایی در سخنرانی جدیدی که در دانشگاه کمبریج داشته است، ادعا کرد خلق هوش مصنوعی می‌تواند بهترین یا بدترین پدیده‌ای باشد که تاکنون برای انسان رخ داده‌ است.

stephen-hawkingبراساس گزارش ساينس الرت به نقل از همشهری، اين سخنراني در مراسم افتتاحيه مركز جديد آينده هوش لورهولم انجام گرفت، مركزي كه گروهي از برترين دانشمندان جهان تلاش خواهند كرد به پرسش‌هايي درباره آينده روبات‌ها و هوش مصنوعي پاسخ دهند، پديده‌هايي كه به اعتقاد هاوكينگ بايد مطالعه زيادي روي آنها انجام گيرد.

هاوكينگ در سخنراني‌اش گفت: ما مدت زمان زيادي را صرف مطالعه تاريخ كرده‌ايم، و بيايد با اين حقيقت مواجه شويم، بيشترين بخش آن تاريخ حماقت‌هاي ماست. اما با وجود تمام زماني كه صرف نگاه به گذشته و بررسي خطاهاي گذشته ساخته‌ايم، دست از تكرار اين خطاها برنمي‌داريم و آنها را دوباره و دوباره تكرار مي‌كنيم. از اين رو اينكه گروهي تصميم دارند به جاي گذشته به مطالعه آينده بپردازند رويداد بسيار خوبي است.

اين اولين‌باري نيست كه هاوكينگ نسبت به هوش مصنوعي ابراز نگراني كرده‌ است. سال گذشته نيز وي به همراه ايلان ماسك بنيانگذار شركت تسلا موتورز و گروهي ديگر از متخصصان در نامه‌اي سرگشاده از دولت‌ها درخواست كردند تا مانع از ساخت سلاح‌هاي خودكاري شوند كه ممكن است روزي به دشمن انسان تبديل شوند. وي پيش‌تر از اين نيز اعلام كرده‌ بود توسعه هوش مصنوعي كامل مي‌تواند فصل پاياني حيات نژاد بشر باشد. وي در سخنراني اخير خود تاييد كرد كه هنوز نگران سلاح‌هاي قدرتمند خودكار و شيوه هاي جديدي كه عده‌اي معدود براي سركوب تعداد زيادي از انسان‌ها به كار مي‌گيرند و هوش مصنوعي به كار گرفته شده در آنها است.

artificial-intelligenceاما به گفته هاوكينگ اگر به اين موضوع‌ها فكر شود و امروز نسبت به آنها موضع‌گيري شود،‌ فناوري از اين قابليت برخوردار است كه در مسير خوب به كار گرفته شود. به گفته هاوكينگ اگر ذهن انسان را نيز هوش مصنوعي تقويت كند، چگونه مي‌توان آينده و دستاوردهاي آينده را پيش‌بيني كرد. هاوكينگ در بخشي از سخنراني خود گفت: شايد با به كار گرفتن ابزارهاي اين انقلاب جديد فناورانه بتوانيم برخي از خسارت‌هايي كه در دروان صنعتي شدن به طبيعت وارد آورده‌ايم را جبران كنيم و بتوانيم سرانجام بيماري و فقر را ريشه‌كن سازيم.

مركز هوش آينده لورهولم دانشگاه كمبريج با بودجه‌اي 12 ميليون دلاري با هدف اجراي پروژه‌هاي تحقيقاتي درباره قابليت‌هاي آينده هوش مصنوعي و بررسي و تحليل خطرهاي احتمالي آن افتتاح شده‌است. اين مركز علاوه بر تمركز روي خطراتي مانند تغييرات اقليمي و جنگ‌ها بر موضوع خطراتي كه ممكن است روبات‌ها و هوش مصنوعي براي انسان به دنبال داشته‌باشند نيز متمركز خواهد‌شد.

سایت علمی بیگ بنگ / منبع: sciencealert.com

پاسخ دادن به Uou لغو پاسخ

این سایت از اکیسمت برای کاهش هرزنامه استفاده می کند. بیاموزید که چگونه اطلاعات دیدگاه های شما پردازش می‌شوند.

2 دیدگاه

  1. هر کشوری به اینجور تکنولوژی ای دست پیدا کنه بطوری که بتونه ربات هایی بسازه که مثل انسان فکر میکنه مطمئنن برای کار خیر استفاده نمیکنن یا اگرم هدفشون سودرسانی باشه بازهم یه عده پیدا میشن که از سر لجبازی ربات ها رو به جون ادما بندازن در واقع این خود ماییم که باعث نابودی نثلمون میشیم نه صرفا ربات ها بوسیله هوششون… به نظر شما هدف از ساخت هواپیما چی بوده؟ همچنین استفاده از اورانیوم؟ همین دوتا کشف اون بلا رو سر ناکازاکی اوردن …در واقع این اکتشافات به خودی خود خطرناک نیستن بلکه این انسان ها هستن که شرایط رو برای اثار مخرب اونا فراهم میکنن… حالا فک کنین یه لشگر از رباتها راه بیفتن و هرچی سر راهشونه نابود کنن… احتمال از دسترس خارج شدن همچین ربات هایی اگر کم باشد نابودی حداقل 90 درصد نسل بشر دور از انتظار نیست…

  2. چطور میتونه نسل بشر رو نابود کنه ؟؟ اخه در هر صورت توسط انسان برنامه نویسی میشه! بعد چطوری میتونه خودشو بازسازی کنه؟ انسان از ربات های هوشمند میتونه بی نهایت استفاده بکنه و این درسته ..