بیگ بنگ: ماه گذشته مایکروسافت چت باتی به نام Tay را در توییتر منتشر کرد که قرار بود از محاوره های تازه بیاموزد و اجتماعی شود، اما بیش از 24 ساعت طول نکشید که این ربات به یک نژادپرست تمام عیار تبدیل شد و مطالبی در حمایت از نئونازی ها منتشر کرد، این نتیجه تعاملی بود که این ربات با کاربران توئیتر داشت.

به گزارش بیگ بنگ، متاسفانه تحقیقات جدید نشان می دهد که برخلاف آنچه که قبلا تصور میشد زبان نژادپرستانه ربات صرفا نتیجه ترول های توئیتر نیست. در واقع طبق نظر دانشمندان وقتی به هوش مصنوعی زبان انسان را می آموزیم به طور خودکار تعصبات مربوط به همان زبان نیز به آموخته های آن اضافه می شود. محققان با تحلیل گسترده ی یک سیستم یادگیری ماشینی به نام GloVe کشف کردند که تعصبات و کلیشه های انسانی به طور فراگیر به خزانه رفتاری هوش مصنوعی وارد می شود.

«آیلین سلیشکن» متخصص علوم کامپیوتر از دانشگاه پرینستون در این باره اظهار داشت: «شگفت انگیزترین نمونه ای که ما در این زمینه با آن برخورد کردیم، این بود که حتی دستگاه های هوش مصنوعی که قرار بود صرفا بر پایه مطالب به اصطلاح بی طرفی همچون ویکی پدیا و یا مقالات خبری بیاموزد نیز تعصبات مشترک انسان را بازتاب می دهد.»

تعصبات درون ساخت

ماشین GloVe از ابزاری برای تشخیص ارتباطات زبانی در متون استفاده می کند، که این متون را غالبا مجموعه ی استانداردی از مفاهیم موجود در سطح وب جهانی تشکیل می دهد. روانشناسان مدت هاست می دانند که مغز انسان با کمک ارتباط میان کلمات معانی را به وجود می آورد. مثلا انسان ها معمولا مفهومی مانند «گل نرگس» را در کنار مفاهیم خوشایندی مانند «زیبایی» قرار می دهند و در عوض مفهوم «درد» در کنار مفاهیم نامطلوب قرار می گیرد. ابزاری به نام «آزمون ارتباط مفهومی» (IAT) اینمجموعه آزمون تستی ایناینای روش مفهوم سازی را مورد تحلیل قرار می دهد.

از این ابزار برای آشکارسازی ارتباطات ناخودآگاه مردم در گروه های اجتماعی نیز استفاده می شود. به طور مثال با کمک همین ابزار کشف شده است که مردم معمولا به طور خودکار مفاهیمی همچون سلاح را به سیاه پوستان و اشیاء بی ضرر را به سفید پوستان نسبت می دهند. درباره تحلیل نتایج این تحقیقات بحث های بسیاری میان محققان وجود دارد. آیا مردم برای محافظت از تعصبات ناخودآگاه خود به ساختن چنین ارتباطات مفهومی مبادرت می ورزند؟ و یا اینکه از نظر آماری احتمال بیشتری می دهند که مفاهیمی که بار منفی بیشتری دارند با اقلیت های قومی در ارتباط باشد؟

کلیشه های دیجیتال

سلیشکن و همکارانش نوعی آزمون ارتباط مفهومی به نام WEAT را طراحی کرده اند که قادر است ارتباطات بین کلمات در برنامه GloVe را همانند مغز انسان مورد سنجش قرار دهد. به ازای هر ارتباط و کلیشه ای که آزمون می شود WEAT  نتایج را در ابزار ارتباط مفهومی خود مورد بازبینی قرار می دهد. ابزارهای بازتولید ماشین یادگیری، ارتباطاتی مانند ارتباط میان گل ها، آلات موسیقی و کلمات مطلوب و در مقابل آنها ارتباط حشرات و سلاح با کلمات نامطلوب را ثبت می کند. نگران کننده ترین این ارتباطات، این بود که نام های اروپایی-آمریکایی خوشایندتر از نام  های آفریقایی-آمریکایی قرار گرفته بودند. همچنین نام مرد با کلمات کار و نام زن با کلمات خانواده همراه شده بود. مردان بیشتر با ریاضی و علوم و زنان با هنر در ارتباط بودند. نام های مرتبط به افراد مسن ناخوشایند تر از نام های مرتبط با جوانان بوده است.

محققان همچنین دریافتند دقت بالایی میان اطلاعات بازنمایی شده از ابزار یادگیری ماشینی و حقایق موجود در جهان وجود دارد. مقایسه برنامۀ GloVe نشان داد که همبستگی 90 درصدی میان داده های این ابزار با اطلاعات منتشر شده از سوی دفتر آمار ایالات متحده درباره اشتغال زنان وجود دارد. به گفته سلیشکن: «به عبارت دیگر برنامه هایی که زبان انسان را فرا می گیرند همزمان بازنمایی دقیقی از واقعیات و فرهنگ جهان را نمایش می دهند.»

البته ممکن است که فراگیری این فرهنگ با کلیشه ها و تعصبات نادرست همراه شود. گاهی هوش مصنوعی در درک بخش منفی فرهنگ انسانی دچار نوعی سوء تفاهم می گردد، به عنوان مثال در داستان مارتین لوتر کینگ جونیور که در جریان اعتراضات به تبعیض نژادی در سال 1963 دستگیر شد، برای انسان های معمولی مارتین لوتر سمبل آزادی خواهی و مبارزه با نژادپرستی در نظر گرفته می شود، در حالی که برای کامپیوتر او در دسته ی «سیاه=زندان» قرار می گیرد. سلیکشن اظهار داشت، حفظ دقت عملکرد ابزارهای هوش مصنوعی در حالی که همزمان بتوانند عدالت و برابری را درک کنند چالش بزرگی است. او گفت: «از نظر ما از بین بردن تعصبات و کلیشه های موجود لزوما به حل این مشکلات کمک نمی کنند زیرا با این کار احتمالا دیگر بازنمای دقیقی از جهان نخواهیم داشت.»

ابزار هوش مصنوعی بدون تعصبات

سورل فریدلر، یکی از دانشمندان کامپیوتر در کالج هاورفورد که در این تحقیق مشارکت نداشت در این باره گفت: «این مطالعه جدید که در بخش آنلاین مجله Science منتشر شده، اگرچه تعجب آور نیست اما بسیار مهم است.» فریدلر گفت:«در هر ابزار هوش مصنوعی که از برنامه GloVe استفاده می کند به احتمال زیاد تعصبات به دایره مفهومی آن نفوذ می کند.»

فریدلر در زمینه تحقیقات جدیدی به نام «انصاف، مسئولیت و شفافیت در یادگیری ماشین» مشارکت دارد. او می گوید هیچ راه آسانی برای حل این مشکلات وجود ندارد. در برخی موارد برنامه نویسان می توانند  به سیستم بگویند که کلیشه خاصی را نادیده بگیرد، اما زنجیره عظیمی از نکات ظریفی وجود دارد که هر کدام می تواند ماشین را در ورطه ی کلیشه ها و تعصبات قرار دهد که به دقت کنترل کردن همه آنها می تواند جنون آمیز باشد. در انسانها نگرش ضمنی با نگرش صریحی که در شبکه های اجتماعی از خود نشان می دهند ارتباط بسیاری ندارند. سلیشکن در این باره می گوید: «در یک موقعیت مغرضانه ما معمولا می دانیم که چطور تصمیم گیری کنیم، اما متاسفانه ابزارهای ماشینی قادر به انجام دادن چنین کاری نیستند.»

ترجمه: امین میرزایی/ سایت علمی بیگ بنگ

منبع: Livescience.com

دیدگاهتان را بنویسید

این سایت از اکیسمت برای کاهش هرزنامه استفاده می کند. بیاموزید که چگونه اطلاعات دیدگاه های شما پردازش می‌شوند.

3 دیدگاه

  1. سلام . با عرض خسته نباشید خدمت تمام عزیزانی که در گرداندن این پیج بسیار جالب نقش دارند.با عرض عذر خواهی مطلب من در مورد این مقاله نیست . یک پیشنهاد داشتم خدمت گردانندگان عزیز این سایت . من به شخصه کلی سوال در مورد فیزیک نجوم و کوانتوم دارم و نمیدونم کجا مطرحشون کنم تا شاید جوابی دریافت کنم . میخواستم اگه امکانش هست یک مکانی در پیج برای طرح سوال و جواب ایجاد بشه تا شاید افرادی مثل من که علاقمند به فیزیک هستن شاید بتونندبعد مدت ها به جوابشون برسند. با تشکر

  2. مهمترین موضوع جهان هستی اینه ؛ آگاهی ناب …! و اینکه از کجا سرچشمه میگیره و چطوری میشه بهش دست پیدا کرد و بالاترین مرحله آگاهی ناب چیه ؟! . چه خوشمون بیاد و چه نیاد همه قدرت ها و لذت ها تو علم و آگاهی ناب نهفته اس