نحوۀ ساخت ماشین یادگیری که درک می کند!
بیگ بنگ: ممکن است شنیده باشید که الگوریتم ها دنیا را احاطه کرده اند. اما این الگوریتم ها امروزه چگونه عمل می کنند؟ در اینجا ما نگاهی به الگوریتم های کار می اندازیم.
به گزارش بیگ بنگ، الگوریتم ماشین های یادگیری کورکورانه برای هدف ریاضی تعیین شده توسط طراحان آنها کار می کنند. ضروری است که این کار، رفتار اخلاقی را در نظر بگیرد. چنین سیستم هایی از محبوبیت بسیاری برخوردارند. شرکت ها از آنها استفاده می کنند تا تصمیم بگیرند که شما چه خبری را ببینید و یا با چه کسی به صورت آنلاین قرار بگذارید.
دولت ها شروع به گسترش تولید ماشین های یادگیری برای کمک به ارائه خدمات دولتی و انتخاب افراد برای بازرسی نموده اند. با این حال، الگوریتم هایی که این سیستم ها را اداره می کنند بسیار ساده تر از آن می باشند که شما ممکن است تصور کنید. آنها با یک ماشین حساب جیبی بیشتر از ربات علمی- تخیلی رمان آیزاک آسیموف وجه اشتراک دارند. به طور پیش فرض، آنها زمینۀ فعالیت و پیامدهای اخلاقی تصمیمات خود را درک نمی کنند.
پیش بینی های الگوریتم ماشین یادگیری از کلیت بخشیدن به مثال داده می شود، و نه دانش کارشناس. به عنوان مثال، یک الگوریتم ممکن است از وضعیت مالی شما برای پیش بینی شانس شما به طور پیش فرض در وام استفاده کند. این الگوریتم در مورد امور مالی مشتریان تاریخی که پیش فرض را انجام داده یا نداده باشند، آموزش داده می شود. به همین علت، سیستم اخلاقی یک ماشین یادگیری باید به عنوان یک فرمول ریاضی صریح ارائه شود و این مسئله، کار ساده ای نیست.
یادگیری از داده ها
جایی که من کار می کنم، سیستم ماشین های یادگیری را برای دولت و همچنین شرکت های داخلی و خارجی طراحی و ساخته است که شامل چندین پروژه است که در آن رفتار محصول، دارای پیامدهای اخلاقی است. یک دانشگاه که تصمیم می گیرد به رویکرد پیش رو برای ثبت نام دانش آموزان نظری بیاندازد را تصور کنید: به جای اینکه انتخاب خود را بر اساس نمرات قبلی انجام دهد، دانشگاه دانشجو را با پیش بینی عملکرد خوبش، ثبت نام می کند.
دانشگاه می تواند برای این پیش بینی از الگوریتم ماشین یادگیری و اطلاعات تاریخی در مورد متقاضیان قبلی و عملکرد آنها، استفاده کند. چنین آموزش هایی به روش بسیار خاصی صورت می گیرد. الگوریتم دارای پارامترهای بسیاری است که رفتارهای آن را کنترل می کند و آموزش شامل بهینه سازی پارامترها برای برآوردن اهداف خاص ریاضی مرتبط با داده ها می باشد. ساده ترین و رایج ترین هدف این است که (الگوریتم) قادر به پیش بینی داده های آموزشی به طور دقیق باشد. برای دانشگاه، این هدف الگوریتمی دارد که می تواند نمرات متقاضیان را به درست ترین حد ممکن پیش بینی کند.
اما یک هدف پیش بینی شده ساده مانند “ایجاد کوچکترین اشتباهات ممکن” می تواند به طور غیرمستقیم تصمیم گیری غیر اخلاقی ایجاد کند.
چندین مورد مهم که اغلب توسط این هدف مورد استفاده قرار گرفتهاند را در نظر بگیرید:
1- افراد مختلف، اشتباهات مختلف
از آنجا که الگوریتم به طور متوسط، تنها در مورد میزان اشتباهات خود بر روی تمام داده های آموزش توجه می کند، ممکن است “دقیق بودن” ها در افراد مختلف، متفاوت باشد. این اثر اغلب برای اقلیت ها به وجود می آید: در داده های آموزشی میزان کمتری از آنها وجود دارد، بنابراین الگوریتم برای تخمین ضعیفی از نمرات آنها، بدان صورت تاوان نمی دهد.
به عنوان مثال، برای یک دانشگاه، ممکن است الگوریتم پیش بینی نمرات در یک دوره مربوط به مردان 90٪ دقیق باشد، اما برای زنان 50٪ . برای مقابله با این مسئله، دانشگاه باید الگوریتم دقت را به همان اندازه هم برای مردان و هم برای زنان تغییر دهد.
2- الگوریتم قابل اطمینان نیست.
الگوریتم های ماشین یادگیری ساده، “بهترین حدس” را پیش بینی میکنند، اما الگوریتم های پیچیده تر قادر به ارزیابی میزان اطمینان خود در این پیش بینی هستند. اطمینان از اعتماد دقیق نیز می تواند بخش مهمی از هدف الگوریتم باشد. به عنوان مثال، دانشگاه ممکن است بخواهد یک اصل اخلاقی مانند «سود شک و تردید» را برای متقاضیان با علائم پیش بینی نشده مشخص کند.
۳-تعصب تاریخی
الگوریتم دانشگاه یاد گرفته که به طور کامل از داده های تاریخی، پیش بینی خود را انجام دهد. اما اگر استادانی که نمرات این داده ها را میدهند، تعصب داشته باشند (مثلا در برابر یک اقلیت خاص)، پیش بینی های جدید نیز تعصب مشابهی خواهند داشت. دانشگاه باید برای جبران آن با تغییر هدف الگوریتم، این تعصب را در پذیرش آیندهاش حذف کند.
۴-اولویت های متضاد
سخت ترین عامل ایجاد یک هدف ریاضی مناسب این است که ملاحظات اخلاقی اغلب در تضاد هستند. برای دانشگاه، افزایش دقت الگوریتم برای یک گروه اقلیت، دقت آن را برای دیگر گروه ها کاهش می دهد. هیچ سیستم پیش بینی کامل نیست و محدودیت های آنها همیشه بر برخی دانشجویان بیشتر از دیگران تأثیر می گذارد. تعادل این عوامل رقابت کننده در یک هدف واحد ریاضی یک مسئله پیچیده و بدون پاسخ واحد است.
این تنها چند مورد از ملاحظات اخلاقی پیچیده برای یک مسئله به ظاهر ساده است. پس چگونه این دانشگاه، یا یک شرکت یا دولت، رفتار اخلاقی سیستم ماشین های یادگیری خود را تضمین می کنند؟ در اولین قدم، آنها می توانند یک مهندس اخلاق برگزینند. وظیفه این مهندسین این است که الزامات اخلاقی سیستم را از طراحانش استنباط کنند سپس آنها را به یک هدف ریاضی تبدیل تبدیل کرده و توانایی الگوریتم را برای رسیدن به این هدف در هنگام تولید، کنترل کنند.
متأسفانه، این نقش در حال حاضر روی حوزه عمومی “دانشمند داده” (اگر اصلا وجود داشته باشد) متمرکز شده و مورد توجه قرار نگرفته است. تولید یک ماشین یادگیری اخلاقی کار ساده ای نیست بلکه نیاز به تعادل اولویت های رقابتی، درک انتظارات اجتماعی و حسابداری برای انواع معایب می باشد. اما این تنها راه برای دولت ها و شرکت هاست تا مطمئن شوند استانداردهای اخلاقی جامعه انتظار حمایت دارند.
ترجمه: رضا کاظمی/ سایت علمی بیگ بنگ
منبع: theconversation.com
ممنون جالب بود
فرازمینی ها که قراره چند سال دیگه معرفی بشن و انسان ها با اونها ارتباط برقرار کنن همون ربات های فوق پیشرفته ای هستن که قادرن حرکات و اعمال و رفتار و حتی افکار نابغه ترین انسان ها رو به خوبی تقلید کنن
وجود فرازمینی ها در مباحث علمی فعلا فرضیه است
بر فرض هم باشن ماهیت جسمی اونا شاید خیلی فراتر از ربات و این جور مادی بودن باش.
شاید توانایی سفر در فضا داشته باشن و یا توانایی بر سفر به جهان های موازی داشته باشن
خلاصه اینکه این حرف ها فعلا درحد حدس و گمان ولی این جور فکر کنیم که ما میخوایم این اشتباه یعنی فکر کنیم فرازمینی ها با ذهن های اپلود شده دارن زندگی میکنن این باور ما ن حقیقت.
اونا اگه وجود داشته باشن احتمالا خیلی فراتر از تصوراتی هستن که بشه با تصورات محدود ما مقایسه بشه یعنی فکر کنیم جسمی از ربات دارن این باور میتونه اشتباه باشه.