بیگ بنگ: تحلیل رفتار ربات ها در طی یک دهه نشان می دهد که حتی ربات های خیر خواه نیز می توانند ستیزه جویانه عمل کنند. در واقع، محققان به شواهدی از مبارزه بات با بات دست یافتند که چندین سال به طول می انجامد.

به گزارش بیگ بنگ، ربات (Bot) یک برنامهٔ نرم‌افزاری (بدافزار) است که بر روی یک میزبان آسیب پذیر نصب می‌شود. این نرم‌افزار می‌تواند به روش‌های مختلف بر روی کامپیوتر میزبان نصب شود که از جملهٔ آنها می‌توان به مشاهدهٔ یک وب سایت آلوده اشاره نمود. ربات‌ها اغلب به نحوی پیکر بندی می‌شوند که هر بار که کامپیوتر قربانی روشن شود، ربات نیز فعال گردد.

ربات ها با هدف انجام کارهای ویرایش، حفظ و نگهداری توسط ويکيپديا مورد استفاده قرار گرفتند. ربات های ویراستار مسئولیت برطرف کردن اشکالات متون، برقراری ممنوعیت های محتوایی و زبانی، بررسی و تصحیح خطاهای املایی، جاگذاری لینک ها و غیره را بر عهده دارند. سایر ربات های غیر ویراستاری، متن را به منظور یافتن تخلفات حقوق انحصاری و سایر تخلفات بطور دقیق پویش می کنند.

در یکی از بررسی ها پیرامون فعالیت ربات ها بین سال های 2001 و 2010، محققان به شواهدی از بر همکنش ربات ها دست یافتند. گرچه ربات ها بطور اختصاصی برای برهمکنش با یکدیگر طراحی نشده بودند، اما این کار را می کردند. محققان طی گزارشی در PLOS ONE اعلام کردند: ما دریافتیم که گرچه ربات های ويکيپديا در صدد حمایت از دایره المعارف بر می آیند، اما اغلب ویرایش های یکدیگر را خنثی می کنند؛ این مبارزات بیهوده و ملال انگیز گاهی اوقات می تواند سال ها به طول بینجامد.

محققان در نسخه های مختلف زبانی ويکيپديا به بررسی برهمکنش میان ربات ها پرداختند. ربات ها در ويکيپدياى انگلیسی بطور متوسط به میزان 105 بار ویرایش های ربات دیگر را به مدت بیش از 10 سال باطل کردند. عنوان مداخله جویانه ترین ربات ها به ربات های ويکيپدياى پرتغالی داده می شود که شاهد 105 بار حالت برگشتی ربات-ربات بودیم.

به اعتقاد محققان، یافته های آنان از غیرقابل پیش بینی بودن برهمکنش های میان ربات ها حکایت دارد؛ حتی غیر قابل پیش بینی تر از آنچه که قبلاً ت تصور می شد. این پژوهش مضامینی برای هوش مصنوعی استفاده شده در سایر حوزه‌ ها به همراه دارد، مثل امنیت سايبرى یا وسایل نقلیه خودکار. لوسيانو فلوريدى، محققی در مؤسسه اینترنت آکسفورد خاطر نشان کرد: ما این نکته را فراموش می کنیم که هماهنگی میان عوامل مشترک غالبا فقط از طریق چارچوبی از قوانین حاصل می آید که پیامد های دلخواه را تسهیل می بخشند. این اصول اخلاقی زیر ساختی باید با نهایت دقت طراحی بشوند.

حتی در صورتی که الگوریتم های حاکم بر ربات ها ساده باشند، برهمکنش های میان آنها به اکو سیستم های پیچیده ای ختم می شود. ميلنا تستکوا، محقق در دانشگاه آکسفورد بیان کرد: بنا به یافته های ما، ربات ها در محیط های فرهنگی مختلف رفتارهای متفاوتی نشان می دهند؛ اختلافات میان آنها در قیاس با ویراستارهای انسانی فرق بسیاری دارد. با بررسی این مسائل، زمینه برای نحوه طراحی و مطالعه عوامل مصنوعی فراهم می آید. ما به تحقیقات بیشتری در خصوص جامعه شناسی ربات ها (بد افزارها) نياز داریم.

ترجمه: منصور نقی لو/ سایت علمی بیگ بنگ

منبع: upi.com

دیدگاهتان را بنویسید

این سایت از اکیسمت برای کاهش هرزنامه استفاده می کند. بیاموزید که چگونه اطلاعات دیدگاه های شما پردازش می‌شوند.