آیا ربات‌ها باید آزادی بیان داشته باشند؟

بیگ بنگ: آیا حق این را دارید که بدانید با یک ربات صحبت می کنید؟ در مورد ربات چطور؟ آیا ربات حق دارد آن اطلاعات را از شما مخفی کند؟ حتی قبل از اینکه گوگل دمویی از ربات سخنگویش بنام “داپلکس” منتشر کند، این سوالها در اذهان عده کثیری پدیدار گشته است. داپلکس هوش مصنوعی انسان مانندی است که به جای کاربر اقدام به تماس تلفنی می کند.

به گزارش بیگ بنگ، بات‌ها، اَکانت‌های آنلاین که تحت کنترل انسان‌ها قرار دارند، ولی از هوش مصنوعی بهره می برند، حالا در همه جای اینترنت حضور دارند، به ویژه در شبکه‌های اجتماعی. اگرچه برخی افراد فکر می کنند که مجبور کردن این بات‌ها برای نمایش شخصیتی غیر انسان می تواند مفید باشد، اما برخی هم مدعی می شوند که این کار به معنای نقض حق آزادی بیان بات است. بله، آنها معتقدند که ربات‌ها به مانند انسان‌ها از حقوق ماده اول در آمریکا برخوردارند.

موسسه غیرانتفاعی «Common Sense Media» بر رسانه‌ها و فناوری آنها تمرکز کرده و در یک نشست مطبوعاتی مدعی شده که فیسبوک و توئیتر در مجموع صد میلیون حساب ربات دارند و این ربات‌ها فضای آنلاین را به گَند می کشند. نقش مخرب ربات‌های بدون برچسب روسی در انتخابات ریاست جمهوری آمریکا به صورت مستند اثبات شده است. ربات‌ها نقش مهمی در حمله به دانش آموزان دبیرستانی داشتند؛ مرکز این ربات‌ها که در پارکلند فلوریدا قرار داشت، بچه‌ها را ترغیب می کرد تا از سیگارهای الکترونیکی استفاده کنند، نژادپرستی را به طور آنلاین رواج می داد و در جدیدترین نقض حقوق بشر در کنیا و مکزیک دست داشته است. ربات‌های آنلاینی که افراد فکر می کنند انسان هستند، اعتبار نادرست به پیام‌های مختلف می دهند.

«رابرت ام. هرتزبرگ» در یک نشست خبری دیگر بیان کرد: «به عبارت دیگر، بات‌ها نقش قابل توجهی در شیوع اخبار نادرست دارند. بهترین راه برای مقابله با این مشکلات از طریق قانون شفاف‌سازی آنلاین است که در سال ۲۰۱۸ به تصویب رسید. بر طبق این قانون، ربات باید هویت خود را مشخص کند. این مسئله چندان هم پیچیده نیست: می خواهیم بدانیم که آیا با یک انسان واقعی حرف می زنیم یا یک ربات ما را در فضای مجازی به سخره گرفته است. هیچ راهی وجود ندارد که به طور کامل از شر این ربات‌ها خلاص شویم و هیچ کسی قوانین را بلد نیست. قانون فوق‌الذکر می تواند ما را به سمت آشکارسازی هویت سوق دهد.»

سازمان آزادی الکترونیک(EFF) که برای محافظت از آزادی‌های مدنی در عصر دیجیتال بنیانگذاری شده است، منتقد قانون شفاف‌سازی آنلاین است و از آزادی بیان هوش مصنوعی به شدت حمایت می کند. این سازمان بیان می کند که ربات‌های زیادی تنها یک خروجی برای سازندگان انسان خود هستند. در برخی موارد، افشای این واقعیت که ربات یک ربات است می تواند توانایی سازنده آن را برای نشان دادن خودشان را محدود می کند. ربات‌ها به هرگونه فعالیت‌های گفتاری عادی و محافظت شده عادت کرده‌اند؛ مِن جمله شعر، سخنرانی سیاسی و حتی طنز.

افشای هویت ربات‌ها می تواند جلوی هنرمندانی که پروژه‌شان الزام می دارد هویت ربات نامعلوم باقی بماند، را بگیرد. همچنین نیاز به برخی ربات‌ها، مثل آنهایی که در انتخابات ریاست جمهوری وارد عمل می شوند، برای شناسایی آنها امری منطقی است. سرکوب همه ربات‌های اجتماعی مغایر با قوانین است. حتی اگر یک ربات نگوید که بازتاب مستقیمی از افکار و باورهای سازنده‌اش نیست، آزادی بیان آن باید بر طبق قوانین محافظت گردد. بر اساس قانون، دولت نمی تواند قانونی را برای محدودسازی آزادی بیان ایجاد کند.

«جان فرانک ویور» وکیلی که بر روی قانون هوش مصنوعی تمرکز دارد، گفته است: «گفتگوی مستقل از هوش مصنوعی مثل ربات‌ها شاید آزادی بیان را به ارزشی دشوار برای دفاع تبدیل کند، اما اگر وقتی آنها مورد آزمایش قرار می گیرند، ما به ارزش‌های خود پایبند نباشیم، آنها دیگر ارزش نیستند. عادت و سرگرمی‌اند. اگر ما واقعا به آزادی بیان اعتقاد داریم، مهم نیست که با چه کسی حرف می زنیم: انسان یا هوش مصنوعی.»

ترجمه: منصور نقی لو/ سایت علمی بیگ بنگ

منبع: futurism.com

(7 نفر , میانگین : 5٫00 از 5)
لینک کوتاه مقاله : https://bigbangpage.com/?p=76461
منصور نقی لو

منصور نقی لو

کارشناسی مترجمی زبان انگلیسی. علاقمند به نجوم، کیهان شناسی، فرگشت، اکتساب زبان اول، یادگیری زبان دوم و بعنوان نویسنده علمی- نجومی در وب سایت بیگ بنگ فعالیت می کند.

شما ممکن است این را هم بپسندید

۳ پاسخ‌ها

  1. بهنام طیبی گفت:

    همه اینا به معنی داده ها و اطلاعاتی که خود بشر داره برنامه نویسی میکنه ن چیز دیگه ای و مجزا
    آزادی بیان هم دارن براش برنامه میدن

  2. ایمان فتحی گفت:

    مطلب جالبی بود ، البته نیاز به برسی‌های بیشتر ودقیق‌تری دارد . امیدوارم مقالاتی از این دست را بیشتر در سایت قرار دهید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

این سایت از اکیسمت برای کاهش هرزنامه استفاده می کند. بیاموزید که چگونه اطلاعات دیدگاه های شما پردازش می‌شوند.