بیگ بنگ: محققان در دانشگاه‌های آکسفورد و کمبریج هشدار دادند تروریست‌ها می‌توانند از هوش مصنوعی در قالب خودروهای خودران و حمله‌های سایبری بهره ببرند.

به گزارش بیگ بنگ به نقل از همشهری، گروهي 26 نفره از متخصصان شامل اعضاي موسسه آينده بشر در دانشگاه آكسفورد و مركز مطالعات تهديد‌هاي وجودي و هوش مصنوعي در دانشگاه كمبريج،‌سازماني كه ايلان ماسك ميلياردر مشهور آمريكايي از آن پشتيباني مي‌كند، اين پيام هشدار آميز را اعلام كرده و تاكيد كردند استفاده خرابكارانه از هوش مصنوعي نشانگر خطري واضح و غريب‌الوقوع براي جامعه است كه مي‌تواند تا يك دهه ديگر به واقعيت تبديل شود.

در گزارش به اين موضوع اشاره شده‌است كه تروريست‌ها مي‌توانند از نقاط ضعف هوش مصنوعي براي ايجاد تصادف‌ گروهي خودروهاي خودران يا سرقت گروهي از پهپاد‌هاي خودكار براي حمله به فضاهاي عمومي استفاده كنند. اين گروه‌ها همچنين مي‌توانند با استفاده از الگوريتم‌هاي پيچيده به اهداف مشخصي در شبكه‌هاي اجتماعي نفوذ كنند و اطلاعات محرمانه را از شركت‌هاي مهم به سرقت ببرند.

به گفته اين محققان فناوري هوش مصنوعي با سرعتي بالا  و بدون توجه به عواقب و مضراتش درحال توسعه يافتن است. اگرچه ذهن‌هاي درخشاني مانند استیون هاوكينگ و ايلان ماسك نسبت به خطرات بالقوه و نيروي مخرب هوش مصنوعي بارها هشدار داده‌اند،‌ اما بسياري از كارشناسان سناريو‌هاي پايان جهان به دست هوش مصنوعي، زماني كه اين فناوري بر بشر غلبه خواهد كرد را مردود اعلام كرده‌اند و ادعا دارند واقعي شدن چنين فرضيه‌هايي تا ده‌ها سال ديگر امكان‌پذير نيست.

با اين‌همه محققان در اين گزارش جديد نگران پيشرفت‌هاي كوچكي هستند كه در اين فناوري در حال وقوع است، خودروهاي بدون راننده، ابزارهاي ويرايش تصوير و درك زبان، زيرا باور دارند اين پيشرفت‌هاي كوچك روزي به ابزاري بزرگ در دست تبهكاران تبديل خواهند شد. گزارش هشدار مي‌دهد كه بشر بيش از اندازه به سيستم‌هاي هوش مصنوعي اعتماد كرده‌است.

هكرها علاوه بر حملات فيزيكي همچنين مي‌توانند از هوش مصنوعي براي نفوذ به الكترونيك‌ها و تزريق اخبار دروغين و مختل ساختن بحث‌و‌گفتگو‌ها در شبكه‌هاي مجازي در مسير منافع خود استفاده كنند. درحال حاضر نيز اي اين فناوري به شكلي وسيع در توليد محتواي تصويري و صوتي درباره ستارگان و سياستمداران مورد استفاده قرار مي‌گيرد.

سایت علمی بیگ بنگ / منبع: telegraph.co.uk

دیدگاهتان را بنویسید

این سایت از اکیسمت برای کاهش هرزنامه استفاده می کند. بیاموزید که چگونه اطلاعات دیدگاه های شما پردازش می‌شوند.

1 دیدگاه