Sokan Academy

ابراز نگرانی در مورد ربات‌های مبتنی بر هوش مصنوعی که ممکن است در جنگ‌ها استفاده شوند!

ابراز نگرانی در مورد ربات‌های مبتنی بر هوش مصنوعی که ممکن است در جنگ‌ها استفاده شوند!

Elon Musk، مدیرعامل شرکت‌های تِسلا و اِسپیس‌ایکس، در کنار Mustafa Suleyman، مؤسس دیپ‌مایند، با همکاری 115 نفر از دیگر متخصصان هوش مصنوعی نامه‌ای سرگشاده را امضاء کردند تا سازمان ملل را از خطر ربات‌های کشنده آگاه ساخته و استفاده از آن‌ها را در سطح بین‌المللی ممنوع کنند که این نامه در کنفرانس بین‌المللی هوش مصنوعی (IJCAI 2017) در ملبورن منتشر شد (البته در حال‌ حاضر هم سلاح‌هایی مانند ضدهوایی‌های خودکار برای هدف‌گیری هواپیماها و پهپادها وجود دارد که نیاز خیلی کمی به نظارت انسان دارند که با افزودن تکنولوژی‌های مبتنی بر هوش مصنوعی به این دست سلاح‌ها، قادر خواهند بود تا اقدامات نظامی را کاملاً خودکار انجام دهند!)

روزنامۀ گاردین اعلام کرده است که طبق نظر برخی کارشناسان، حوزه‌های هوش مصنوعی و رباتیک به‌ سرعت در حال گسترش و پیشرفت است و احتمالاً در عرض چند سال آتی شاهد جنگ و مبارزه بین ربات‌ها و ماشین‌های خودکار خواهیم بود مضاف بر اینکه باید نگران این بود که ربات‌ها به چه میزان می‌توانند بر روی تفکرات جنگی دولت‌ها و حکومت‌ها تأثیر بگذارند (احتمالاً دولت‌های خودکامه‌ها و تروریست‌ها هم از این سلاح‌ها بر روی غیرنظامیان استفاده خواهند کرد.) از طرفی ناگفته نماند که امکان هک این سلاح ها و سوءاستفاده از آن‌ها نیز همیشه وجود دارد!

برای درک بهتر این موضوع و اینکه چرا چنین مسئله‌ای می‌تواند مشکل‌زا باشد، به بحث دولت انگلستان در سال 2015 توجه کنید که مخالف با ممنوعیت سلاح‌های خودکار بود و در این باره گفته است که مقررات مشخصی برای این ناحیه (اروپا) توسط قانون بین‌المللی بشردوستانه وضع شده و تمام سلاح‌هایی که به خدمت نیروهای مسلح انگلستان گرفته شده‌اند، تماماً تحت نظارت و کنترل انسانی خواهند بود.

دادن این امکان به یک حکومت که بتواند نیروهای مرگ‌بار خودکار را گسترش دهد، تمایل آن‌‌ها را به اعزام نیروهای ماشینی و خودکار به مناطق مورد نظر بیشتر از قبل می‌کند زیرا دیگر نیازی ندارند تا هموطنان خود را اعزام کند و نگران جان آن‌ها باشد که در همین راستا Yoshua Bengio، مؤسس Element AI، موضع خود را در امضای این نامه چنین توضیح می‌دهد:

من نامۀ سرگشاده را به این دلیل امضا کردم که استفاده از هوش مصنوعی در سلاح‌های خودکار به احساسات و اعتقادات اخلاقی من آسیب می‌زنه. این کار مانند اینه که یک فاجعه را با آگاهی داشتن از عواقبش تشدید کرد. همچنین توسعۀ ربات‌های مرگ‌بار به توسعۀ آیندۀ اپلیکیشن‌های خوب هوش مصنوعی لطمه می‌زنه و این موضوعی هست که باید به صورت بین‌المللی حل بشه. ما شبیه این قضیه رو قبلاً در حوزه‌های دیگر هم مثل سلاح‌های بیولوژیکی، شیمیایی و هسته‌ای مشاهد کرده‌ایم.

به طور کلی، اگر دولت‌ها اجازه داشته باشند که بدون هیچ‌گونه نظارتی سلاح‌های خودکار مرگ‌بار بسازند، این کار می‌تواند بهترین مغزهای رباتیک و هوش مصنوعی را به سمتی سوق دهد که در عوض حل نیازهای جامعه، بخواهند دیوایس‌های در جهت مرگ هم‌نوعان خود توسعه دهند! 

گرچه وقتی که صبحت از خطرات هوش مصنوعی به میان می‌آید، ایلون ماسک یکی از چهر‌ه‌های نام‌آشنا است، اما پیش از این هم دیگر چهر‌ه‌ها مطرح دنیای فناوری همچون استیو وازنیاک، استفان هاوکینگ و ... نیز در این‌باره ابزار نگرانی کرده‌‌اند که جهت اطلاع بیشتر در این زمینه، می‌توانید به مقالات تأثیر هوش مصنوعی بر آینده بشر از دید استیو وازنیاک و نسل آیندهٔ ربات‌های نظامی مجهز به هوش مصنوعی مراجعه نمایید.

این محتوا آموزنده بود؟
ایلان ماسکربات

sokan-academy-footer-logo
کلیه حقوق مادی و معنوی این وب‌سایت متعلق به سکان آکادمی می باشد.