Elon Musk، مدیرعامل شرکتهای تِسلا و اِسپیسایکس، در کنار Mustafa Suleyman، مؤسس دیپمایند، با همکاری 115 نفر از دیگر متخصصان هوش مصنوعی نامهای سرگشاده را امضاء کردند تا سازمان ملل را از خطر رباتهای کشنده آگاه ساخته و استفاده از آنها را در سطح بینالمللی ممنوع کنند که این نامه در کنفرانس بینالمللی هوش مصنوعی (IJCAI 2017) در ملبورن منتشر شد (البته در حال حاضر هم سلاحهایی مانند ضدهواییهای خودکار برای هدفگیری هواپیماها و پهپادها وجود دارد که نیاز خیلی کمی به نظارت انسان دارند که با افزودن تکنولوژیهای مبتنی بر هوش مصنوعی به این دست سلاحها، قادر خواهند بود تا اقدامات نظامی را کاملاً خودکار انجام دهند!)
روزنامۀ گاردین اعلام کرده است که طبق نظر برخی کارشناسان، حوزههای هوش مصنوعی و رباتیک به سرعت در حال گسترش و پیشرفت است و احتمالاً در عرض چند سال آتی شاهد جنگ و مبارزه بین رباتها و ماشینهای خودکار خواهیم بود مضاف بر اینکه باید نگران این بود که رباتها به چه میزان میتوانند بر روی تفکرات جنگی دولتها و حکومتها تأثیر بگذارند (احتمالاً دولتهای خودکامهها و تروریستها هم از این سلاحها بر روی غیرنظامیان استفاده خواهند کرد.) از طرفی ناگفته نماند که امکان هک این سلاح ها و سوءاستفاده از آنها نیز همیشه وجود دارد!
برای درک بهتر این موضوع و اینکه چرا چنین مسئلهای میتواند مشکلزا باشد، به بحث دولت انگلستان در سال 2015 توجه کنید که مخالف با ممنوعیت سلاحهای خودکار بود و در این باره گفته است که مقررات مشخصی برای این ناحیه (اروپا) توسط قانون بینالمللی بشردوستانه وضع شده و تمام سلاحهایی که به خدمت نیروهای مسلح انگلستان گرفته شدهاند، تماماً تحت نظارت و کنترل انسانی خواهند بود.
دادن این امکان به یک حکومت که بتواند نیروهای مرگبار خودکار را گسترش دهد، تمایل آنها را به اعزام نیروهای ماشینی و خودکار به مناطق مورد نظر بیشتر از قبل میکند زیرا دیگر نیازی ندارند تا هموطنان خود را اعزام کند و نگران جان آنها باشد که در همین راستا Yoshua Bengio، مؤسس Element AI، موضع خود را در امضای این نامه چنین توضیح میدهد:
من نامۀ سرگشاده را به این دلیل امضا کردم که استفاده از هوش مصنوعی در سلاحهای خودکار به احساسات و اعتقادات اخلاقی من آسیب میزنه. این کار مانند اینه که یک فاجعه را با آگاهی داشتن از عواقبش تشدید کرد. همچنین توسعۀ رباتهای مرگبار به توسعۀ آیندۀ اپلیکیشنهای خوب هوش مصنوعی لطمه میزنه و این موضوعی هست که باید به صورت بینالمللی حل بشه. ما شبیه این قضیه رو قبلاً در حوزههای دیگر هم مثل سلاحهای بیولوژیکی، شیمیایی و هستهای مشاهد کردهایم.
به طور کلی، اگر دولتها اجازه داشته باشند که بدون هیچگونه نظارتی سلاحهای خودکار مرگبار بسازند، این کار میتواند بهترین مغزهای رباتیک و هوش مصنوعی را به سمتی سوق دهد که در عوض حل نیازهای جامعه، بخواهند دیوایسهای در جهت مرگ همنوعان خود توسعه دهند!
گرچه وقتی که صبحت از خطرات هوش مصنوعی به میان میآید، ایلون ماسک یکی از چهرههای نامآشنا است، اما پیش از این هم دیگر چهرهها مطرح دنیای فناوری همچون استیو وازنیاک، استفان هاوکینگ و ... نیز در اینباره ابزار نگرانی کردهاند که جهت اطلاع بیشتر در این زمینه، میتوانید به مقالات تأثیر هوش مصنوعی بر آینده بشر از دید استیو وازنیاک و نسل آیندهٔ رباتهای نظامی مجهز به هوش مصنوعی مراجعه نمایید.