آیا هوش مصنوعی هم می‌تواند تمایلات نژادپرستانه و جنسیتی پیدا کند؟

آیا هوش مصنوعی هم می‌تواند تمایلات نژادپرستانه و جنسیتی پیدا کند؟

نتيجۀ تحقيقات تيمى از پژوهشگران نشان داد كه سيستم‌هاى مبتنی بر AI كه قابليت يادگيرى زبان را نيز دارا هستند، می‌توانند تعصبات نژادپرستانه و جنسيتى را نيز از انسان‌ها ياد بگيرند! به طور مثال، اين سيستم‌ها مى‌توانند به طور خودكار واژگانی همچون «خانه‌دارى» و «خانواده» را به زنان نسبت داده يا صفات و ويژگى‌هاى برتر را براى توصيف اسامى كه بيشتر ميان سفيدپوستان رايج است استفاده كنند (يا عكس اين عمل را براى اسامى رايج سياه‌پوستان استفاده كنند.) 

اولین کسی باشید که به این سؤال پاسخ می‌دهید

ما انسان‌ها همواره از سيستم‌هاى مدرن و تكنولوژى روز انتظارات زيادى داريم؛ به طوری که مى‌خواهيم مسئوليت سنگين شبيه‌سازى تفكرات و عقايد خودمان را نیز به آن‌ها محول كنيم و دوست داریم تا دقيقاً مانند ما فكر كنند! به طور مثال، امروزه سيستم‌هاى مجهز به تكنولوژى #يادگيرى ماشينى اين قابليت را دارند كه به مكالمات اطرافيان خود گوش داده و زبان آن‌ها را فرا گيرند که در نگاه اول چنين چيزى بسيار فوق‌العاده به‌ نظر مى‌رسد تا اينكه متوجه شويم اين سيستم‌ها همان‌قدر كه خِصلت‌هاى خوب رفتارى و زبانى ما را فرا مى‌گيرند، خِصلت‌ها و عادت‌هاى بدِ رفتارى و گفتارى از جمله تبعيض نژادى و جنسيتى را نيز ياد مى‌گيرند.

طى چند قرن گذشته، عبارات و رفتارهاى نژادپرستانه آن‌قدر ميان مردم رايج شده كه براى خيلى‌ها تبديل به عضو جدايى‌ناپذيرى از مغزشان شده است و این در حالی است که متأسفانه اين اتفاق دقيقاً به همين شكل براى سيستم‌هاى مبتنی بر AI نيز خواهد افتاد! در حقیقت، ربات‌های هوش مصنوعى‌هاى کنونی قادرند پيچيده‌ترين رفتارهاى ما را مورد تجزيه‌وتحليل قرار دهند و از آنجايى كه هدف اصلى اين سيستم‌ها تقليد دقيق نگرش، رفتار و زبان انسان‌ها است، رفتارهاى احتمالاً نژادپرستانهٔ ما را نيز به‌ طور خودكار فرا خواهند گرفت. Joanna Bryson، متخصص کامپیوتر در دانشگاه Bath که در تهیۀ این گزارش همکاری کرده، در این رابطه می‌گوید:

خیلی از مردم معتقدن که هوش مصنوعی داره سمت‌وسویی متعصبانه به خودش می‌گیره اما به هیچ وجه این‌طور نیست. این حقیقت به ما نشون می‌ده که ما آدم‌ها تعصبات بی‌جایی داریم و هوش مصنوعی داره اون‌ها رو از ما یاد می‌گیره!

این تحقیق شامل بررسی یک مدل خاص از #هوش مصنوعی است که از یک روش آماری به نام Word Embedding (جاسازی کلمات) برای تشخیص عبارات گوناگون استفاده می‌کند. محققان یک سناریوی از پیش تعیین شده در نظر گرفتند که مشابه این آزمایش از طرف انجمن Implicit Association Test یا به اختصار IAT قبلاً انجام شده بود.

در این آزمایش کاربران هدف باید روی تصاویر مختلف برچسب می‌زدند (مثلاً تصویر یک فرد سفیدپوست را خوشایند و یک سیاه‌پوست را به عنوان ناخوشایند تگ می‌کردند یا بالعکس.) در سیستم Word Embedding هر کلمه توسط یک بردار حامل به عدد خاصی مرتبط می‌شود که در نهایت مجموعه‌ای متشکل از تعداد زیادی واژه برای سیستم ایجاد می‌شود که در آن واژه‌هایی همچون اسامی انواع گل‌ها در یک بازۀ عددی بسیار نزدیک با واژه‌ای مثل زیبا یا خوب قرار می‌گیرد و عکس این اتفاق برای اسم‌هایی همچون نام‌های گونه‌های حشرات و امثال آن می‌افتد (یا مثلاً واژۀ مرد یا مذکر را به واژه‌های مهندسی و ریاضیات یا زن و مؤنث را با واژه‌هایی چون هنر، فعالیت‌های انسان‌دوستانه و خانه ربط می‌دهد.)

به همین شکل، اسامی رایج سفیدپوستان با واژه‌های خوب و مطلوب و اسامی سیاه‌پوستان با واژه‌هایی زشت و ناپسند مرتبط می‌شود و این در حالی است که این سیستم از بیش از 840 میلیارد واژه تشکیل شده است که آن‌ها را از منابع مختلفی در وب به‌ دست آورده است. در یک کلام، طبق نتیجۀ به دست آمده از تحقیقات صورت گرفته، این سیستم می‌تواند عبارت‌های نژادپرستانه را به طور دقیق از انسان‎‌ها فرا گیرد! در این میان Sandra Watcher، محقق دانشگاه آکسفورد، در مصاحبه‌ای با مجلۀ  Guardian گفت:

وقتی از وجود چنین واژه‌هایی در سیستم مطلع شدم، به هیچ‌وجه تعجب نکردم چون تمام اطلاعاتی که از پیش در اختیار این سیستم‌ها قرار گرفته آکنده از واژه‌ها و عبارات نژادپرستانه و تبعیض‌گرایانه هستن.

اما وجود واژه‌های نژادپرستانه و متعصبانه در الگوریتم‌های کامپیوتری، در مقایسه با انسان‌هایی که به اختیار خود این واژه‌های را به کار می‌برند یا افراد دروغ‌گویی که برخلاف آنچه که باور دارند عمل می‌کنند آن‌قدر ها هم بد نیست چرا که این سیستم‌ها هنوز آن‌قدرها با هوش نشده‌اند که سَرخود تصمیم بگیرند و دست به عمل زنند (اما در عین حال، چنین چیزی در آینده‌ای نه‌چندان دور نیز محتمل است!)

به نظر می‌رسد که در حال حاضر وقت این باشد تا به جای اینکه توانایی یادگیری سیستم‌ها را کاهش دهیم و شاهد عقب‌گرد در تکنولوژی باشیم، دیدگاه‌های نژادپرستانه و تعصبات بی‌جای خودمان را کم کنیم که اگر این اتفاق صورت نگیرد، تنها راه گریز این است که سیستم‌هایی با توانایی تشخیص تصمیم‌های متعصبانه و اقدام علیه آن‌ها بسازیم (در همین راستا، کمپانی‌هایی همچون مایکروسافت و فیسوک درصدد هستند تا سیستم‌هایی برای جلوگیری تعصبات نژادپرستانه در سیستم‌های مبتنی بر AI ابداع کنند که برای کسب اطلاعات بیشتر پیرامون این مقوله، می‌توانید به مقالهٔ Unbiased AI: تلاس مایکروسافت و فیسبوک برای شناسایی الگوریتم‌های متعصبانهٔ هوش مصنوعی مراجعه نمایید.)

منبع