نتيجۀ تحقيقات تيمى از پژوهشگران نشان داد كه سيستمهاى مبتنی بر AI كه قابليت يادگيرى زبان را نيز دارا هستند، میتوانند تعصبات نژادپرستانه و جنسيتى را نيز از انسانها ياد بگيرند! به طور مثال، اين سيستمها مىتوانند به طور خودكار واژگانی همچون «خانهدارى» و «خانواده» را به زنان نسبت داده يا صفات و ويژگىهاى برتر را براى توصيف اسامى كه بيشتر ميان سفيدپوستان رايج است استفاده كنند (يا عكس اين عمل را براى اسامى رايج سياهپوستان استفاده كنند.)
ما انسانها همواره از سيستمهاى مدرن و تكنولوژى روز انتظارات زيادى داريم؛ به طوری که مىخواهيم مسئوليت سنگين شبيهسازى تفكرات و عقايد خودمان را نیز به آنها محول كنيم و دوست داریم تا دقيقاً مانند ما فكر كنند! به طور مثال، امروزه سيستمهاى مجهز به تكنولوژى #يادگيرى ماشينى اين قابليت را دارند كه به مكالمات اطرافيان خود گوش داده و زبان آنها را فرا گيرند که در نگاه اول چنين چيزى بسيار فوقالعاده به نظر مىرسد تا اينكه متوجه شويم اين سيستمها همانقدر كه خِصلتهاى خوب رفتارى و زبانى ما را فرا مىگيرند، خِصلتها و عادتهاى بدِ رفتارى و گفتارى از جمله تبعيض نژادى و جنسيتى را نيز ياد مىگيرند.
طى چند قرن گذشته، عبارات و رفتارهاى نژادپرستانه آنقدر ميان مردم رايج شده كه براى خيلىها تبديل به عضو جدايىناپذيرى از مغزشان شده است و این در حالی است که متأسفانه اين اتفاق دقيقاً به همين شكل براى سيستمهاى مبتنی بر AI نيز خواهد افتاد! در حقیقت، رباتهای هوش مصنوعىهاى کنونی قادرند پيچيدهترين رفتارهاى ما را مورد تجزيهوتحليل قرار دهند و از آنجايى كه هدف اصلى اين سيستمها تقليد دقيق نگرش، رفتار و زبان انسانها است، رفتارهاى احتمالاً نژادپرستانهٔ ما را نيز به طور خودكار فرا خواهند گرفت. Joanna Bryson، متخصص کامپیوتر در دانشگاه Bath که در تهیۀ این گزارش همکاری کرده، در این رابطه میگوید:
خیلی از مردم معتقدن که هوش مصنوعی داره سمتوسویی متعصبانه به خودش میگیره اما به هیچ وجه اینطور نیست. این حقیقت به ما نشون میده که ما آدمها تعصبات بیجایی داریم و هوش مصنوعی داره اونها رو از ما یاد میگیره!
این تحقیق شامل بررسی یک مدل خاص از #هوش مصنوعی است که از یک روش آماری به نام Word Embedding (جاسازی کلمات) برای تشخیص عبارات گوناگون استفاده میکند. محققان یک سناریوی از پیش تعیین شده در نظر گرفتند که مشابه این آزمایش از طرف انجمن Implicit Association Test یا به اختصار IAT قبلاً انجام شده بود.
در این آزمایش کاربران هدف باید روی تصاویر مختلف برچسب میزدند (مثلاً تصویر یک فرد سفیدپوست را خوشایند و یک سیاهپوست را به عنوان ناخوشایند تگ میکردند یا بالعکس.) در سیستم Word Embedding هر کلمه توسط یک بردار حامل به عدد خاصی مرتبط میشود که در نهایت مجموعهای متشکل از تعداد زیادی واژه برای سیستم ایجاد میشود که در آن واژههایی همچون اسامی انواع گلها در یک بازۀ عددی بسیار نزدیک با واژهای مثل زیبا یا خوب قرار میگیرد و عکس این اتفاق برای اسمهایی همچون نامهای گونههای حشرات و امثال آن میافتد (یا مثلاً واژۀ مرد یا مذکر را به واژههای مهندسی و ریاضیات یا زن و مؤنث را با واژههایی چون هنر، فعالیتهای انساندوستانه و خانه ربط میدهد.)
به همین شکل، اسامی رایج سفیدپوستان با واژههای خوب و مطلوب و اسامی سیاهپوستان با واژههایی زشت و ناپسند مرتبط میشود و این در حالی است که این سیستم از بیش از 840 میلیارد واژه تشکیل شده است که آنها را از منابع مختلفی در وب به دست آورده است. در یک کلام، طبق نتیجۀ به دست آمده از تحقیقات صورت گرفته، این سیستم میتواند عبارتهای نژادپرستانه را به طور دقیق از انسانها فرا گیرد! در این میان Sandra Watcher، محقق دانشگاه آکسفورد، در مصاحبهای با مجلۀ Guardian گفت:
وقتی از وجود چنین واژههایی در سیستم مطلع شدم، به هیچوجه تعجب نکردم چون تمام اطلاعاتی که از پیش در اختیار این سیستمها قرار گرفته آکنده از واژهها و عبارات نژادپرستانه و تبعیضگرایانه هستن.
اما وجود واژههای نژادپرستانه و متعصبانه در الگوریتمهای کامپیوتری، در مقایسه با انسانهایی که به اختیار خود این واژههای را به کار میبرند یا افراد دروغگویی که برخلاف آنچه که باور دارند عمل میکنند آنقدر ها هم بد نیست چرا که این سیستمها هنوز آنقدرها با هوش نشدهاند که سَرخود تصمیم بگیرند و دست به عمل زنند (اما در عین حال، چنین چیزی در آیندهای نهچندان دور نیز محتمل است!)
به نظر میرسد که در حال حاضر وقت این باشد تا به جای اینکه توانایی یادگیری سیستمها را کاهش دهیم و شاهد عقبگرد در تکنولوژی باشیم، دیدگاههای نژادپرستانه و تعصبات بیجای خودمان را کم کنیم که اگر این اتفاق صورت نگیرد، تنها راه گریز این است که سیستمهایی با توانایی تشخیص تصمیمهای متعصبانه و اقدام علیه آنها بسازیم (در همین راستا، کمپانیهایی همچون مایکروسافت و فیسوک درصدد هستند تا سیستمهایی برای جلوگیری تعصبات نژادپرستانه در سیستمهای مبتنی بر AI ابداع کنند.)