آیا هوش مصنوعی هم می‌تواند تمایلات نژادپرستانه و جنسیتی پیدا کند؟

آیا هوش مصنوعی هم می‌تواند تمایلات نژادپرستانه و جنسیتی پیدا کند؟

نتيجۀ تحقيقات تيمى از محققان نشان داده است كه سيستم‌هاى هوش مصنوعى كه قابليت يادگيرى زبان را نيز دارا هستند، می‌توانند تعصبات نژادپرستانه و جنسيتى را نيز از انسان‌ها ياد بگيرند! به طور مثال، اين سيستم‌ها مى‌توانند به طور خودكار، واژگانی چون «خانه‌دارى» و «خانواده» را به زنان نسبت دهد يا صفات و ويژگى‌هاى برتر را براى توصيف اسامى كه بيشتر ميان سفيدپوستان رايج است استفاده كنند يا عكس اين عمل را براى اسامى رايج سياه‌پوستان استفاده كنند. برای آشنایی بیشتر با نتایج شگفت‌آور این تحقیق، در ادامه با سکان آکادمی همراه باشید.

ما انسان‌ها همواره از سيستم‌هاى مدرن و تكنولوژى روز انتظارات زيادى داريم؛ مى‌خواهيم مسئوليت سنگين شبيه‌سازى تفكرات و عقايد خودمان را نیز به آن‌ها محول كنيم و مى‌خواهيم كه دقيقا مانند ما فكر كنند!

امروزه سيستم‌هاى مجهز به تكنولوژى يادگيرى ماشينى اين قابليت را دارند كه به مكالمات اطرافيان خود گوش داده و زبان آن‌ها را فرا گيرند؛ در نگاه اول، چنين چيزى بسيار فوق‌العاده به‌نظر مى‌رسد تا اين‌كه متوجه شويم اين سيستم‌ها همان‌قدر كه خصلت‌هاى خوب رفتارى و زبانى ما را فرا مى‌گيرند، خصلت‌ها و عادت‌هاى بدِ رفتارى و گفتارى از جمله تبعيض نژادى و جنسيتى را نيز ياد مى‌گيرند.

طى چند قرن گذشته، عبارات و رفتارهاى نژادپرستانه آن‌قدر ميان مردم رايج شده كه براى خيلى‌ها تبديل به عضو جدايى‌ناپذيرى از مغزشان شده است؛ اين اتفاق دقيقا به همين شكل براى سيستم‌هاى هوش مصنوعى نيز خواهد افتاد. روبات‌های هوش مصنوعى‌هاى کنونی، قادرند پيچيده‌ترين رفتارهاى ما را مورد تجزيه‌وتحليل قرار دهند. از آنجايى كه هدف اصلى اين سيستم‌ها تقليد دقيق هوش، رفتار و زبان انسان است، رفتارهاى نژادپرستانهٔ ما نيز به‌طور خودكار در اين روبات‌ها ثبت مى‌شوند.

جوانا برایسون، متخصص کامپیوتر که در دانشگاه Bath مشغول به فعالیت است و در تهیۀ این گزارش همکاری کرده است، می‌گوید:

خیلی از مردم معتقدن که هوش مصنوعی داره سمت‌وسویی متعصبانه به خودش می‌گیره؛ به هیچ وجه این‌طور نیست. این حقیقت به ما نشون می‌ده که ما تعصبات بی‌جا داریم و هوش مصنوعی داره اون رو از ما یاد می‌گیره.

این تحقیق شامل بررسی یک مدل خاص از هوش مصنوعی است که از یک روش آماری به نام Word Embedding (جاسازی کلمات) برای تشخیص عبارات گوناگون استفاده می‌کند. محققان یک سناریوی از پیش تعیین شده در نظر گرفتند که مشابه این آزمایش از طرف انجمنی با نام IAT (انجمن آزمایش مجازی) قبلا انجام شده بود.

در این آزمایش مردم باید روی تصاویر مختلف برچسب می‌زدند؛ مثلا تصویر یک فرد سفیدپوست را خوشایند و یک سیاه‌پوست را به عنوان ناخوشایند تگ می‌کردند. در سیستم جاسازی حروف، هر کلمه توسط یک بردار حامل، به عدد خاصی مرتبط می‌شود. بدین شکل محیطی متشکل از تعداد زیادی واژه برای سیستم ایجاد می‌شود که در این محیط، واژه‌هایی چون اسامی انواع گل‌ها در یک بازۀ عددی بسیار نزدیک با واژه‌ای مثل زیبا یا خوب قرار می‌گیرد و عکس این اتفاق برای اسامی چون نام‌های گونه‌های حشرات و امثال آن می‌افتد. یا مثلا واژۀ مرد یا مذکر را به واژه‌های مهندسی و ریاضیات یا زن و مونث را با واژه‌هایی چون هنر، فعالیت‌های انسان‌دوستانه و خانه ربط می‌دهد.

به همین شکل، اسامی رایج سفیدپوستان با واژه‌های خوب و مطلوب و اسامی سیاه‌پوستان با واژه‌هایی زشت و ناپسند مرتبط می‌شود. این سیستم از 840 میلیارد واژه تشکیل شده است که آن‌ها را از منابع مختلفی در وب به‌دست آورده است. طبق نتیجۀ بدست آمده از این تحقیق، این سیستم می‌تواند عبارت‌های نژادپرستانه را به طور دقیق از انسان‎‌ها فرا گیرد.

این نکته را مد نظر داشته باشید که این تحقیق فقط شامل بررسی واژه‌های نژادپرستانه یا متعصبانه بود و این در حالی است که عبارات یا جملات هنوز مورد بررسی قرار نگرفته‌اند. تیم تحقیقاتی که مسئول انجام این بررسی بوده، اعلام کرده است که در آینده به بررسی جملات نژادپرستانه در سیستم هوش مصنوعی نیز خواهد پرداخت.

در این میان ساندرا تاچر، محقق دانشگاه آکسفورد، در مصاحبه با مجلۀ گاردین گفت که وقتی از وجود چنین واژه‌هایی در سیستم مطلع شد، به هیچ‌وجه تعجب نکرد؛ به این دلیل که تمام اطلاعاتی که از پیش در اختیار این سیستم‌ها قرار گرفته، آکنده از واژه‌ها و عبارت‌های نژادپرستانه و تبعیض‌گرایانه است.

اما وجود واژه‌های نژادپرستانه و متعصبانه در الگوریتم‌های کامپیوتری، در مقایسه با انسان‌هایی که به اختیار خود این واژه‌های را به کار می‌برند یا دروغگویانی که برخلاف آنچه که باور دارند عمل می‌کنند آن‌قدر ها هم بد نیست چراکه این سیستم‌ها هنوز آن‌قدرها با هوش نشده‌اند که سرخود تصمیم گیرند و عمل کنند.

در حال حاضر وقت این است که ما به جای این‌که توانایی یادگیری سیستم‌ها را کاهش دهیم و شاهد عقب‌گرد در تکنولوژی باشیم، دیدگاه‌های نژادپرستانه و تعصبات بی‌جای خودمان را کم کنیم. اگر این اتفاق نیفتد، تنها راه گریز این است که سیستم‌هایی با توانایی تشخیص تصمیم‌های متعصبانه و اقدام علیه آن‌ها بسازیم!

منبع


روزبه ژوله