Unbiased AI: تلاس مایکروسافت و فیسبوک برای شناسایی الگوریتم‌های متعصبانهٔ هوش مصنوعی

Unbiased AI: تلاس مایکروسافت و فیسبوک برای شناسایی الگوریتم‌های متعصبانهٔ هوش مصنوعی

روز به روز بر تعداد کاربرانی که برای تصمیم‌گیری در زندگی روزمرۀ خود از الگوریتم‌های هوش مصنوعی استفاده می‌کنند بیشتر می‌شود؛ بنابراین نیاز به وجود ابزارهایی احساس می‌شود تا تبعیض‌های احتمالی موجود در الگوریتم‌های مهم که می‌توانند به نوعی با جان یا آبروی کاربران مرتبط باشند را شناسایی کنند. در همین راستا، مایکروسافت سرمایه‌گذاری روی ابزارهایی کرده است تا بتواند به صورت خودکار تمایلات و تبعیض‌های موجود در طیف وسیعی از الگوریتم‌های مختلف هوش مصنوعی را شناسایی کند (این در حالی است که تا پیش از این، چنین تلاشی برای خودکارسازی تشخیص تعصب در الگوریتم‌ها که ممکن است در مدل‌های یادگیری ماشینی نیز مشاهده شوند، انجام نشده بود.) 

در یک کلام، نتیجهٔ تحقیقات و نوآوری‌های مایکروسافت به کسب‌وکارها کمک خواهد کرد تا بتوانند از الگوریتم‌های #هوش مصنوعی در تصمیم‌گیری‌های خود استفاده کنند، بدون آن که سهواً بر افراد خاصی تبعیض قائل شوند.

نیاز به توضیح نیست که غول‌های فناوری برای عرضه و فروش تکنولوژی‌های یادگیری ماشینی خود که به راحتی از طریق سرویس کلود در دسترس هستند با یکدیگر رقابت می‌کنند و از آنجایی که اکثر مشتریان از این الگوریتم‌ها برای خودکارسازی تصمیم‌گیری‌های مهم استفاده می‌کنند، مسئلهٔ بی‌طرفانه عمل کردن این الگوریتم‌ها در پروسهٔ تصمیم‌گیری از اهمیت بالایی برخوردار است.

همچنین مسئلۀ تصمیم‌گیری متعصبانه در مدل‌های #یادگیری ماشینی نیز مشاهده می‌شود؛ بدین معنی که اگر Bias (تعصب) در داده‌های مورد استفاده برای آموزش شبکه‌های عصبی اِعمال گردد، در نتیجه پیش‌بینی‌های انجام‌ شده در این مدل نیز تحت‌تأثیر قرار می‌گیرند. از این روی، روش‌های خودکارسازی تشخیص تصمیم‌گیری‌های جانب‌دارانه در الگوریتم‌ها می‌تواند قابلیتی ارزشمند برای ابزارهای هوش مصنوعی باشد. Rich Caruna، محقق ارشد مایکروسافت که در حال کار بر روی موضوع تشخیص تبعیض و تعصب در الگوریتم‌ها است؛ در این باره می‌گوید:

مفاهیمی مانند شفافیت، قابلیت فهم و بیان به اندازۀ کافی جدید هستن که به نظر می‌رسه ما تجربۀ کافی برای دانستن همۀ چیزهایی که به دنبالشون هستیم و همهٔ راه‌هایی که ممکنه موجب بروز تبعیض و تعصب در مدل‌های ما شوند رو نداریم. 
ابزار تشخیص تبعیض مایکروسافت این امکان رو برای محققان هوش مصنوعی فراهم می‌کنه تا بتونن موارد بیشتری از تبعیض، تعصب و جانبداری رو در الگوریتم‌ها تشخیص بدن ولی باز هم نمی‌شه گفت که الگوریتم‌ها از این پس کاملاً بی‌طرفانه عمل خواهند کرد!
در حقیقت، ما نمی‌تونیم انتظار داشته باشیم که الگوریتم‌های تشخیص تعصب در حد عالی عمل کنند و همیشه این احتمال وجود داره که برخی از جانب‌داری‌ها ناشناخته مونده و کلاً از پروسهٔ‌ تصمیم‌گیری حذف نشن، اما هدف محققان ما اینه که فناوری‌های مایکروسافت تشخیص در این زمینه رو به بهترین شکل ممکن انجام بدن. همچنین در حال حاضر بهترین کاری که شرکت‌ها می‌تونن انجام بدن اینه که نیروی‌های خودشون رو آموزش بدن زیرا آگاهی اون‌ها از بی‌شمار روشی که می‌تونه موجب بروز و آشکار شدن جانب‌داری در الگوریتم‌ها بشه پرده برمی‌داره.

بسیاری از محققان و متخصصان فناوری در حال تحقیق روی تشخیص ‌Bias در الگوریتم‌ها هستند و از آنجایی که این الگوریتم‌ها برای خودکارسازی تصمیم‌گیری‌های مهم مورد استفاده قرار می‌گیرند، ریسکی برای خودکارسازی چنین تصمیم‌گیری‌هایی وجود دارد آن هم اینکه تبغیض قائل شدن توسط سیستم می‌تواند خودکارسازی شده، در مقیاس بزرگ‌تری گسترش یابد و حتی یافتن نقطۀ اشتباه در تصمیم‌گیری دشوار گشته که در نتیجه پیش‌بینی‌ها و تصمیم‌گیری‌های اشتباه بزرگ‌تری در آینده به وقوع خواهند پیوست!

آشنایی با Fairness Flow
فیسبوک نیز در این رابطه بیکار ننشسته و ابزاری تحت عنوان Fairness Flow را توسعه داده که اگر الگوریتمی دست به قضاوتی غیرمنصفانه در مورد کسی بر اساس نژاد، جنسیت یا سن او انجام دهد، این ابزار به طور خودکار هشدار خواهد داد. از نظر فیسبوک، این ابزار مورد نیاز جامعه است چرا که با گذشت زمان، تعداد افرادی که در شرکت‌ها از AI برای تصمیم‌گیری‌های مهم استفاده می‌کنند، بیشتر خواهد شد. در همین راستا، Bin Yu، استاد دانشگاه UC Berkeley، اعتقاد دارد:

فیسبوک و مایکروسافت در راستای ساخت ابزار تشخیص تعصب در الگوریتم‌ها در مسیر درستی گام برداشتن اما ممکنه این ابزارها برای تشخیص چنین چیزی کافی نباش! در همین راستا، پیشنهادم اینه که شرکت‌های بزرگ باید بررسی الگوریتم‌های خود رو به کارشناسان خارج از سازمانشون واگذار کنن تا اثبات بشه که این الگوریتم‌ها متعصبانه عمل نمی‌کنن.

حال نوبت به نظرات شما می‌رسد. آیا روزی را شاهد خواهیم بود که هوش مصنوعی نیز همچون افراد عادی در دام Value Attribution افتاده و شاهده رفتاری غیرمنصفانه از طرف سیستم‌های کامپیوتری باشیم؟ نظرات و دیدگاه‌های خود را با دیگر کاربران سکان آکادمی به اشتراک بگذارید (همچنین برای آشنایی بیشتر با مفهوم این اصطلاح لاتین، می‌توانید به مقالهٔ‌ Value Attribution چیست و چرا باید در زندگی تا حد ممکن از آن حذر کرد! مراجعه نمایید.)

منبع