
Unbiased AI: تلاس مایکروسافت و فیسبوک برای شناسایی الگوریتمهای متعصبانهٔ هوش مصنوعی
روز به روز بر تعداد کاربرانی که برای تصمیمگیری در زندگی روزمرۀ خود از الگوریتمهای هوش مصنوعی استفاده میکنند بیشتر میشود؛ بنابراین نیاز به وجود ابزارهایی احساس میشود تا تبعیضهای احتمالی موجود در الگوریتمهای مهم که میتوانند به نوعی با جان یا آبروی کاربران مرتبط باشند را شناسایی کنند. در همین راستا، مایکروسافت سرمایهگذاری روی ابزارهایی کرده است تا بتواند به صورت خودکار تمایلات و تبعیضهای موجود در طیف وسیعی از الگوریتمهای مختلف هوش مصنوعی را شناسایی کند (این در حالی است که تا پیش از این، چنین تلاشی برای خودکارسازی تشخیص تعصب در الگوریتمها که ممکن است در مدلهای یادگیری ماشینی نیز مشاهده شوند، انجام نشده بود.)
در یک کلام، نتیجهٔ تحقیقات و نوآوریهای مایکروسافت به کسبوکارها کمک خواهد کرد تا بتوانند از الگوریتمهای #هوش مصنوعی در تصمیمگیریهای خود استفاده کنند، بدون آن که سهواً بر افراد خاصی تبعیض قائل شوند.
نیاز به توضیح نیست که غولهای فناوری برای عرضه و فروش تکنولوژیهای یادگیری ماشینی خود که به راحتی از طریق سرویس کلود در دسترس هستند با یکدیگر رقابت میکنند و از آنجایی که اکثر مشتریان از این الگوریتمها برای خودکارسازی تصمیمگیریهای مهم استفاده میکنند، مسئلهٔ بیطرفانه عمل کردن این الگوریتمها در پروسهٔ تصمیمگیری از اهمیت بالایی برخوردار است.
همچنین مسئلۀ تصمیمگیری متعصبانه در مدلهای #یادگیری ماشینی نیز مشاهده میشود؛ بدین معنی که اگر Bias (تعصب) در دادههای مورد استفاده برای آموزش شبکههای عصبی اِعمال گردد، در نتیجه پیشبینیهای انجام شده در این مدل نیز تحتتأثیر قرار میگیرند. از این روی، روشهای خودکارسازی تشخیص تصمیمگیریهای جانبدارانه در الگوریتمها میتواند قابلیتی ارزشمند برای ابزارهای هوش مصنوعی باشد. Rich Caruna، محقق ارشد مایکروسافت که در حال کار بر روی موضوع تشخیص تبعیض و تعصب در الگوریتمها است؛ در این باره میگوید:
مفاهیمی مانند شفافیت، قابلیت فهم و بیان به اندازۀ کافی جدید هستن که به نظر میرسه ما تجربۀ کافی برای دانستن همۀ چیزهایی که به دنبالشون هستیم و همهٔ راههایی که ممکنه موجب بروز تبعیض و تعصب در مدلهای ما شوند رو نداریم.
ابزار تشخیص تبعیض مایکروسافت این امکان رو برای محققان هوش مصنوعی فراهم میکنه تا بتونن موارد بیشتری از تبعیض، تعصب و جانبداری رو در الگوریتمها تشخیص بدن ولی باز هم نمیشه گفت که الگوریتمها از این پس کاملاً بیطرفانه عمل خواهند کرد!
در حقیقت، ما نمیتونیم انتظار داشته باشیم که الگوریتمهای تشخیص تعصب در حد عالی عمل کنند و همیشه این احتمال وجود داره که برخی از جانبداریها ناشناخته مونده و کلاً از پروسهٔ تصمیمگیری حذف نشن، اما هدف محققان ما اینه که فناوریهای مایکروسافت تشخیص در این زمینه رو به بهترین شکل ممکن انجام بدن. همچنین در حال حاضر بهترین کاری که شرکتها میتونن انجام بدن اینه که نیرویهای خودشون رو آموزش بدن زیرا آگاهی اونها از بیشمار روشی که میتونه موجب بروز و آشکار شدن جانبداری در الگوریتمها بشه پرده برمیداره.
بسیاری از محققان و متخصصان فناوری در حال تحقیق روی تشخیص Bias در الگوریتمها هستند و از آنجایی که این الگوریتمها برای خودکارسازی تصمیمگیریهای مهم مورد استفاده قرار میگیرند، ریسکی برای خودکارسازی چنین تصمیمگیریهایی وجود دارد آن هم اینکه تبغیض قائل شدن توسط سیستم میتواند خودکارسازی شده، در مقیاس بزرگتری گسترش یابد و حتی یافتن نقطۀ اشتباه در تصمیمگیری دشوار گشته که در نتیجه پیشبینیها و تصمیمگیریهای اشتباه بزرگتری در آینده به وقوع خواهند پیوست!
آشنایی با Fairness Flow
فیسبوک نیز در این رابطه بیکار ننشسته و ابزاری تحت عنوان Fairness Flow را توسعه داده که اگر الگوریتمی دست به قضاوتی غیرمنصفانه در مورد کسی بر اساس نژاد، جنسیت یا سن او انجام دهد، این ابزار به طور خودکار هشدار خواهد داد. از نظر فیسبوک، این ابزار مورد نیاز جامعه است چرا که با گذشت زمان، تعداد افرادی که در شرکتها از AI برای تصمیمگیریهای مهم استفاده میکنند، بیشتر خواهد شد. در همین راستا، Bin Yu، استاد دانشگاه UC Berkeley، اعتقاد دارد:
فیسبوک و مایکروسافت در راستای ساخت ابزار تشخیص تعصب در الگوریتمها در مسیر درستی گام برداشتن اما ممکنه این ابزارها برای تشخیص چنین چیزی کافی نباش! در همین راستا، پیشنهادم اینه که شرکتهای بزرگ باید بررسی الگوریتمهای خود رو به کارشناسان خارج از سازمانشون واگذار کنن تا اثبات بشه که این الگوریتمها متعصبانه عمل نمیکنن.
حال نوبت به نظرات شما میرسد. آیا روزی را شاهد خواهیم بود که هوش مصنوعی نیز همچون افراد عادی در دام Value Attribution افتاده و شاهده رفتاری غیرمنصفانه از طرف سیستمهای کامپیوتری باشیم؟ نظرات و دیدگاههای خود را با دیگر کاربران سکان آکادمی به اشتراک بگذارید (همچنین برای آشنایی بیشتر با مفهوم این اصطلاح لاتین، میتوانید به مقالهٔ Value Attribution چیست و چرا باید در زندگی تا حد ممکن از آن حذر کرد! مراجعه نمایید.)
منبع