امکان واترمارک کردن شبکه‌های عصبی با فناوری نوین کمپانی IBM

امکان واترمارک کردن شبکه‌های عصبی با فناوری نوین کمپانی IBM

نیاز به توضیح نیست که پروسهٔ طراحی و توسعهٔ یک به اصطلاح Neural Network (شبکهٔ ‌عصبی) بسیار سخت و وقت‌گیر است و به همین دلیل محققان شرکت IBM روشی را توسعه داده‌اند که با استفاده از آن، دولوپرهای این حوزه می‌توانند از مالکیت معنوی مدل‌های هوش‌ مصنوعی خود محافظت کنند و این در حالی است که توسعه‌دهندگان کمپانی IBM این روش را از واترمارک کردن محتوا و محصولات دیجیتالی الهام گرفته‌اند. 

نحوۀ کار متد واترمارکینگ شبکه‌های عصبی
در این روش، یکسری دیتا در شبکهٔ عصبی اِمبدد می‌شود که در آینده می‌توان از چنین دیتایی برای شناسایی مالکیت مُدل استفاده کرد. برای مثال، اگر دولوپری ساعت‌ها برای توسعه و آموزش مُدل‌های هوش‌ مصنوعی خود زمان صرف کرده‌ باشد و فردی بخواهد تا از نتیجۀ کارش سوء‌استفاده کند، در چنین شرایطی وی خواهد توانست تا با استفاده از فناوری واترمارک کمپانی IBM، مالکیت مُدل‌های خود را به اثبات برساند.

در مورد سازوکار این فناوری بایستی گفت که دیتای خاصی در داخل مُدل‌های یادگیری ژرف متعلق به دولوپر اِمبدِد می‌شود و به منظور شناسایی آن‌ها نیز یک تصویر به عنوان ورودی به شبکۀ عصبی داده می‌شود که این تصویر موجب تولید یک پاسخ رُندم و غیرمعمول در خروجی شده و همین می‌شود این تکنیک امکانی را برای محققان فراهم می‌کند تا واترمارک‌ها را به منظور اثبات حق مالکیت مُدل، از آن استخراج کنند. طبق مقالهٔ منتشر شده در وبلاگ IBM، این واترمارک‌ها طوری طراحی شده‌اند که هر فردی به راحتی نمی‌تواند کد را باز کرده و واتر‌مارک آن را حذف کند! در این مقاله آمده است:

واترمارک‌های اِمبددشده در مُدل‌های شبکه‌های عصبی ژرف به اندازۀ کافی در برابر مکانیزم‌هایی که به منظور رمزگشایی و یا حذف واترمارک‌ها به کار می‌روند، قوی و مقاوم هستند و جالب است بدانید که این واترمارک‌ها هیچ کدی را به پروژه اضافه نمی‌کنند. این موضوع بسیار مهم است چرا که در برخی مواقع ریسورس‌های یک شبکه عصبی بسیار حجیم بوده و اضافه کردن کدی به آن موجب اِشغال بیش از حد حافظۀ سیستم و در نهایت ایجاد اختلال در نحوهٔ کار مدل می‌شود.

Marc Ph. Stoecklein، مدیر ارشد اطلاعات سایبری و محقق شرکت IBM، در پاسخ به سؤالی مبنی بر اینکه آیا این واترمارک‌ها می‌توانند عملکرد شبکه‌های عصبی را تحت‌الشعاع قرار دهند یا خیر، گفت:

در طول فرآیند طبقه‌بندی نَه اما در پروسهٔ آموزش مُدل‌ها شاهد یک اصطلاحاً Overhead بسیار ناچیز بودیم. همچنین دقت مُدل نیز کمی تحت‌تأثیر این موضوع قرار گرفت به طوری که پیش از واترمارکینگ 78.6% بود اما پس از واترمارکینگ به 78.41% کاهش یافت!

در پایان لازم به ذکر است که این پروژه ابتدا در خودِ شرکت IBM به کار گرفته خواهد شد و به مروری به محصول تجاری تبدیل شده تا دیگر کمپانی‌های هم بتوانند از آن بهره گیرند.

منبع


محمدمهدی تهرانی