جفری هینتون، یکی از بنیانگذاران کلیدی یادگیری عمیق (Deep Learning) و از چهرههای ماندگار در تاریخ هوش مصنوعی و برنده جایزه نوبل فیزیک 2024، در این گفتوگوی کمنظیر درباره آیندهی AI، خطرات پیش رو، و ضرورت درک عمیقتر رفتار این سیستمها صحبت میکند.
هینتون، که بسیاری از او به عنوان «پدرخوانده هوش مصنوعی مدرن» یاد میکنند، سابقهای بیش از ۵۰ سال در توسعه شبکههای عصبی دارد و سهم قابل توجهی در انقلابی داشته که امروز شاهد آن هستیم: از چتباتهایی مثل ChatGPT گرفته تا مدلهای تصویری، دستیارهای صوتی، و اتوماسیون پیشرفته.
مزایای کلیدی هوش مصنوعی از دیدگاه هینتون
جفری هینتون باور دارد که هوش مصنوعی در بسیاری از حوزهها، از جمله پزشکی، آموزش، و علم داده میتواند تحولی شگرف ایجاد کند. بهعنوان نمونه:
تحول در پزشکی و تشخیص بیماریها
سیستمهای یادگیری عمیق میتوانند در تحلیل تصاویر پزشکی (مثل رادیولوژی و MRI) عملکردی سریعتر و دقیقتر از پزشکان انسانی داشته باشند. هوش مصنوعی همچنین در طراحی داروهای جدید، کشف الگوهای بیماری، و حتی پیشبینی اپیدمیها نقشآفرین است.
افزایش توانمندیهای یادگیری ماشینی
به گفته هینتون، برخی مدلهای مدرن مانند شبکههای عصبی عمیق، توانایی یادگیری از دادهها را حتی بهتر از مغز انسان نشان دادهاند. این پیشرفتها زمینهساز ایجاد سیستمهایی هستند که بدون دخالت مستقیم انسان، از دادهها درس میگیرند، تعمیم میدهند و تصمیمسازی میکنند.
تهدیدهای جدی و هشدارهای هینتون
اگرچه هینتون یکی از معماران اصلی هوش مصنوعی مدرن است، اما امروز با نگاهی انتقادی به خطرات آن مینگرد. مهمترین نگرانیهای او عبارتند از:
ظهور سیستمهای خودمختار
هینتون هشدار میدهد که مدلهای هوش مصنوعی ممکن است به مرحلهای برسند که بدون نظارت انسانی، تصمیمگیری کنند و اهداف خود را تعریف نمایند. این سطح از خودمختاری میتواند خطرناک باشد، بهویژه در محیطهایی که کنترل اخلاقی و قانونی ضعیف است.
هوش مصنوعی که خود برنامهنویس میشود
مدلهای زبانی و کدنویس مانند GitHub Copilot یا ChatGPT میتوانند کد تولید کنند. اما هینتون نگران است که در آینده، سیستمهایی پدید آیند که هم کد بنویسند و هم آن را بدون بررسی انسانی اجرا کنند. در چنین شرایطی، عملاً کنترل از دست انسان خارج میشود.
بیکاری ناشی از جایگزینی انسان
او معتقد است که اتوماسیون مبتنی بر هوش مصنوعی میتواند منجر به حذف طیف گستردهای از مشاغل شود. از طراحان گرافیک گرفته تا مترجمان حرفهای، بسیاری از مشاغل دانشی در معرض خطر هستند.
کاربردهای نظامی و امنیتی
یکی از ترسناکترین سناریوها از دیدگاه هینتون، استفاده از هوش مصنوعی در سلاحهای خودکار، پهپادهای قاتل و حملات سایبری پیشرفته است. بهنظر او، اگر چنین فناوریهایی در اختیار حکومتهای مستبد یا گروههای تروریستی قرار گیرد، پیامدهای آن میتواند فاجعهبار باشد.
مشکل شفافیت و قابل درک نبودن مدلها
هینتون اعتراف میکند که حتی توسعهدهندگان پیشرفتهترین مدلها، نمیتوانند دقیقاً توضیح دهند چرا یک مدل به تصمیم خاصی رسیده است. این «جعبه سیاه» در فرآیند تصمیمسازی میتواند اعتماد عمومی به هوش مصنوعی را تضعیف کند.
آیا باید هوش مصنوعی را متوقف کنیم؟
جفری هینتون با آنکه از حامیان اولیه توسعه AI بود، اما اخیراً گوگل را ترک کرده تا بتواند آزادانه درباره خطرات آن سخن بگوید. او پیشنهاد میدهد:
دولتها قوانینی سختگیرانه و شفاف برای کنترل استفاده از هوش مصنوعی تدوین کنند.
متخصصان آزمایشهایی برای درک بهتر هوش مصنوعی انجام دهند و بر روی قابل توضیح بودن مدلها تمرکز کنند تا فرآیند تصمیمگیری روشنتر و قابل بررسی شود.
یک پیمان جهانی برای ممنوعیت استفاده از رباتهای نظامی امضا شود.
جمعبندی و نتیجهگیری
هوش مصنوعی ابزاری قدرتمند است که در عین حال میتواند عامل تحول یا تهدید باشد. دیدگاههای جفری هینتون به ما یادآوری میکنند که توسعه فناوری بدون نظارت، مسئولیتپذیری و شفافیت میتواند به نتایجی غیرقابل پیشبینی منجر شود. ما بهعنوان توسعهدهندگان، سیاستگذاران، و اعضای جامعه جهانی، وظیفه داریم تعادل میان نوآوری و ایمنی را حفظ کنیم.