TPU: اولین تراشهٔ یادگیری ماشینی گوگل که 30 برابر سریع‌تر است از CPUها و GPUهای فعلی بازار!

TPU: اولین تراشهٔ یادگیری ماشینی گوگل که 30 برابر سریع‌تر است از CPUها و GPUهای فعلی بازار!

گوگل در مراسم Google I/O سال گذشته، از تراشهٔ اختصاصی خود پرده برداشت؛ ساخت این تراشه که Tensor Processing Unit یا به اختصار TPU نام دارد، نیاز روزافرون دیتاسنترها به محاسبات را نشان می‌دهد. مقاله‌ای توسط محققان گوگل منتشر شده که کارایی TPU را در مقایسه با پردازنده‌های سطح سرور مانند Intel Haswell و Nvidia GPU (پردازندهٔ گرافیکی) به‌طرز شگفت‌آوری بالاتر نشان می‌دهد. برای آشنایی بیشتر با این نوآوری گوگل،‌ در ادامه با سکان آکادمی همراه باشید.

پردازنده‌های پرسرعت و کم‌مصرف، برای شرکتی مثل گوگل که دیتاسنترهای عظیمی را به بهره‌برداری رسانده، پیش از این‌که مایهٔ فخرش باشد نیازی حیاتی محسوب می‌شود و این دلیلی قانع‌کننده است که گوگل را به ساخت پردازندهٔ اختصاصی خودش به نام TPU -که مبتنی بر Machine Learning است- ترغیب کرد.

این نسل جدید پردازنده که با استفاده از فریم‌ورک TensorFlow گوگل بهینه‌سازی شده، سال گذشته در مراسم Google I/O با جزئیات کمی معرفی شده بود (برای آشنایی بیشتر با این فریم‌ورک، به مقالهٔ TensorFlow: فریم‌ورک اپن سورس یادگیری ماشینی گوگل مراجعه نمایید.) واحد ضرب ماتریس 8 بیتی در هستهٔ این TPU، توان این تراشه را به 92 TeraOps در ثانیه رسانده است و این در حالی است که گوگل قدرت این تراشه را در مقایسهٔ بنچمارک‌های آن با پردازنده‌ٔ در سطح سرور مانند Haswell اینتل و پردازندهٔ گرافیکی Nvidia K80 به رخ کشیده است.

آزمایش‌های داخلی گوگل نشان داده که در کارهای مربوط به AI (هوش مصنوعی)، TPU حدود 15 تا 30 برابر سریع‌تر عمل می‌کند و همچنین بازده بسیار خوبی در زمینهٔ انرژی نشان می‌دهد که میزان آن به 30 تا 80 برابر در واحد TeraOps/watt می‌رسد؛  در ضمن این امکان وجود دارد که با به‌کارگیری حافظهٔ GDDR5 سریع‌تر، این راندمان را باز هم ارتقا بخشید.

سر‌وکلهٔ TPUها اولین بار در سال 2006 وقتی پیدا شد که گوگل شروع به استفاده از GPUها، FPGAها، و ASICهای اختصاصی در دیتاسنترهای خود کرد (در اصل، این‌ها چیزی است که TPU را تشکیل داده است.) در آن زمان، بیشتر اپلیکیشن‌ها به سخت‌افزار خاص و قدرتمندی نیازمند نبودند، اگر هم استثنایی وجود داشت، دیتاسنترها مقداری بسیار بیشتر از آنچه مورد نیاز بود در اختیار داشتند. در ادامه، سال 2013 سالی بود که Deep Neural Net (شبکه‌های عصبی عمیق) رواج یافتند.

در مقاله‌ای که توسط محققان گوگل، Norman P. Jouppi و دیگران در همین راستا منتشر شده، گوگل اظهار داشته است که:

سال 2013 فهمیدیم اگه DNNها به محبوبیت بیشتری برسن، احتمالا تعداد درخواست‌های محاسباتی ر, روی دیتاسنترهای ما تا 2 برابر افزایش می‌دن که برآوردن این میزان محاسبات، با استفاده از CPUهای معمولی خیلی گرون‌تر تموم می‌شه!

گوگل اعلام کرد که از سال 2015 به بعد، از TPU در سرورهای خود استفاده می‌کند و این قضیه کمک کرده تا هزینهٔ محاسباتی آن‌ها نسبت به مدل‌های یادگیری ژرف (Deep Learning) که پیش از این استفاده می‌کردند، کاهش یابد. در حالت قبلی، اگر کاربران می‌خواستند از جستجوی صوتی گوگل به مدت 3 دقیقه در روز استفاده کنند که برای تشخیص گفتار به اجرای شبکه‌های عصبی عمیق در پردازنده‌های گوگل نیازمند بود، این شرکت باید تعداد دیتاسنترهایش را 2 برابر می‌کرد، اما با این تراشه‌ها دیگر نیازی به این کار نیست.

TPUها در حال حاضر برای اجرای چندین محصول گوگل مورد استفاده قرار می‌گیرند مثل Image Search ،Photos ،Google Cloud Vision و غیره. این پردازنده‌ها در توسعهٔ Google Translate در سال گذشته نیز نقش موثری داشتند و همچنین به هوش مصنوعی DeepMind کمک کردند تا در بازی Go برنده شود (برای آشنایی بیشتر با DeepMind، به مقالهٔ هوش مصنوعی جدید گوگل بهتر از انسان‌ها لب‌خوانی می‌کند مراجعه نمایید.)

منبع


مرتضی صمدی