آشنایی با مفاهیم Thread ،Process و نحوۀ کارکرد Multithreading


نیاز به توضیح نیست که کامپیوترهای مدرن امروزی توانایی انجام چندین عملیات را به صورت هم‌زمان دارند که این قابلیت با استفاده از امکانات پیشرفتۀ سخت‌افزاری و همچنین سیستم‌عامل‌های هوشمند، از یکسو منجر به افزایش سرعت اجرای برنامه‌ها و از سوی دیگر باعث بهبود سرعت پاسخ‌دهی سیستم به درخواست‌های مختلف کاربر می‌گردد. توسعۀ نرم‌افزاری که چنین قابلیتی را داشته باشد پیچیده بوده و از همین روی نیاز است تا در ابتدا با پشت پردۀ نحوۀ اجرای برنامه‌های مختلف در سیستم‌های کامپیوتری آشنا شویم که در همین راستا در این مقاله قصد داریم تا به بررسی مفهومی تحت عنوان Thread بپردازیم.

همان‌طور که پیش از این اشاره کردیم، سیستم‌عامل‌های مدرن امروزی قابلیت اجرای چندین برنامه را به صورت هم‌زمان دارند و به همین دلیل است که اگر در حال حاضر با استفاده از یک لپ‌تاپ در حال مطالعهٔ این مقاله باشید، در آنِ واحد می‌توانید با نرم‌افزار مدیاپلیرِ سیستم خود به موسیقی گوش دهید بدین معنی که سیستم‌عامل‌ شما توانایی اجرای دو یا چند برنامۀ مختلف را به صورت هم‌زمان دارا است.

در حقیقت، در مثال فوق‌ هر برنامه به عنوان یک فرآیند مستقل در سیستم‌عامل اجرا می‌شود بدین دلیل که یکسری قابلیت‌های نرم‌افزاری و همچنین زیرساخت‌های سخت‌افزاری برای سیستم‌عامل‌های مختلف طراحی شده‌اند تا توانایی اجرای فرآیندهای مختلف را در کنار یکدیگر را ایجاد کنند اما در عین حال توجه داشته باشیم که اجرای برنامه‌ها با به‌کارگیری قابلیت‌های سیستم‌عامل مربوطه تنها روش رایج به منظور اجرای آن‌ها به صورت هم‌زمان نیست. در واقع، Process یا به عبارتی یک برنامه‌ را می‌توان به تَسک‌های زیرشاخه‌ای تحت عنوان Thread تقسیم کرد که سیستم‌عامل مد نظر توانایی اجرای این تِرِدها را به صورت هم‌زمان دارا است به طوری که هر تِرِد بخشی از خودِ پراسس (فرآیند) بوده و در ابتدا و در نقطۀ شروع نیز هر پراسس متشکل از حداقل یک تِرِد است که تحت عنوان تِرِد اصلی شناخته می‌شود اما بسته به نیاز برنامه‌نویسان می‌توان تِرِدهای دیگری به آن افزود و یا به کارشان خاتمه داد.

با این تفاسیر می‌توان گفت که مفهومی تحت عنوان Multithreading به منظور توصیف اجرای چندین تَسک با به‌کارگیری تِرِدهای مختلف در طِی یک فرآیند واحد مورد استفاده قرار می‌گیرد. به عنوان مثال، احتمالاً یک نرم‌افزار مدیاپلیر متشکل از چندین تِرِد مختلف است که مثلاً یکی از آن‌ها به منظور رِندِر کردن رابط کاربری به کار گرفته شده و معمولاً تِرِد اصلی می‌باشد و تِرِدهای دیگری نیز جهت هندل کردن پخش موسیقی و غیره مورد استفاده قرار می‌گیرند.

به طور کلی، یک سیستم‌عامل را می‌توان به منزلۀ ظرفی در نظر گرفت که در آن پراسس‌های متعددی با به‌کارگیری ریسورس‌های مورد نیازشان اجرا می‌شوند و هر پراسس نیز همچون ظرفی دارای چندین تِرِد است که هر یک مسئول انجام تَسک‌های زیرشاخۀ مربوط به آن پراسس اصطلاحاً Parent (والد) خود می‌باشند که در این مقاله قصد داریم تا روی مفهوم تِرِدها تمرکز کرده و به بررسی نحوۀ عملکرد آن‌ها بپردازیم.

آشنایی با تفاوت‌های مابین Process و Thread

سیستم‌عامل‌ها به منظور اجرای هر برنامه یا به اصطلاح Process (فرآیند) بخش جداگانه‌ای از حافظه‌ را اختصاص می‌دهند و به طور پیش‌فرض این حافظه را نمی‌توان با فرآیندهای دیگر به اشتراک گذاشت به طوری که مثلاً برنامۀ مربوط به مرورگر به حافظۀ اختصاص داده‌شده به نرم‌افزار مدیاپلیر دسترسی ندارد و بالعکس مضاف بر اینکه دو نمونۀ فرآیند مشابه یا به عبارتی دو بار اجرای برنامه‌ای یکسان را می‌توان مد نظر قرار داد به طوری که سیستم‌عامل با هر یک از آن‌ها به عنوان یک فرآیند مستقل رفتار کرده و بخش جداگانه‌ای در حافظه را به هر یک اختصاص می‌دهد (به طور پیش‌فرض دو یا چند فرآیند مستقل هیچ راهی برای به اشتراک گذاشتن داده‌های حاصل از اجرای برنامه‌ها با هم ندارند اما این در حالی است که با به‌کارگیری روش‌های پیشرفته‌ای تحت عنوان Inter Process Communication یا به اختصار IPC می‌توان ارتباطِی مابین فرآیندهای مختلف در سیستم‌عامل برقرار کرد.)

بر خلاف فرآیندها، تِرِدها از حافظۀ یکسان اختصاص‌یافته توسط سیستم‌عامل به فرآیندهای والد خود برخوردار می‌گردند بدین معنی که حافظۀ اختصاص‌یافته به فرآیند مد نظر برای تمامی تِرِدهای زیرشاخۀ مربوط به فرآیند والد مذکور یکسان بوده و بدیهی است که هر یک از تِرِدها نیز بدین حافظۀ مشترک دسترسی دارند. برای مثال، در نرم‌افزار مدیاپلیر تِرِد مربوط به رِندِر کردن صوت به راحتی می‌تواند به دیتای مربوط به تِرِد اینترفیس اصلی مدیاپلیر دسترسی پیدا کند و عکس این موضوع نیز صادق می‌باشد. بنابراین برقراری ارتباط مابین دو تِرِد در یک فرآیند والد آسان‌تر است به علاوه اینکه تِرِدها معمولاً سبک‌تر از یک فرآیند هستند بدین معنی که به منظور انجام تَسک مد نظر ریسورس‌های کمتری را از سیستم‌عامل دریافت می‌کنند و همچنین ایجاد تِرِدها جهت هندل کردن تَسک‌های زیرشاخه در یک فرآیند سریع‌تر انجام می‌شود و به همین دلیل نیز گفته می‌شود که تِرِدها فرآیندهای به اصطلاح Lightweight (سبک) می‌باشند.

از جمله دیگر تفاوت‌های مابین تِرِد و پراسس می‌توان بدین موضوع اشاره کرد که تِرِدها روشی جهت ایجاد امکانِ اجرای چندین عملیات به صورت هم‌زمان برای برنامۀ مد نظر در سیستم‌عامل هستند. در واقع، بدون تِرِدها برنامه‌نویسان مجبورند تا به ازای هر یک از تَسک‌های مد نظر خود یک برنامۀ جداگانه نوشته و آن‌ها را اجرا کنند و در نهایت هر یک از فرآیندهای اجراشده را از طریق سیستم‌عامل با یکدیگر سینک کنند که هندل کردن این موضوع از طریق برقراری ارتباطاتی مثلاً از نوع IPC امکان‌پذیر بوده اما تا حدودی دشوارتر و همچنین کُندتر از انجام تَسک‌های مربوطه با به‌کارگیری تِرِدها می‌باشد چرا که اجرای پراسس‌های مختلف بدون تِرِدها و در نهایت سینک کردن آن‌ها با یکدیگر نیاز به دریافت ریسورس‌های بیشتری از سیستم‌عامل دارند و از همین روی گفته می‌شود که اصطلاحاً سنگین‌تر از تِرِدها هستند.

به طور کلی، تِرِدها در سیستم‌عامل بدین صورت تعریف می‌شوند که چنانچه دولوپری در طِی یک پراسس (فرآیند) قصد اجرای برخی از تَسک‌های زیرشاخه در طِی فرآیندی والد با به‌کارگیری یکسری تِرِد را داشته باشد، دستور ایجاد تِرِدهای مربوطه را به سیستم‌عامل می‌دهد و می‌توان گفت که برخی پلتفرم‌ها به صورت نِیتیو قابلیت پشتیبانی از تِرِدها به منظور تقسیم فرآیندها به یکسری تَسک زیرشاخه و اجرای آن‌ها از طریق تِرِدهای مربوطه را ندارند که در همین راستا در ادامه مفهومی تحت عنوان Green Thread را معرفی می‌کنیم که به منظور رفع این معضل مورد استفاده قرار می‌گیرد.

Green Thread چیست و چه کاربردهایی دارد؟

Green Thread تِرِدی است که قابلیت اجرای هم‌زمان برخی تَسک‌ها با به‌کارگیری تِرِدهای مختلف در طِی یک فرآیند والد را در پلتفرم‌هایی فراهم می‌کند که به صورت نِیتیو امکان اجرای آن‌ها را به صورت اصطلاحاً مالتی‌تِرِد ندارد. برای مثال، در یک ماشین مجازی که سیستم‌عامل مربوطه امکان پشتیبانی از اجرای برنامه‌ها به صورت مالتی‌تِرِد را ندارد، می‌توان با به‌کارگیری مفهوم Green Thread قابلیت اجرای هم‌زمان تَسک‌های مختلف را پیاده‌سازی کرد.

لازم به یادآوری است که نام‌گذاری این نوع تِرِدها تحت عنوان Green Thread برگرفته از نام تیمی تحت عنوان Green Team در شرکت Sun Microsystem است که این تیم لایبرری اصلی مربوط به تِرِدها در زبان برنامه‌نویسی جاوا را در دهۀ 90 طراحی کرده‌اند؛ به علاوه اینکه زبان‌های برنامه‌نویسی دیگری همچون Go ،Haskell یا Rust و غیره نیز مالتی‌تِرِدینگ را با به‌کارگیری این مفهوم به جای قابلیتی نِیتیو در این زبان‌ها معادل‌سازی کرده‌اند (امروزه زبان جاوا از فیچر Green Thread به منظور اجرای مالتی‌تِرِد برنامه‌های نوشته‌شده با این زبان استفاده نمی‌کند بلکه مالتی‌تِرِدینگ در سال 2000 به قابلیتی نِیتیو در این زبان تبدیل شده است.)

اجرای فرآیندها به صورت Multithread چه مزایایی دارا است؟

برای درک بهتر این موضوع، ابتدا بدین پرسش پاسخ می‌دهیم که «چرا نیاز داریم تا یک پراسس را با به‌کارگیری چندین تِرِد اجرا کنیم؟» که در پاسخ باید گفت همان‌طور که قبلاً اشاره کردیم، انجام برخی تَسک‌ها با به‌کارگیری قابلیت مالتی‌تِرِدینگ منجر به اجرای آن‌ها به صورت موازی شده و در نتیجه سرعت انجام کارها در سیستم‌های کامپیوتری افزایش می‌یابد. برای مثال، چنانچه بخواهیم فیلمی را با استفاده از نرم‌افزار مخصوص این کار ویرایش کنیم، می‌توان این کار را به صورت مالتی‌تِرِد انجام داده و عملیات مربوطه را در میان تِرِدهای مختلف پخش کرد به طوری که هر تِرِد یک قسمت از فیلم نهایی را پردازش کند. در چنین شرایطی، چنانچه ویرایش فیلم را با یک تِرِد انجام دهیم ممکن است فرآیند ویرایش ده‌ها دقیقه به طول انجامد اما این در حالی است که انجام چنین کاری با به‌کارگیری دو تِرِد ممکن است مثلاً 30 دقیقه، چهار تِرِد 15 دقیقه و به همین ترتیب کاهش یابد.

روی هم رفته می‌توان گفت که مالتی‌تِرِدینگ در همۀ موارد منجر به بهبود پرفورمنس در اجرای فرآیندهای مد نظر نمی‌شود به طوری که دولوپرها جهت انجام تَسک‌ها با به‌کارگیری قابلیت مالتی‌تِرِدینگ می‌باید شرایطی را مد نظر قرار دهند که برخی از مهم‌ترین آن‌ها عبارتند از:

- برای اجرای تمامی برنامه‌ها نیاز به استفاده از قابلیت مالتی‌تِرِدینگ نیست. در واقع، اگر اپلیکیشن مد نظر یکسری دستور را به صورت پشت سر هم انجام می‌دهد یا معمولاً منتظر پاسخ کاربر به منظور انجام برخی کارها می‌ماند، در چنین شرایطی مالتی‌تِرِدینگ نمی‌تواند مفید واقع گردد.

- صرفاً با افزودن تعداد تِرِدهای بیشتر به برنامه نمی‌توان سرعت اجرای آن را افزایش داد بلکه هر یک از تَسک‌های زیرشاخه نیز باید به دقت تعریف و طراحی شوند تا عملیات مربوطه به صورت موازی اجرا شده و در نهایت منجر به افزایش سرعت اجرای آن شوند.

- نمی‌توان گفت که به‌کارگیری تِرِدها در اجرای برخی عملیات حتماً منجر به اجرای موازی آن‌ها می‌گردد بلکه این موضوع به زیرساخت‌های سخت‌افزاری سیستم مورد استفاده نیز وابسته است.

درآمدی بر تفاوت‌های Concurrency و Parallelism

نکتۀ قابل‌توجه در ارتباط با سیستم‌عامل‌های مختلف این است که چنانچه سیستمی امکان پشتیبانی از اجرای چندین عملیات به صورت Parallel (موازی) را نداشته باشد، می‌توان چنین قابلیتی را در آن‌ها شبیه‌سازی کرد بدین صورت که مفهوم Concurrency (هم‌زمانی) را در اجرای عملیات مختلف مورد استفاده قرار داد. در واقع، در سیستم‌عامل‌هایی که امکانات سخت‌افزاری به منظور پشتیبانی از اجرای تَسک‌ها به صورت موازی را ندارند، می‌توان با به‌کارگیری برخی قابلیت‌های سخت‌افزاری همچون توانایی‌های سی‌پی‌یو عملیات مد نظر را به صورت هم‌زمان اجرا کرد که در ادامه به بررسی تفاوت دو مفهوم Concurrency و Parallelism می‌پردازیم:

- Concurrency به مفهومی اشاره دارد که در آن پروسۀ شروع، اجرا و تکمیل تَسک‌های زیرشاخه در عملیات مد نظر در چند بازۀ زمانی یکسان و معمولاً روی به اصطلاح Single-core Processors (پردازنده‌های تک‌هسته‌ای) انجام می‌گیرد.

- Parallelism به اجرای موازی دو یا چند عملیات به صورت هم‌گام و هم‌زمان اشاره دارد بدین معنی که اجرای آن‌ها به صورت هم‌زمان و روی پردازنده‌های چندهسته‌ای انجام می‌شود به طوری که هر یک از هسته‌ها به صورت جداگانه تَسک‌های زیرشاخۀ مد نظر را به صورت موازی و هم‌گام با یکدیگر اجرا می‌کنند.

به طور کلی، Concurrency حالتی کلی از Parallelism بوده و می‌توان از آن به منظور بهبود سرعت در اجرای تَسک‌های مختلف به صورت کانکارنت روی سیستم‌عامل‌هایی استفاده کرد که قابلیت پشتیبانی از اجرای تَسک‌های مذکور به صورت موازی را ندارند که در ادامه به بررسی نحوۀ اجرای عملیات هم به صورت موازی و هم کانکارنت روی سیستم‌عامل‌های مختلف می‌پردازیم.

آشنایی با نحوۀ اجرای فرآیندها به صورت Concurrent و Parallel

Central Processing Unit یا به اختصار CPU در سیستم‌های کامپیوتری مسئولیت پردازش داده‌ها را بر عهده دارد و از چند بخش تشکیل شده است که بخش اصلی آن تحت عنوان Core (هسته) شناخته می‌شود که انجام محاسبات مورد نیاز به منظور پردازش داده‌ها بر عهدۀ این بخش می‌باشد مضاف بر اینکه بخش هسته در سی‌پی‌یو در هر لحظه قادر بر اجرای تنها یک عملیات است.

البته موضوع فوق‌الذکر که در آن هر یک از هسته‌های پردازنده قادر بر اجرای تنها یک عملیات در هر لحظه می‌باشند، یک مشکل بزرگ بوده و از همین روی تکنیک‌های پیشرفته‌ای در سیستم‌عامل‌ها به منظور فراهم کردن قابلیت اجرای چندین فرآیند (یا تِرِدهای زیرشاخه) به صورت هم‌زمان در پردازنده‌ها و حتی در دیوایس‌های تک‌هسته‌ای (به ویژه در محیط‌های گرافیکی) توسعه داده شده‌اند که از جمله مهم‌ترین تکنیک‌ها برای این منظور می‌توان اصطلاحاً Preemptive Multitasking را نام برد که در آن پردازندۀ سیستم قابلیت اجرای فرآیندها با به‌کارگیری تِرِدهای مختلف را به صورت پیشگیرانه دارا است بدین معنی که در صورت لزوم می‌تواند اجرای برخی از تَسک‌ها را متوقف کرده و تِرِد مد نظر را به اجرای تَسکی دیگر اختصاص دهد سپس اجرای تَسک اول را در زمانی دیگر مجدداً از سر بگیرد.

بنابراین اگر سیستمی دارای پردازنده‌ای تک‌هسته‌ای باشد، سیستم‌عامل مد نظر قدرت محاسباتی این هسته را مابین چند تِرِد جهت اجرای تَسک‌های زیرشاخه یا چند پراسس مختلف توزیع می‌کند تا هر یک از تَسک‌ها یا فرآیندها پس از یکدیگر و در یک حلقه اجرا شوند.

همان‌طور که می‌توان حدس زد، در چنین شرایطی عملیات مختلف امکان اجرا به صورت هم‌زمان را دارند و همچنین می‌توان عملیات مربوط به یک برنامه را به یکسری تَسک‌های زیرشاخه تقسیم کرده و هر یک را با به‌کارگیری چندین تِرِد به صورت کانکارنت اجرا کرد اما این در حالی است که اجرای عملیات مذکور در سیستم‌های تک‌هسته‌ای به صورت موازی میسر نمی‌باشد. از سوی دیگر، پردازنده‌های مدرن امروزی با بیش از یک هسته به بازار عرضه می‌شوند به طوری که در هر لحظه هر یک از آن‌ها می‌تواند عملیاتی مستقل از یکدیگر را اجرا کند بدین معنی که در سیستم‌عامل‌های مختلف با به‌کارگیری بیش از یک هسته می‌توان تَسک‌های مربوطه را به صورت موازی اجرا کرد. برای مثال، یک پردازندهٔ Corei7 با چهار هسته توانایی اجرای هم‌زمان حداقل چهار فرآیند یا تِرِد مختلف را به صورت موازی و مستقل از هم دارا است.

همچنین سیستم‌عامل‌ها قادر به شناسایی تعداد هسته‌های سی‌پی‌یو و اختصاص فرآیندها یا تِرِدهای مورد نظر به هر یک از آن‌ها می‌باشند. در واقع، سیستم‌عامل بر اساس یکسری الگوریتم خاص و با بررسی شرایط هر یک از هسته‌های پردازنده تِرِدهای مربوطه را به منظور اجرای تَسک مد نظر و طبق زمان‌بندی مربوط به الگوریتم مذکور به آن‌ها اختصاص می‌دهد تا هر یک از تَسک‌ها با به‌کارگیری ریسورس‌ها و همچنین قابلیت‌های هستۀ متناظرشان اجرا شوند. به علاوه اینکه چنانچه تمامی هسته‌ها مشغول به اجرای تَسکی باشند، الگوریتم مالتی‌تَسکینگ پیشگیرانه انجام شده و بدین ترتیب برخی از تِرِدها از تَسک‌های متناظر گرفته شده و به انجام تَسکی دیگر اختصاص داده می‌شوند که در این بین پس از گذشت زمان معینی و بالتبع تکمیل تَسک مد نظر، تِرِد مذکور مجدداً به منظور از سر گرفتن اجرای تَسک قبل آزاد می‌گردد که در چنین شرایطی می‌توان گفت که سیستم‌عامل مد نظر توانایی اجرای فرآیندها یا تِرِدهایی بیش از ظرفیت تعداد هستۀ موجود در سیستم‌عامل را دارا است.

نحوۀ اجرای برنامه‌ها به صورت Multithread در یک سیستم‌عامل تک‌هسته‌ای

همان‌طور که پیش‌تر اشاره کردیم، اجرای تَسک‌ها به صورت موازی در پردازنده‌های تک‌هسته‌ای امکان‌پذیر نمی‌باشد اما این در حالی است که در صورت لزوم می‌توان عملیات مد نظر را به صورت مالتی‌تِرِد در آن‌ها اجرا کرد. در واقع، هنگامی که فرآیندی با چند تِرِد اجرا می‌شود، به‌کارگیری الگوریتم مالتی‌تَسکینگ پیشگیرانه منجر به اجرای برنامه به صورت کانکارنت می‌شود به طوری که حتی ممکن است اجرای برخی تَسک‌های زیرشاخه کُند بوده یا برخی از آن‌ها جهت اختصاص تِرِد متناظرشان به تَسک‌های دیگر مسدود شوند اما به هر حال برنامۀ مد نظر در حال اجرا باقی مانده و متوقف نمی‌شود.

برای مثال، فرض کنید که بر روی یک اپلیکیشن دسکتاپ کار می‌کنید که برخی از داده‌ها را از یک هارد بسیار کُند فراخوانی می‌کند. در چنین شرایطی، اگر برنامۀ مذکور صرفاً با یک تِرِد نوشته شده باشد، کل برنامه تا زمان اتمام عملیات خواندن از روی هارد متوقف می‌شود به طوری که در زمان انتظار برای اتمام کار فراخوانی داده‌ها، توان سی‌پی‌یو به تنها یک تِرِد اختصاص داده شده و به نوعی به هدر می‌رود (بدیهی است که سیستم‌عامل مد نظر فرآیندهای دیگری را در کنار این فرآیند اجرا می‌کند، اما پروسۀ اجرای برنامۀ مذکور متوقف شده و پیشرفتی نخواهد کرد.)

حال فرض کنید که چنین برنامه‌ای را به صورت مالتی‌تِرِد نوشته باشیم که در آن مثلاً تِرِد الف مسئول دسترسی به هارد بوده و تِرِد ب مسئول پردازش‌های مربوط به اینترفیس است. در این مثال، اگر اجرای تِرِد الف به دلیل سرعت کُند سیستم دچار مشکل شود، تِرِد ب همچنان می‌تواند فرآیندهای مربوط به اینترفیس را هندل کند و این امر منجر بدین می‌شود که برنامۀ مد نظر توانایی پاسخگویی به سایر درخواست‌های کاربر را داشته باشد. در واقع، این روش بدین صورت کار می‌کند که سیستم‌عامل مربوطه دائماً مابین تِرِدهای مذکور سوئیچ کرده و بدون آنکه از سرعت اجرای آن‌ها کاسته شود، در هر مرتبه ریسورس‌های سی‌پی‌یو را متناسب با نیاز هر یک از تَسک‌های زیرشاخه به تِرِد متناظرشان اختصاص می‌دهد.

چگونه قابلیت Multithreading منجر به بروز مشکل در اجرای تَسک‌های برنامه می‌شود؟

همان‌طور که پیش‌تر بیان کردیم، تِرِدهای مختلف می‌توانند به فضایی یکسان از حافظۀ اختصاص‌یافته به فرآیند والد خود دسترسی پیدا کنند و این امر منجر بدین می‌شود تا دو یا چند تِرِد مختلف در یک نرم‌افزار به راحتی امکان دسترسی به داده‌های هم را داشته و با یکدیگر به تبادل دیتا بپردازند. به عنوان مثال، در یک نرم‌افزار ویرایشگر فیلم ممکن است بخش بزرگی از حافظۀ سیستم بدان اختصاص یافته و چندین تِرِد نیز به منظور رِندِر کردن فِریم‌های فیلم مربوطه مورد استفاده قرار گیرند که هر یک نیز به حافظۀ اشتراکی دسترسی دارند که در چنین شرایطی هر یک از تِرِدها به منظور خواندن فریم‌ها از حافظه، انتقال خروجی رِندِرشده و ذخیرۀ آن روی هارد نیاز به یک اصطلاحاً Pointer (اشاره‌گر) به فضای متناظر هر یک از فریم‌های موجود در آن را دارند.

در برخی موارد دسترسی دو یا چندین تِرِد به یک حافظۀ مشترک مشکلی را به وجود نمی‌آورد اما این در حالی است که مشکلات زمانی رخ می‌دهند که حداقل یکی از تِرِدهای مذکور وظیفۀ اصطلاحاً Write (نوشتن) در حافظۀ مشترک را داشته و تِرِدی دیگر تَسکی مربوط به Read (خواندن) از آن را بر عهده داشته باشد که در چنین شرایطی حداقل دو مشکل می‌تواند رخ دهد که عبارتند از:

- Data Race: شرایطی را در نظر بگیرید که در آن تِرِد Writer در حال نوشتن دیتای مربوطه در حافظه بوده و محتوای آن را تغییر می‌دهد و از سوی دیگر تِرِد Reader نیز به صورت هم‌زمان به حافظه دسترسی داشته و اطلاعات را از آن می‌خواند که در این صورت چنانچه تَسک مربوط به تِرِد Writer به اتمام نرسیده باشد، بدیهی است که تِرِد Reader به اطلاعاتی ناقص یا اشتباه دسترسی پیدا می‌کند.

- Race Condition: حال فرض کنیم که یک تِرِد صرفاً پس از اتمام تَسک مربوط به تِرِد دیگری، اجازۀ دسترسی به هارد را داشته باشد که در چنین شرایطی اتفاقی به مراتب بدتر از دسترسی به دیتای ناقص یا اشتباه رخ می‌دهد! بدین ترتیب که ممکن است مثلاً تِرِد Reader یا Writer تَسک متناظرشان را بر اساس ترتیبی غیرقابل‌پیش‌بینی انجام داده و بدین ترتیب هرگز اجازۀ دسترسی به هارد را به تِرِد دیگر ندهند که در چنین شرایطی با مشکلی تحت عنوان Race Condition مواجه می‌شویم. در واقع، Race Condition زمانی اتفاق می‌افتد که تَسک‌های مد نظر به همان ترتیب مورد انتظار اجرا نشده و منجر بدین می‌شود تا تِرِدهای مربوطه هرگز اجازۀ دسترسی به حافظه به منظور انجام تَسک متناظر را نداشته باشند و در صورتی می‌توان از وقوع این شرایط بحرانی جلوگیری کرد که اطمینان حاصل کنیم تا تَسک‌های مد نظر حتماً بر اساس ترتیبی مشخص اجرا می‌شوند.

بنابراین می‌توان گفت که حتی اگر بتوان از دسترسی به دیتای نادرست برخی تِرِدها در یک برنامه جلوگیری کرد، برنامۀ مذکور می‌تواند در شرایط بحرانی گیر کرده و اجرای آن با مشکل مواجه شود که در همین راستا و برای حل مشکلاتی از این دست مفهومی تحت عنوان Thread Safety را در ادامه معرفی خواهیم کرد.

آشنایی با مفهوم Thread Safety

در صورتی می‌توان گفت یک قطعه کد اصطلاحاً Thread Safe است که با وجود به‌کارگیری تِرِدهای بسیار به منظور اجرای آن، به درستی کار کند بدین معنی که هیچ گونه به اصطلاح Data Race یا Race Condition رخ ندهد. برای مثال، یکی از ویژگی‌های برخی لایبرری‌های Third-party اصطلاحاً Thread Safe بودن آن‌ها است بدین معنی که چنانچه دولوپرها اقدام به نوشتن برنامه‌ای با قابلیت مالتی‌تِرِدینگ با به‌کارگیری آن لایبرری کنند، تمامی فانکشن‌های تعریف‌شده در لایبرری مد نظر قابلیت فراخوانی و اجرا از طریق تِرِدهای مختلف بدون مواجه شدن با مسائل کانکارنسی را دارند که در ادامۀ این مقاله با برخی از دلایل اصلی این مشکلات آشنا خواهیم شد.

همان‌طور که پیش‌تر اشاره کردیم، هستۀ پردازنده قابلیت اجرای تنها یک تَسک را در آنِ واحد دارا است و از همین روی گفته می‌شود چنین عملیاتی به اصطلاح Atomic (غیرقابل‌تجزیه) هستند چرا که نمی‌توان آن‌ها را به تَسک‌هایی زیرشاخه تقسیم کرد و همین خصوصیت عدم تجزیه‌پذیری برخی فرآیندها منجر بدین می‌شود تا به صورت ذاتی Thread Safe باشند!

در واقع، نحوۀ کارکرد عملیات به اصطلاح اَتمیک بدین صورت است که وقتی یک تِرِد تَسکی غیرقابل‌تجزیه به منظور نوشتن دیتایی روی داده‌های مشترک انجام می‌دهد، هیچ تِرِد دیگری قابلیت خواندن از روی این دیتای اصلاح‌شدۀ ناقص را ندارد و برعکس این موضوع نیز صادق است به طوری که وقتی یک تِرِد به صورت تجزیه‌ناپذیر تَسکی را به منظور خواندن از روی داده‌های ذخیره‌شده در حافظۀ مشترک انجام می‌دهد، تمام مقادیر داده‌ای را در همان لحظه و به صورت یکجا می‌خواند؛ به عبارت دیگر، در عملکرد تِرِدهای مربوط به تَسک‌های اَتمیک اشتباهی رخ نداده و بدین ترتیب مسئله‌ای همچون Data Race در طِی دسترسی آن‌ها به حافظۀ مشترک اتفاق نمی‌افتد.

اما در عین حال لازم به یادآوری است که برخی کارها در سیستم‌های کامپیوتری به صورت اَتمیک انجام نمی‌شوند به طوری که حتی یک دستور انتساب ساده همچون x = 1 در برخی از سخت‌افزارها ممکن است از چندین دستور متعدد اَتمیک تشکیل شده باشد و این در حالی است که فرآیند انتساب عدد به آن متغیر به عنوان یک دستور غیر اَتمیک انجام می‌شود و ممکن است در این حین مسئلۀ Data Race اتفاق بیفتد بدین صورت که مثلاً یک تِرِد متغیر x را خوانده و تِرِدی دیگر در حال انتساب مقدار به آن باشد!

به‌کارگیری قابلیت Preemptive Multitasking که پیش از این با مفهوم‌اش آشنا شدیم در سیستم‌عامل‌ها اجازۀ کنترل کامل بر مدیریت روند اجرای تَسک‌های زیرشاخه از طریق تِرِدها را به سیستم‌عامل مد نظر می‌دهد بدین صورت که می‌توان با به‌کارگیری یکسری الگوریتم پیشرفتۀ زمان‌بندی، مسائلی همچون امکان شروع، توقف و خاتمۀ اجرای عملیات از طریق آن‌ها را کنترل کرد. در واقع، دولوپرها نمی‌توانند بدون استفاده از قابلیت Preemptive Multitasking زمان یا ترتیب اجرای دستورات برنامه را کنترل کنند. برای مثال، کد فرضی زیر را مد نظر قرار می‌دهیم:

writer_thread.start()
reader_thread.start()

در کد فوق، نمی‌توان با اطمینان کامل گفت که دستورات مربوطه دقیقاً بر اساس ترتیب تعیین‌شده اجرا می‌شوند به طوری که ممکن است در هر بار اجرا رفتاری متفاوت را از خود نشان داده و در برخی مواقع تِرِد رایتر در ابتدا اجرا شود یا در اجراهای دیگر تِرِد رایتر پس از تِرِد ریدر اجرا گردد. حال در صورتی که بخواهیم مثلاً در برنامۀ فوق تِرِد رایتر همواره قبل از تِرِد ریدر اجرا شود، بدین ترتیب می‌توان گفت برنامۀ مد نظر در طِی اجرای تَسک‌های زیرشاخه ممکن است دچار مسئلۀ Race Condition شود چرا که رفتاری نامشخص و غیرقابل‌پیش‌بینی داشته و نتیجۀ آن در هر بار اجرا تغییر می‌کند و نیاز به توضیح نیست که دیباگ کردن چنین برنامه‌هایی که تحت تأثیر شرایطی بحرانی از این دست هستند بسیار پیچیده است چرا که همیشه نمی‌توان ارور مربوطه را به صورت کنترل‌شده بازآفرینی کرده و به دنبال دیباگ کردن آن بود!

جمع‌بندی
در این مقاله به بررسی مفهوم تِرِد پرداخته و دیدیم که چگونه می‌توان با تقسیم فرآیندهای مختلف به یکسری تَسک زیرشاخه آن‌ها را در سیستم‌عامل‌های تک‌هسته‌ای به صورت کانکارنت و همچنین در سیستم‌های چندهسته‌ای به صورت موازی اجرا کرد. از سوی دیگر، به بررسی مسائل مربوط به اجرای برنامه‌ها به صورت کانکارنت پرداخته و مشکلاتی را برشمردیم که ممکن است در طِی اجرای عملیات مد نظر به صورت کانکارنت با آن‌ها مواجه شویم و در نهایت هم روشی را به منظور مواجهه با چنین مشکلاتی ارائه دادیم.

منبع