ورود به حساب کاربری

نام کاربری *
رمز عبور *
یاداوری

امتیاز کاربران

ستاره غیر فعالستاره غیر فعالستاره غیر فعالستاره غیر فعالستاره غیر فعال

 

تحولات جدید در بیگ دیتا (Big Data) در سال ۲۰۲۴

 

 

 

 

مقدمه

بیگ دیتا (Big Data) یکی از تحولات بزرگ فناوری در دهه اخیر بوده است که توانسته به سازمان‌ها کمک کند تا از داده‌ها برای تصمیم‌گیری بهتر و بهبود عملکرد استفاده کنند. در سال ۲۰۲۴، بیگ دیتا با پیشرفت‌های جدیدی همراه شده است که شامل ادغام با هوش مصنوعی، پردازش داده‌های بلادرنگ، کاربردهای نوین در حوزه سلامت، و مدیریت پایدار منابع و انرژی است. در این مقاله، به بررسی این تحولات و کاربردهای نوین بیگ دیتا می‌پردازیم.

ادغام بیگ دیتا با هوش مصنوعی و یادگیری ماشین

ادغام بیگ دیتا با الگوریتم‌های هوش مصنوعی (AI) و یادگیری ماشین (ML) به تحلیل و تفسیر داده‌های پیچیده کمک کرده و توانسته است به سازمان‌ها ابزارهای پیشرفته‌ای برای پیش‌بینی و تصمیم‌گیری ارائه دهد. این ادغام نقش مهمی در بهبود بهره‌وری و کاهش هزینه‌ها در صنایع مختلف ایفا می‌کند.

کاربردها

بازاریابی: تحلیل داده‌های کاربران برای ارائه پیشنهادات شخصی‌سازی‌شده.

مالی: شناسایی الگوهای تقلب در تراکنش‌های بانکی و پیش‌بینی تغییرات بازار.

صنعتی: پیش‌بینی خرابی ماشین‌آلات و کاهش هزینه‌های تعمیر.

تحولات نوین

- توسعه الگوریتم‌های خودکارسازی تحلیل داده‌ها.

- کاهش نویز و افزایش دقت در پیش‌بینی با داده‌های بزرگ‌تر و باکیفیت‌تر.

 

استفاده از داده‌های بلادرنگ (Real-Time Data)

تولید و تحلیل داده‌های بلادرنگ با استفاده از دستگاه‌های اینترنت اشیا (IoT) به سازمان‌ها کمک می‌کند تا واکنش سریع‌تری به تغییرات داشته باشند. داده‌های بلادرنگ امکان شناسایی مسائل و فرصت‌ها را به صورت فوری فراهم می‌کنند.

کاربردها

مدیریت ترافیک: تحلیل داده‌های حسگرهای جاده‌ای برای بهبود جریان ترافیک.

پیشگیری از خرابی: پیش‌بینی خرابی دستگاه‌های صنعتی و زمان‌بندی تعمیرات.

خرده‌فروشی: بهبود تجربه مشتری با تحلیل لحظه‌ای رفتار خرید.

تحولات نوین

- استفاده از شبکه‌های 5G برای ارسال سریع‌تر داده‌ها.

- توسعه ابزارهای تحلیل بلادرنگ برای پردازش حجم بالای داده.

بیگ دیتا در حوزه سلامت و درمان

بیگ دیتا در پزشکی به عنوان ابزاری حیاتی برای بهبود تشخیص و درمان بیماری‌ها مطرح شده است. تحلیل داده‌های کلان مانند سوابق پزشکی، تصاویر پزشکی و داده‌های ژنتیکی به پیشرفت‌های چشمگیری منجر شده است.

کاربردها

تشخیص دقیق: استفاده از داده‌های MRI و CT اسکن برای پیش‌بینی بیماری‌های جدی مانند سرطان.

درمان شخصی‌سازی‌شده: تحلیل داده‌های ژنتیکی بیماران برای انتخاب بهترین روش درمان.

پیش‌بینی بیماری‌ها: ردیابی الگوهای شیوع بیماری‌ها با استفاده از داده‌های سلامت عمومی.

تحولات نوین

- کاهش زمان تحلیل ژنوم از چندین سال به چند روز.

- ادغام داده‌های دستگاه‌های پوشیدنی سلامت با سامانه‌های پزشکی.

مدیریت پایدار منابع و انرژی

بیگ دیتا نقش کلیدی در مدیریت منابع طبیعی و انرژی ایفا می‌کند. با تحلیل داده‌های کلان، سازمان‌ها می‌توانند مصرف انرژی را بهینه کنند و اثرات زیست‌محیطی را کاهش دهند.

کاربردها

انرژی: پیش‌بینی تقاضای انرژی و بهینه‌سازی تولید از منابع تجدیدپذیر.

کشاورزی: استفاده از داده‌های آب‌وهوا و خاک برای بهبود بهره‌وری کشاورزی.

آب: مدیریت منابع آب برای مقابله با بحران‌های خشکسالی.

تحولات نوین

- پیش‌بینی بلایای طبیعی با تحلیل داده‌های اقلیمی.

- توسعه سامانه‌های کشاورزی هوشمند برای کاهش مصرف آب و کود شیمیایی.

 

چالش‌ها و فرصت‌ها در بیگ دیتا

چالش‌ها

ذخیره‌سازی: مدیریت حجم عظیم داده‌ها نیازمند زیرساخت‌های قوی و پیشرفته است.

حریم خصوصی: حفظ امنیت داده‌ها و رعایت حقوق کاربران چالشی مهم است.

فرصت‌ها

ایجاد مشاغل جدید: تقاضای روزافزون برای تحلیل‌گران داده و متخصصان بیگ دیتا.

تصمیم‌گیری سریع‌تر: ارائه اطلاعات دقیق‌تر برای بهبود تصمیم‌گیری‌های کلیدی.

 

نتیجه‌گیری

بیگ دیتا در سال ۲۰۲۴ با پیشرفت‌های نوآورانه در ادغام با هوش مصنوعی، پردازش بلادرنگ، و کاربردهای جدید در حوزه سلامت و انرژی به رشد چشمگیری رسیده است. هرچند چالش‌هایی مانند حفظ حریم خصوصی و مدیریت زیرساخت‌ها وجود دارد، اما فرصت‌های بزرگی نیز پیش روی صنایع و سازمان‌ها قرار دارد. آینده بیگ دیتا، آینده‌ای مبتنی بر نوآوری و بهره‌وری است که نقش کلیدی در توسعه فناوری‌های پیشرفته خواهد داشت.

 

 

امتیاز کاربران

ستاره غیر فعالستاره غیر فعالستاره غیر فعالستاره غیر فعالستاره غیر فعال

در این قسمت، دکتر نظارات به موضوع چالش‌های زیرساختی در کشور و کمبود سرمایه‌گذاری در حوزه هوش مصنوعی پرداختند. ایشان با اشاره به سرمایه‌گذاری‌های گسترده کشورهایی مانند آمریکا، چین، تایوان و ژاپن در زمینه ساخت تراشه‌های هوش مصنوعی، تأکید کردند که توسعه نرم‌افزارهای بنیادی و مدیریت نرم‌افزاری اپلیکیشن‌های هوش مصنوعی برای ایران نیز ضروری است.

 

 

 

امتیاز کاربران

ستاره غیر فعالستاره غیر فعالستاره غیر فعالستاره غیر فعالستاره غیر فعال

 

 

رویداد هوش مصنوعی در کشاورزی روز چهارشنبه ۱۱ مهرماه جاری با حضور خیام نکوئی، معاون وزیر و رئیس سازمان تحقیقات، آموزش و ترویج کشاورزی، معاونان سازمان و جمعی از روسای موسسات تحقیقات کشاورزی و قریب ۶۰۰ نفر از متخصصان، محققان و فعالان شرکت‌های دانش بنیان فعال در حوزه کشاورزی و هوش مصنوعی در محل پژوهشگاه بیوتکنولوژی کشاورزی برگزار شد.

رئیس سازمان تحقیقات، آموزش و ترویج کشاورزی خاطر نشان کرد: امروزه همه ما با محدودیت‌های بخش کشاورزی آشنا هستیم و هر چه جلوتر می‌رویم، این محدودیت‌ها بیشتر می‌شود. تاثیرات افزایش متوسط دما و تغییرات اقلیمی در تولیدات بخش کشاورزی کاملا مشهود است و با توجه به روند افزایشی دما در جهان و ایران شاهد محدودیت‌های بیشتر در آینده خواهیم بود.
از طرف دیگر، جمعیت کشور رو به فزونی است، به طوری که در سال ۱۴۳۰ نیازمند ۱۸۰ میلیون تن مواد غذایی خواهیم بود.
وی  با بیان این که در برنامه هفتم توسعه هم مقرر شده که تا پایان برنامه در تولید محصولات کشاورزی راهبردی به ۹۰ درصد خودکفایی برسیم اظهار داشت: برای تحقق این هدف راهی جز افزایش بهره‌وری با استفاده از همه فناوری‌های نوین نداریم
رئیس سازمان تحقیقات، آموزش و ترویج کشاورزی با اشاره به تاکیدات مقام معظم رهبری در زمینه تقویت لایه‌های هوش مصنوعی در کشور، به بیان ظرفیت‌های موجود هوش مصنوعی در کشور پرداخت و خاطرنشان کرد: یکی از این ظرفیت‌ها نخبگان و نیروی انسانی متخصص در این حوزه است. در نشستی با دانشجویان ایرانی در مالزی متوجه شدم که ۷۰ درصد از آنها در حوزه‌های مرتبط با این حوزه مشغول به تحصیل هستند.

محسن مردی، رئیس پژوهشگاه بیوتکنولوژی کشاورزی هم در سخنرانی خود گفت: در ۴۰ سال گذشته تولیدات بخش کشاورزی کشور بیش از پنج برابر افزایش داشته است که ۷٠ درصد آن، مرهون تلاش ها و دستاوردهای محققان سازمان تات، کشاورزان و معاونت‌های اجرایی در وزارت جهاد کشاورزی بوده است.
مردی با اشاره به چالش‌های امروز ایران و جهان در بخش کشاورزی، اظهار کرد: تغییر اقلیم، الگوهای آب و هوایی و به دنبال آن الگوی تولید را در آینده تغییر خواهد داد و ما اگر بخواهیم امنیت غذایی پایدار را داشته باشیم، باید الگوهای تولید را با شرایط جدید تطبیق دهیم تا بتوانیم غذای کافی سالم قابل دسترس را برای کشور تامین کنیم.
رئیس پژوهشگاه بیوتکنولوژی کشاورزی ادامه داد:  چیزی که امروز به شدت نیازش احساس می‌شود، تحلیل و نظریه‌پردازی برای پدیده‌هایی است که در آینده اتفاق می‌افتد، برای انجام این کار ما نیازمند داده‌های دقیق و تحلیل دقیق داده‌ها و اطلاعات هستیم.
وی با تاکید بر اینکه ما با تحلیل گذشته می‌توانیم آینده را خلق کنیم، اظهار داشت: ما مجبوریم به‌زودی کشاورزی دقیق را عملیاتی کنیم و ضروری است از فناوری‌های مختلف هوش مصنوعی برای تهیه داده‌های دقیق با استفاده از ماهواره‌ها و حسگرها و همچنین  از الگوریتم‌های هوش مصنوعی برای تجزیه و تحلیل در همه مراحل کشاورزی از داشت، کاشت، برداشت و زنجیره تامین ارزش استفاده کنیم.

برای مشاهده متن کامل خبر اینجا کلیک کنید

 

 

 

امتیاز کاربران

ستاره غیر فعالستاره غیر فعالستاره غیر فعالستاره غیر فعالستاره غیر فعال

“برگزاری نشست «دستیابی به عمق هوش مصنوعی در لایه زیرساخت» در پژوهشگاه ارتباطات و فناوری اطلاعات”

 

نخستین نشست از سلسله نشست‌های «دستیابی به عمق هوش مصنوعی» در پژوهشگاه ارتباطات و فناوری اطلاعات با حضور متخصصان و نمایندگان دستگاه‌های اجرایی و دانشگاهیان برگزار شد. 

هدف این نشست بررسی راهبردهای توسعه زیرساخت‌های هوش مصنوعی در کشور بود و به دو بخش تقسیم شد: بخش اول به چیستی و نیازهای زیرساخت‌های هوش مصنوعی پرداخت و بخش دوم به هدف‌گذاری و چالش‌های پیش روی این حوزه اختصاص داشت.

 در این نشست، چندین متخصص از جمله دکتر محمد هادی بکایی، رئیس مرکز نوآوری و توسعه هوش مصنوعی، دکتر احسان آریانیان، دکتر امین نظارات، و دکتر سید مهدی حاتمیان به ارائه دیدگاه‌ها و نتایج تحقیقات خود پرداختند.

برای  کسب اطلاعات بیشتر اینجا کلیک کنید

 

 

 

 

امتیاز کاربران

ستاره غیر فعالستاره غیر فعالستاره غیر فعالستاره غیر فعالستاره غیر فعال

 

خلاصه اجرایی

این کتاب، راهنمایی مقدماتی درباره محاسبات با عملکرد بالا یا HPC است. این کتاب استفاده‌های مختلف، انواع بار کاری و انواع پردازشی که در HPC وجود دارند را خلاصه می‌کند. همچنین نمای کلی از خوشه‌های HPC و معماری آن‌ها ارائه داده و بررسی می‌کند که این خوشه‌ها کجا می‌توانند پیاده‌سازی شوند، چه در محل (on-premise) و چه در فضای ابری عمومی. این کتاب همچنین اجزای مختلفی که در خوشه‌های HPC دخیل هستند را معرفی می‌کند. به طور کلی، این راهنما به شما کمک می‌کند تا ساختار داخلی خوشه‌های HPC، معماری آن‌ها، موارد استفاده معمول و ابزارهای مرتبط با پیاده‌سازی HPC را درک کنید. پس از مطالعه این کتاب، باید درک کافی از دنیای HPC داشته باشید و قادر باشید نیازهای خود را برای شروع ارزیابی نمایید.

 

محاسبات با عملکرد بالا (HPC) چیست؟

محاسبات با عملکرد بالا، منابع محاسباتی را به‌صورت یک منبع واحد ترکیب می‌کند. این منابع ترکیبی اغلب به‌عنوان یک ابررایانه یا خوشه محاسباتی شناخته می‌شوند. HPC امکان پردازش شدید محاسباتی و اجرای بارهای کاری و برنامه‌های پیچیده را با سرعت بالا و به‌صورت موازی فراهم می‌کند. HPC در مقابل ابررایانه‌ها

این روزها، ابررایانه‌ها به‌عنوان مترادف محاسبات با عملکرد بالا شناخته می‌شوند. با این حال، این دو دقیقاً قابل جایگزینی نیستند. ابررایانه‌ها و ابررایانه‌سازی معمولاً به استقرارهای خوشه‌ای بزرگ‌تر و محاسباتی که در آنجا انجام می‌شود، اشاره دارند. HPC بیشتر به محاسباتی اشاره می‌کند که با استفاده از رایانه‌های بسیار سریع در خوشه‌های کوچک تا بزرگ انجام می‌شوند. اغلب، خوشه‌های HPC و ابررایانه‌ها معماری مشابهی دارند و از سرورهای کالایی ساخته می‌شوند.

 

تاریخچه ابررایانه‌سازی به استفاده از مجموعه‌ای از سیستم‌های خاص اشاره دارد که مشابه خوشه‌های HPC امروزی، بر روی مسائل بسیار پیچیده یا داده‌محور کار می‌کردند. با این حال، مقایسه قدرت محاسباتی این دو شبیه مقایسه سیب و گلابی است. حتی یک تلفن همراه امروزی قدرتمندتر از اولین ابررایانه‌ها است.

 

برای مثال، برخی تلفن‌های همراه می‌توانند به چندین گیگافلاپس (GFLOPS) برسند، در حالی که CDC 6600، یک ابررایانه که در دهه 1960 توسط سیمور کری طراحی شده بود، حدود سه مگافلاپس را تحویل می‌داد.

 

در آن زمان، ابررایانه‌ها قدرتمندتر از هر چیز دیگری در بازار بودند و بسیار گران‌قیمت بودند. برخلاف خوشه‌های HPC فعلی، ابررایانه‌ها از لحاظ معماری بسیار متفاوت بودند. در نهایت، آن‌ها سیستم‌های چندپردازنده‌ای بزرگ با قابلیت‌های بسیار خاص بودند و عمدتاً در حوزه دولت‌ها و دانشگاه‌های پژوهشی استفاده می‌شدند. اما امروز، سیستم‌های HPC در طیف وسیعی از صنایع کاربرد دارند.

 

موارد استفاده اصلی HPC

HPC برای حل برخی از پیچیده‌ترین و دشوارترین مسائل محاسباتی امروزی استفاده می‌شود. این مشکلات در تمام بخش‌ها، از جمله علم، مهندسی، یا تجارت وجود دارند. برخی از موارد استفاده محبوب HPC شامل موارد زیر است:

 

- مدل‌سازی اقلیمی و پیش‌بینی آب‌وهوا

- اکتشاف نفت و گاز

- مهندسی خودروسازی و هوافضا

- تحلیل مالی و ارزیابی ریسک

- کشف دارو و مطالعه پروتئین

- پردازش تصویر و ویدئو

- رمزگشایی معکوس و تشخیص نفوذ در امنیت سایبری

- پژوهش و تحلیل ژنوم‌ها

 

این موارد استفاده با معادلات عددی حل می‌شوند، مانند آن‌هایی که در دینامیک سیالات محاسباتی (CFD) وجود دارند. این معادلات داده‌های بزرگ را تحلیل یا پردازش می‌کنند، مانند آن‌هایی که در تحلیل داده‌های با عملکرد بالا (HPDA)، هوش مصنوعی و یادگیری ماشین استفاده می‌شوند.

 

بارهای کاری برای این موارد استفاده مختلف را می‌توان به یک یا چند نوع مختلف دسته‌بندی کرد، بسته به اینکه چگونه اجرا یا پردازش می‌شوند.

 

 

به عنوان مثال، پردازش دسته‌ای (Batch processing) شامل اجرای تعداد زیادی کار مشابه به‌صورت پشت سر هم است. پردازش بلادرنگ (Real-time processing) به پردازش داده‌ها در لحظه دریافت آن‌ها اشاره دارد. پردازش تعاملی (Interactive processing) شامل اجرای برنامه‌های تعاملی مانند شبیه‌سازی‌ها یا بصری‌سازی داده‌ها است.

 

بیایید برخی از این موارد استفاده را با جزئیات بیشتری بررسی کنیم، چرا که ارتباط نزدیکی با HPC دارند.

 

دینامیک سیالات محاسباتی (Computational Fluid Dynamics - CFD)

دینامیک سیالات محاسباتی (CFD) شاخه‌ای از علم است که از روش‌های عددی و الگوریتم‌ها برای حل و تحلیل جریان سیالات استفاده می‌کند. این علم برای مطالعه حرکت جامدات، مایعات و گازها و همچنین برای تحلیل و پیش‌بینی تأثیرات جریان‌های سیال بر روی ساختارها و سیستم‌ها به کار می‌رود. CFD ابزاری مهم برای مهندسان و دانشمندان است، چرا که می‌توان از آن برای مطالعه رفتار سیستم‌های پیچیده در طیفی وسیع از کاربردها، از جمله مهندسی هوافضا، خودروسازی و زیست‌پزشکی استفاده کرد.

 

 

تحلیل داده‌های با عملکرد بالا (High-performance Data Analytics - HPDA)

تحلیل داده‌های با عملکرد بالا (HPDA) فرایند تحلیل مقادیر زیادی از داده‌ها با سرعت و کارایی بالا به منظور کسب بینش‌های مفید است.

 

این فرایند شامل استفاده از تکنیک‌های تخصصی، سخت‌افزار و نرم‌افزارهای خاص برای تحلیل داده‌ها در مقیاس بزرگ، شناسایی الگوها و روندها و اتخاذ تصمیمات بلادرنگ است. تحلیل داده‌های با عملکرد بالا می‌تواند در حوزه‌های مختلفی مانند امور مالی، مراقبت‌های بهداشتی و بازاریابی مورد استفاده قرار گیرد. هدف نهایی آن بهبود بهره‌وری و افزایش سود است.

 

هوش مصنوعی (AI) و یادگیری ماشین (Machine Learning - ML)

هوش مصنوعی (AI) و یادگیری ماشین (ML) دو حوزه مرتبط از علوم رایانه هستند که بر توسعه سیستم‌های رایانه‌ای که می‌توانند یاد بگیرند، استدلال کنند و تصمیم بگیرند، تمرکز دارند. AI و یادگیری ماشین شامل استفاده از الگوریتم‌ها برای شناسایی الگوها و روندها در مجموعه داده‌ها و انجام پیش‌بینی‌ها و تصمیم‌گیری بر اساس آن داده‌ها هستند. AI و ML در کاربردهای متنوعی از جمله داده‌کاوی، پردازش زبان طبیعی، خودروهای خودران و موارد دیگر مورد استفاده قرار می‌گیرند.

 

حال چگونه HPC کار می‌کند؟ بیایید اجزای پشت صحنه خوشه HPC و ابزارهای رایج برای اجرای بارهای کاری HPC را بررسی کنیم. ابتدا تعریف کنیم منظورمان از یک خوشه HPC چیست.

 

خوشه‌های HPC چیستند؟

خوشه‌های HPC مجموعه‌هایی از منابع هستند که به‌طور اصلی برای اجرای بارهای کاری محاسباتی استفاده می‌شوند.

 

 

 

خوشه‌های HPC شامل موارد زیر هستند:

 

- **ایستگاه‌های کاری** که با بارهای کاری برای پردازش‌های پیش و پس از پردازش تعامل دارند.

 

- **سرورها** که به عنوان گره‌های محاسباتی (Compute Nodes)، گره‌های هدایت‌گر (Head Nodes) و گره‌های ذخیره‌سازی (Storage Nodes) مستقر می‌شوند.

 

  - **گره‌های محاسباتی** وظیفه پردازش بارهای کاری را بر عهده دارند.

 

  - **گره‌های هدایت‌گر** برای دسترسی کاربران و تعامل با خوشه مورد استفاده قرار می‌گیرند.

 

  - **گره‌های ذخیره‌سازی** برای ذخیره‌سازی داده‌ها، چه ذخیره‌سازی عمومی و چه محاسباتی به کار می‌روند.

 

- **سیستم عامل** که برای اجرای سرورها استفاده می‌شود.

 

- **خوشه Provisioner** که اطمینان از همگنی گره‌ها را تضمین کرده و برای پیاده‌سازی سیستم‌عامل سرورها استفاده می‌شود.

 

- **شبکه** برای ارتباط بین گره‌ها.

 

- **راه‌حل‌های ذخیره‌سازی** یک راه‌حل ذخیره‌سازی عمومی برای ذخیره برنامه‌ها و داده‌های کاربر.

یک سیستم فایل خوشه‌ای با سرعت بالا و تأخیر کم که معمولاً برای ذخیره‌سازی محاسباتی استفاده می‌شود. قابلیت‌های زمان‌بندی بارهای کاری و کتابخانه‌هایی که آن بارهای کاری به آن‌ها وابسته هستند.

 

خدمات کمکی شامل:

 

- **مدیریت هویت** برای حفظ یکپارچگی دسترسی کاربران در سراسر خوشه.

- **یک پشته نظارت و مشاهده‌پذیری** که به شما بینشی از استفاده از منابع بارهای کاری می‌دهد.

 

معماری خوشه HPC در صفحات بعدی، این اجزا را با جزئیات بیشتری بررسی خواهیم کرد.

 

سرورها

 

سرور، کامپیوتر یا سیستمی است که منابع، داده‌ها، خدمات یا برنامه‌ها را به سایر کامپیوترها، که به آن‌ها مشتریان گفته می‌شود، از طریق شبکه ارائه می‌دهد. سرورها می‌توانند عملکردهای مختلفی را ارائه دهند که معمولاً به آن‌ها خدمات گفته می‌شود، مانند اشتراک‌گذاری داده‌ها یا منابع میان چندین مشتری، یا انجام محاسبات برای یک مشتری.

 

نمونه‌های رایج از انواع سرورها شامل وب‌سرورها، سرورهای برنامه، سرورهای پایگاه داده و سرورهای فایل است. در محاسبات با عملکرد بالا، سرورها برای دو هدف اصلی استفاده می‌شوند:

 

1. محاسبه مدل‌های ریاضی یا پردازش داده‌ها.

2. ارائه داده‌ها از طریق سرورهای فایل.

 

سرورهایی که برای محاسبه و پردازش داده‌ها استفاده می‌شوند، به‌طور کلی **گره‌های محاسباتی** (Compute Nodes) نامیده می‌شوند. سرورهایی که داده‌ها را ارائه می‌دهند، به‌طور کلی **گره‌های ذخیره‌سازی** (Storage Nodes) نامیده می‌شوند.

 

گره‌های محاسباتی

 

گره‌های محاسباتی، اجزای پردازش در یک خوشه محاسباتی با عملکرد بالا (HPC) هستند. این گره‌ها بار کاری را با استفاده از منابع محلی مانند CPU، GPU، FPGA و دیگر واحدهای پردازش اجرا می‌کنند. این بارهای کاری همچنین از دیگر منابع موجود در گره محاسباتی برای پردازش استفاده می‌کنند، مانند حافظه، ذخیره‌سازی و کارت شبکه.

 

بارهای کاری از پهنای باند موجود در این اجزای زیرین استفاده می‌کنند. بسته به اینکه بار کاری چگونه از این اجزا استفاده می‌کند، ممکن است در هنگام اجرا توسط یکی یا چند مورد از آن‌ها محدود شود. برای مثال، برخی بارهای کاری که مقدار زیادی حافظه استفاده می‌کنند، ممکن است در پهنای باند یا ظرفیت حافظه محدود شوند.

 

بارهای کاری که مقدار زیادی داده را استفاده می‌کنند یا مقدار زیادی داده در طول محاسبات تولید می‌کنند، ممکن است به دلیل محدودیت‌های پهنای باند شبکه یا عملکرد ذخیره‌سازی، در سرعت پردازش خود محدود شوند.

 

اگر داده‌ها به‌عنوان بخشی از محاسبات بار کاری در ذخیره‌سازی نوشته شوند، برخی بارهای کاری ممکن است فقط به منابع محاسباتی زیادی نیاز داشته باشند و با توان پردازش خوشه محدود شوند. هنگام ایجاد و طراحی این خوشه‌ها، مهم است که از استفاده منابع بار کاری آگاه باشید و خوشه را با در نظر گرفتن آن طراحی کنید. بهترین راه برای درک استفاده از منابع بار کاری، نظارت بر منابع استفاده شده است. این کار به شما کمک می‌کند تا محدودیت‌ها را شناسایی کنید.

گره‌های هدایت‌گر

گره‌های هدایت‌گر یا گره‌های دسترسی به‌عنوان نقطه ورود به یک خوشه HPC عمل می‌کنند. کاربران در اینجا با ورودی و خروجی بارهای کاری خود تعامل دارند و به سیستم‌های ذخیره‌سازی محلی که برای خوشه در نظر گرفته شده دسترسی پیدا می‌کنند. همچنین در اینجا بارهای کاری خود را زمان‌بندی می‌کنند. برنامه‌ریز (Scheduler) به نوبه خود فرآیندها را روی گره‌های محاسباتی اجرا می‌کند.

 

گره‌های ذخیره‌سازی

گره‌های ذخیره‌سازی، کامپیوترها یا سرورهایی هستند که مسئول ذخیره‌سازی و ارائه دسترسی به داده‌ها از طریق شبکه هستند. گره‌های ذخیره‌سازی معمولاً به دیگر گره‌های ذخیره‌سازی در یک خوشه متصل هستند و دسترسی به داده‌های ذخیره‌شده در آن خوشه را فراهم می‌کنند. این گره‌ها اغلب از طریق یک شبکه پرسرعت مانند InfiniBand یا Ethernet به دیگر گره‌های ذخیره‌سازی یا محاسباتی متصل می‌شوند و دسترسی به داده‌ها را به‌طور مستقیم یا از طریق سیستم فایل فراهم می‌کنند.

 

پروتکل‌های مختلفی برای ارائه دسترسی به ذخیره‌سازی وجود دارد، از اشتراک‌گذاری سنتی NFS گرفته تا پیاده‌سازی ذخیره‌سازی‌های مشترک مانند Lustre یا BeeGFS.

سیستم‌عامل

برای اجرای گره‌ها، نیاز به یک سیستم‌عامل (OS) است. سیستم‌عامل مسئول مدیریت حافظه، پردازنده، ذخیره‌سازی و دیگر اجزای کامپیوتر است. همچنین، واسطی بین کاربر و سرورها فراهم می‌کند که به کاربران این امکان را می‌دهد تا با کامپیوتر تعامل داشته و برنامه‌ها را اجرا کنند. سیستم‌عامل‌های رایج در HPC شامل Windows، macOS و Linux هستند.

 

 

 

لینوکس در HPC

سیستم‌عامل لینوکس، که احتمالاً یکی از شناخته‌شده‌ترین پروژه‌های متن‌باز است، به‌عنوان یک محرک برای نرم‌افزار متن‌باز در HPC و همچنین به‌وسیله استفاده از موارد کاربرد HPC به توسعه آن کمک کرده است. ناسا یکی از اولین کاربران لینوکس بود و لینوکس به‌نوبه خود برای اولین خوشه Beowulf نقشی حیاتی داشت.

خوشه‌های Beowulf در اصل خوشه‌هایی بودند که با استفاده از سرورهای تجاری و اتصالات پرسرعت ایجاد شدند و به‌جای استفاده از سیستم‌های اصلی یا ابررایانه‌های سنتی، اولین خوشه Beowulf در ناسا راه‌اندازی شد و به شکل‌گیری HPC به آنچه امروز می‌شناسیم کمک کرد. این امر از آن زمان به پذیرش لینوکس در دولت و همچنین به دیگر بخش‌ها کمک کرد. امروزه این نوع خوشه توسط شرکت‌ها نیز استفاده می‌شود.

HPC تلاش‌های زیادی را برای توسعه لینوکس انجام داده است، که تماماً بر کاهش تأخیر و افزایش عملکرد در سطح کل استک (از شبکه‌سازی تا ذخیره‌سازی) متمرکز بوده است. Ubuntu سیستمی‌عاملی است که 66% از توسعه‌دهندگان آن را ترجیح می‌دهند و برای HPC ایده‌آل است. این سیستم‌عامل می‌تواند برای ایستگاه‌های کاری، دسترسی به خوشه‌های HPC یا نصب بر روی سرورها استفاده شود و تجربه‌ی یکنواختی را در هر دو محیط فراهم می‌کند.

تأمین خوشه

یکنواختی گره‌ها در HPC برای اطمینان از ثبات بار کاری اهمیت دارد. به همین دلیل، معمول است که خوشه‌های HPC با استفاده از راه‌حل‌های Metal-as-a-Service تأمین شوند که به سازمان‌ها کمک می‌کند این زیرساخت را در مقیاس وسیع مدیریت کنند.

راه‌حل‌های تأمین خوشه (MAAS)

Metal as a Service یا MAAS، یک پروژه متن‌باز است که توسط Canonical توسعه و نگهداری می‌شود. MAAS با هدف خاصی ایجاد شده است: تأمین منابع با تمرکز بر API و بدون استفاده از ماشین‌های مجازی. MAAS تمام جنبه‌های تأمین سخت‌افزار را به‌طور خودکار انجام می‌دهد، از شناسایی یک دستگاه رک گرفته تا استقرار یک سیستم‌عامل سفارشی و در حال اجرا.

این ابزار مدیریت خوشه‌های سرور بزرگ، مانند آن‌هایی که در HPC وجود دارند را از طریق انتزاع و اتوماسیون آسان می‌کند. MAAS به‌گونه‌ای طراحی شده است که استفاده از آن آسان باشد، دارای رابط کاربری جامع است و بر خلاف بسیاری از ابزارهای دیگر در این حوزه به دلیل طراحی غیرمتمرکز آن، به شدت مقیاس‌پذیر است.

MAAS به دو بخش تقسیم می‌شود:

1. **کنترل‌کننده منطقی** که وضعیت کلی خوشه را مدیریت می‌کند، از جمله نگهداری اطلاعات مربوط به مشخصات سخت‌افزاری کلی و اطلاعات در مورد سرورهای تأمین‌نشده و در دسترس و ارائه تمامی اطلاعات به کاربر.

2. **کنترل‌کننده رک بدون حالت** که وظیفه بوت کردن PXE و کنترل قدرت را بر عهده دارد. چندین کنترل‌کننده رک می‌توانند مستقر شوند که مقیاس‌پذیری آسان را بدون توجه به اندازه محیط ممکن می‌سازد. لازم به ذکر است که MAAS می‌تواند در یک پیکربندی با دسترسی بالا مستقر شود که این ویژگی باعث می‌شود که از نظر تحمل خطا نسبت به پروژه‌های مشابه در صنعت برتری داشته باشد.

xCAT

Extreme Cloud Administration Toolkit یا xCAT، یک پروژه متن‌باز است که توسط IBM توسعه داده شده است. تمرکز اصلی آن بر روی فضای HPC است و ویژگی‌های آن به‌ویژه برای ایجاد و مدیریت خوشه‌های بدون دیسک، نصب موازی و مدیریت گره‌های خوشه لینوکس طراحی شده است. همچنین، برای راه‌اندازی استک‌های محاسباتی با عملکرد بالا مانند برنامه‌ریزهای دسته‌ای مناسب است.

 

این ابزار قابلیت کلون کردن و تصویر برداری از ماشین‌های لینوکس و ویندوز را نیز دارد. برخی از ویژگی‌های آن به‌طور ویژه برای سرورهای IBM و Lenovo طراحی شده‌اند. بسیاری از سایت‌های HPC دولتی بزرگ از xCAT برای استقرار خوشه‌های HPC بدون دیسک استفاده می‌کنند.

 

 

 

 

 

Warewulf

هدف عالی Warewulf این است که "سیستم تأمین سیستم‌عامل بدون حالت و بدون دیسک برای خوشه‌های بزرگ از سیستم‌های فیزیکی و/یا مجازی" باشد. این ابزار برای تأمین خوشه‌های HPC در دو دهه گذشته استفاده شده است. Warewulf به‌تازگی با استفاده از Golang در آخرین نسخه خود، Warewulf v4، دوباره نوشته شده است.

شبکه‌ها

همان‌طور که در بالا ذکر شد، بارهای کاری موازی HPC به شدت به ارتباط بین‌فرایندی وابسته هستند. زمانی که این ارتباط درون یک گره محاسباتی انجام می‌شود، تنها از یک فرآیند به فرآیند دیگر از طریق حافظه آن گره محاسباتی منتقل می‌شود. اما زمانی که یک فرآیند با فرآیند دیگری در گره محاسباتی متفاوت ارتباط برقرار می‌کند، این ارتباط باید از طریق شبکه انجام شود.

این ارتباط بین‌فرایندی ممکن است به‌طور مکرر انجام شود. اگر این‌طور باشد، مهم است که شبکه دارای تأخیر کم باشد تا از تأخیر در ارتباط بین فرآیندها جلوگیری شود. در نهایت، نباید زمان ارزشمند محاسباتی را صرف انتظار برای دریافت پیام کرد. در مواردی که اندازه داده‌ها بزرگ است، مهم است که این داده‌ها به سرعت منتقل شوند. این امر با شبکه‌های با توان بالا امکان‌پذیر است.

هر چه شبکه سریع‌تر بتواند داده‌ها را منتقل کند، زودتر هر فرآیند می‌تواند بر روی بار کاری شروع به کار کند. ارتباط مکرر و اندازه‌های بزرگ پیام و داده ویژگی‌های معمول بارهای کاری HPC هستند. این امر به ایجاد راه‌حل‌های شبکه‌ای تخصصی منجر شده است که معمولاً تأخیر کم و توان بالا را برای برآورده کردن نیازهای خاص HPC ارائه می‌دهند.

 

راه‌حل‌های شبکه‌سازی

اترنت

اترنت، فناوری است که به‌طور گسترده برای ارائه اتصال شبکه استفاده می‌شود. برای درک اترنت، اغلب لازم است که مدل OSI را درک کنیم که اتصال را در هفت لایه توصیف می‌کند:

1. فیزیکی

2. پیوند داده

3. شبکه

4. حمل و نقل

5. نشست

6. ارائه

7. کاربرد

این مدل جامع است و نیاز به ارتباط قابل‌اعتماد را برآورده می‌کند. در HPC، جایی که عملکرد و تأخیر از اهمیت بالایی برخوردار است، لایه حمل و نقل که توسط اترنت ارائه می‌شود، گاهی اوقات به‌عنوان لایه ناکارآمد در نظر گرفته می‌شود.

 

برای مثال، TCP، یک پروتکل حمل و نقل برای اترنت است که نیاز به ارتباط‌های تأیید شده زیادی دارد که بار اضافی را به همراه می‌آورد. 

این مشکل با UDP کمتر است، که برای همان سطح از قابلیت اطمینان طراحی نشده است. البته تلاش‌هایی برای بهبود کارایی شبکه‌های مبتنی بر اترنت صورت گرفته است که در ادامه به آن‌ها اشاره خواهد شد. 

بر روی اترنت همگرا (RDMA RoCE) پروتکل شبکه‌ای است که دسترسی به حافظه مستقیم از راه دور (RDMA) را بر روی شبکه اترنت امکان‌پذیر می‌سازد؛ این کار را با کپسوله کردن یک بسته حمل و نقل InfiniBand (IB) بر روی اترنت انجام می‌شود. 

این امر بسیاری از بارهای اضافی مرتبط با پروتکل‌های حمل و نقل سنتی را حذف می‌کند و در نهایت تأخیر کمتر، بار CPU کمتر و پهنای باند بالاتری را فراهم می‌آورد. 

 

**Nvidia InfiniBand** 

InfiniBand یک فناوری شبکه با سرعت بالا است که در خوشه‌های HPC و سوپرکامپیوترها استفاده می‌شود. این فناوری برای ارتباط داده‌ها بین کامپیوترها و درون کامپیوترها استفاده می‌شود. همچنین برای اتصال سرورها به سیستم‌های ذخیره‌سازی به‌طور مستقیم یا از طریق یک سوئیچ و همچنین برای اتصال سیستم‌های ذخیره‌سازی به یکدیگر نیز کاربرد دارد. 

InfiniBand سرعت بسیار بالا و تأخیر بسیار کم را ارائه می‌دهد، که آن را برای برنامه‌های ذخیره‌سازی و محاسبات با عملکرد بالا، مانند برنامه‌هایی که به MPI برای ارتباط موازی وابسته‌اند، ایده‌آل می‌سازد. 

به‌عنوان مثال، نسل آخر InfiniBand اتصال ۴۰۰Gb/s را در هر پورت ارائه می‌دهد. تأخیر یک سوئیچ InfiniBand حدود ۱۰۰ نانوثانیه در مقایسه با حدود ۲۳۰ نانوثانیه برای سوئیچ‌های اترنت است. این ویژگی‌ها باعث شده است که InfiniBand به‌عنوان یک گزینه محبوب برای ارتباطات با سرعت بالا در خوشه‌های HPC شناخته شود. 

 

**HPE Cray Slingshot** 

Slingshot با اترنت سازگار است و در عین حال قابلیت‌هایی مشابه با InfiniBand از نظر توان عملیاتی و تأخیر ارائه می‌دهد. نسل آخر آن اتصال ۲۰۰Gb/s را در هر پورت ارائه می‌دهد. از آنجا که بر پایه اترنت است، ویژگی‌های مناسبی مانند اتصال مستقیم بین سوئیچ‌های HPE Cray Slingshot و سوئیچ‌های اترنت سنتی را ارائه می‌دهد. 

 

**Cornellis OmniPath** 

Cornellis OmniPath که پیشتر به‌نام Intel OmniPath شناخته می‌شد، یک فناوری ارتباط با سرعت بالا است که بر اساس ترکیبی از دو فناوری که اینتل خریدار‌ی کرده بود، طراحی شده است: TrueScale InfiniBand و ارتباط Aries از خط سوپرکامپیوترهای Cray XC

پس از خرید شرکت Barefoot Networks در سال ۲۰۱۹، اینتل تصمیم گرفت تمرکز خود را بر روی فناوری به‌دست‌آمده از این خرید به‌جای OmniPath بگذارد. 

دلیل این تصمیم این بود که آن‌ها به فرصتی برای ایجاد امکان استفاده‌های ارتباطی با سرعت بالا در سوئیچ‌های دارای ASICs قابل برنامه‌ریزی دست یافته بودند. 

اینتل خط تولید OmniPath مبتنی بر این فناوری را به یک شرکت جدید به‌نام Cornellis منتقل کرد، که به توسعه و نگهداری خط تولید OmniPath خارج از اینتل ادامه می‌دهد. 

 

**شبکه بدون سوئیچ Rockport** 

Rockport یک راه‌حل ارتباط با سرعت بالا مبتنی بر اترنت است که از سوئیچ‌ها اجتناب می‌کند. در این فناوری، NICها به‌طور مستقیم در یک شبکه بزرگ متصل هستند و اتصال و مسیریابی را به‌صورت موردنیاز بین یکدیگر فراهم می‌کنند. 

NICهایی که به‌طور مستقیم متصل نیستند، می‌توانند از طریق NICهای متصل، به NICهای دیگر متصل شوند. به‌طور ساده، NICها به‌عنوان سوئیچ عمل می‌کنند تا اتصال را فراهم سازند. 

 

**ذخیره‌سازی** 

راه‌حل‌های ذخیره‌سازی در فضای HPC اغلب به‌صورت فایل محور با پشتیبانی از POSIX هستند. این راه‌حل‌های مبتنی بر فایل، به‌طور کلی به دو دسته ذخیره‌سازی عمومی و ذخیره‌سازی موازی تقسیم می‌شوند.

راه‌حل‌های دیگر، مانند ذخیره‌سازی شیء یا ذخیره‌سازی Blob (اشیاء باینری بزرگ) که گاهی اوقات در HPC به آن اشاره می‌شود، می‌توانند به‌طور مستقیم توسط برخی بارهای کاری استفاده شوند، اما همه بارهای کاری این قابلیت را ندارند. 

ذخیره‌سازی عمومی 

دو استفاده اصلی از ذخیره‌سازی عمومی در یک خوشه HPC وجود دارد. یکی برای ذخیره‌سازی باینری‌های برنامه‌های در دسترس و کتابخانه‌های آن‌ها است. این امر به این دلیل مهم است که تمام باینری‌ها و کتابخانه‌ها در سراسر خوشه هنگام اجرای برنامه یکسان باشند، که این امر ذخیره‌سازی مرکزی را مناسب می‌سازد. 

دیگری برای دایرکتوری‌های خانگی کاربران و داده‌های دیگر کاربران است، زیرا مهم است که کاربر به‌طور مداوم به داده‌های خود در سراسر خوشه HPC دسترسی داشته باشد. استفاده از یک سرور NFS برای این منظور رایج است، اما پروتکل‌های ذخیره‌سازی دیگری وجود دارد که امکان دسترسی به فایل‌های مبتنی بر POSIX را فراهم می‌آورد. 

سیستم فایل خوشه‌ای 

سیستم فایل خوشه‌ای یا سیستم فایل موازی، یک سیستم فایل اشتراکی است که منابع ذخیره‌سازی را از چندین سرور ارائه می‌دهد و می‌تواند به‌طور هم‌زمان توسط چندین مشترک استفاده شود. 

این به مشتریان دسترسی مستقیم به داده‌های ذخیره‌شده را می‌دهد که به نوبه خود بارهای اضافی را با اجتناب از انتزاع حذف کرده و منجر به تأخیر کم و عملکرد بالا می‌شود. برخی سیستم‌ها حتی قادر به دستیابی به عملکرد مشابه با عملکرد کلی سخت‌افزار زیرین هستند. 

**Object Storage** 

ذخیره‌سازی شیء (Object Storage) معمولاً برای ذخیره‌سازی در خوشه‌های HPC استفاده می‌شود، چه برای بایگانی نتایج محاسباتی گذشته یا داده‌های مرتبط دیگر. به‌علاوه، ممکن است به‌طور مستقیم توسط بارهای کاری که از API‌های بومی ذخیره‌سازی شیء پشتیبانی می‌کنند، استفاده شود. 

**راه‌حل‌های ذخیره‌سازی** 

راه‌حل‌های ذخیره‌سازی مختلفی موجود است که شامل گزینه‌های اختصاصی و متن‌باز می‌شود. در ادامه به برخی از راه‌حل‌های متداول در HPC پرداخته می‌شود. 

**Ceph** 

Ceph یک راه‌حل ذخیره‌سازی نرم‌افزاری تعریف‌شده متن‌باز است که بر اساس ذخیره‌سازی شیء پیاده‌سازی شده است. 

این فناوری در ابتدا توسط Sage Weil برای یک پایان‌نامه دکترا ایجاد شد و ریشه‌هایی در سوپرکامپیوترها دارد. ایجاد آن توسط برنامه پیشرفته شبیه‌سازی و محاسبات (ASC) که شامل مراکز سوپرکامپیوتر مانند آزمایشگاه ملی لاس آلاموس (LANL)، آزمایشگاه‌های ملی سندیا (SNL) و آزمایشگاه ملی لارنس لیورمور (LLNL) است، حمایت شد. 

آغاز کار بر روی Ceph در یک برنامه تابستانی در LLNL شروع شد. Sage پس از اتمام تحصیلاتش، به‌طور تمام‌وقت به توسعه Ceph ادامه داد و شرکتی به نام Inktank برای پیشبرد توسعه آن تأسیس کرد. 

در نهایت توسط Inktank، Red Hat خریدار‌ی شد. Ceph همچنان یک پروژه متن‌باز قدرتمند است و توسط شرکت‌های بزرگی از جمله اعضای بنیاد Ceph مانند Canonical، Red Hat، Intel و... نگهداری می‌شود. 

Ceph به‌منظور جایگزینی Lustre در زمینه سوپرکامپیوترها ایجاد شد و از طریق تلاش‌های توسعه قابل‌توجه ویژگی‌هایی مانند CephFS را اضافه کرد که قابلیت سازگاری با POSIX را فراهم می‌آورد و آن را به یک سیستم ذخیره‌سازی شبکه‌ای فایل‌محور قدرتمند تبدیل می‌کند. 

پایه‌های Ceph واقعاً بر اساس تحمل خطا به‌جای عملکرد بنا شده است و مدل ذخیره‌سازی آن مبتنی بر تکرار، بارهای عملکردی قابل‌توجهی دارد. بنابراین، هنوز به سطح سایر راه‌حل‌ها از نظر ارائه عملکرد نزدیک به سخت‌افزار زیرین نرسیده است. اما Ceph در مقیاس بزرگ به‌خوبی مقیاس‌پذیر است و می‌تواند مقدار زیادی از عملکرد کلی خوشه Ceph را ارائه دهد.

Lustre 

Lustre یک سیستم فایل توزیع‌شده موازی است که برای محاسبات خوشه‌ای در مقیاس بزرگ استفاده می‌شود. 

واژه Lustre ترکیبی از کلمات Linux و Cluster است. Lustre به‌طور مداوم در IO500 (یک معیار دوسالانه که عملکرد راه‌حل‌های ذخیره‌سازی را در رابطه با موارد استفاده در محاسبات با عملکرد بالا مقایسه می‌کند) رتبه بالایی داشته و استفاده قابل توجهی در لیست TOP500 (یک انتشار معیار دوسالانه متمرکز بر عملکرد کلی خوشه) داشته است. 

Lustre در ابتدا به‌عنوان یک پروژه تحقیقی توسط Peter J. Braam، که در دانشگاه کارنگی ملون کار می‌کرد، ایجاد شد و سپس شرکت خود را (Cluster File Systems) برای کار بر روی Lustre تأسیس کرد. 

مشابه Ceph، Lustre تحت برنامه پیشرفت شبیه‌سازی و محاسبات (ASC) و پروژه PathForward که بودجه آن از طریق وزارت انرژی ایالات متحده (DoE)، Hewlett-Packard و Intel تأمین شد، توسعه یافت. Sun Microsystems در نهایت Cluster File Systems را خریداری کرد که پس از مدت کوتاهی توسط Oracle خریداری شد. 

Oracle and Lustre 

پس از خرید Sun، Oracle به‌سرعت اعلام کرد که توسعه Lustre را متوقف خواهد کرد. بسیاری از توسعه‌دهندگان اصلی Lustre تا آن زمان از Oracle خارج شده بودند و علاقمند به ادامه نگهداری و توسعه Lustre تحت یک مدل جامع هی باز بودند. 

به همین منظور، سازمان‌های مختلفی از جمله Open Scalable File System (OpenSFS) و EUROPEAN Open File Systems (EOFS) تأسیس شدند. برای پیوستن به این تلاش، استارتاپی به نام Whamcloud توسط چندین نفر از توسعه‌دهندگان اصلی تأسیس شد. 

OpenSFS بسیاری از فعالیت‌های Whamcloud را تأمین مالی کرد و این امر به‌طور قابل توجهی به توسعه Lustre کمک کرد. در نهایت، Whamcloud توسط Intel خریداری شد و از طریق بازسازی در Intel، بخش توسعه متمرکز بر Lustre به یک شرکت جدید به نام DDN منتقل شد. 

BeeGFS 

BeeGFS یک سیستم فایل موازی است که برای HPC توسعه یافته است. این فناوری در ابتدا در مرکز تحقیقاتی Fraunhofer برای محاسبات با عملکرد بالا توسط تیمی به رهبری Sven Breuner توسعه یافت. 

Breuner مدیر عامل ThinkParQ شد، شرکتی که برای نگهداری و تجاری‌سازی پیشنهادات حرفه‌ای مرتبط با BeeGFS تأسیس شد. 

BeeGFS توسط چندین نهاد اروپایی که خوشه‌های آنها در لیست TOP500 قرار دارد، استفاده می‌شود. 

DAOS 

یک راه‌حل ذخیره‌سازی متن‌باز است که Distributed Asynchronous Object Storage (DAOS) است. NVM هدف آن بهره‌برداری از جدیدترین نسل تکنولوژی‌های ذخیره‌سازی، مانند حافظه غیرفرار یا استفاده می‌کند تا منابع NVMe و دستگاه‌های ذخیره‌سازی Intel Optane. این فناوری از حافظه‌های دائمی در چالش 10 نود DAOS، ذخیره‌سازی را به‌عنوان یک راه‌حل توزیع‌شده ارائه دهد. به‌عنوان یک رقیب جدید به‌خوبی عمل کرد و چهار رتبه در میان 10 رتبه برتر را کسب کرد. این پروژه توسط ISC HP' در 22 IO500 ایجاد شده و به‌طور فعال نگهداری می‌شود. 

Intel 

GPFS 

نیز شناخته می‌شود (IBM Spectrum Scale که به‌عنوان (IBM General Parallel File System) به‌عنوان یک HPC یک سیستم فایل خوشه‌ای با عملکرد بالا است که توسط بسیاری از استقرارهای تجاری راه‌حل ذخیره‌سازی توزیع‌شده استفاده می‌شود. 

این فناوری همچنین در چندین خوشه سوپرکامپیوتری در لیست TOP500 یافت می‌شود. این فناوری در سال 1993 آغاز شد و در ابتدا برای Almaden IBM در مرکز تحقیقاتی Tiger Shark تحقیقات برنامه‌های چندرسانه‌ای با تمرکز بر نرخ انتقال طراحی شد. این طراحی متمرکز بر نرخ انتقال به‌طور قابل توجهی برای محاسبات علمی مناسب بود.

 

VAST Data 

یک بازیگر نسبتاً جدید در بازار ذخیره‌سازی است که دستگاه‌های ذخیره‌سازی را با استفاده از VAST Data 

برخی از جدیدترین تکنولوژی‌ها ارائه می‌دهد. 

D و حافظه غیرفرار مبتنی بر 3 Intel Optane / 3D XPoint NVMe های SSD به عنوان مثال، آنها از 

به عنوان بخشی از معماری داده‌های خود استفاده می‌کنند. XPoint 

های با چگالی بالاتر و مقرون‌به‌صرفه‌تر مبتنی بر SSD این حافظه‌ها به عنوان یک لایه تسریع‌شده در مقابل 

عمل می‌کنند. NAND Flash 

متصل شود و از InfiniBand یا Ethernet با استفاده از NVMe-oF می‌توان از طریق VAST Data 

نسخه 3 پشتیبانی می‌کند. NFS برای RDMA 

Weka 

یک راه‌حل ذخیره‌سازی خوشه‌ای مبتنی بر دستگاه است که به عنوان "پلتفرم داده برای عصر ابری و Weka 

توصیف می‌شود. "AI 

به کاربر، SMB و NFS، S و فراهم کردن دسترسی از طریق 3 POSIX این سیستم با رعایت استانداردهای 

نیز به عنوان یک تازه‌وارد Weka، VAST Data این امکان را می‌دهد که به داده‌ها دسترسی پیدا کند. مانند 

در این حوزه، از تکنولوژی‌های نسبتاً جدیدی مانند NVMe over Fabric و NVIDIA GPUDirect Storage پشتیبانی می‌کند. 

PanNFS 

PanNFS، که توسط Panasas ایجاد شده است، یک سیستم فایل خوشه‌ای است که از پروتکل‌های 

DirectFlow (pNFS)، NFS و CIFS برای دسترسی به داده‌ها پشتیبانی می‌کند. 

Panasas یکی از کمک‌کنندگان کلیدی به Parallel NFS (pNFS) بوده است، که به مشتریان این امکان 

را می‌دهد که درخواست‌های فایل را به‌طور همزمان به چندین سرور یا دستگاه ذخیره‌سازی ارسال کنند، به 

جای اینکه یکی‌یکی آنها را پردازش کنند. این ویژگی به استاندارد NFS 4.1 افزوده شده است. 

برنامه‌ریزی، بارهای کاری و قابلیت جابجایی بارهای کاری 

تا کنون، ما به اجزای اساسی خوشه‌های HPC از جمله سخت‌افزار، راه‌حل‌های ذخیره‌سازی، تأمین منابع و 

سیستم‌عامل پرداختیم. 

اما خوشه‌های HPC تنها به این اصول پایه‌ای وابسته نیستند؛ نرم‌افزار نیز برای عملکرد خوشه‌ها بسیار حیاتی 

است. زمان‌بندی‌کننده‌ها برای بهینه‌سازی استفاده از خوشه و اطمینان از اجرای بارهای کاری استفاده می‌شوند. 

کتابخانه‌های MPI توسط بارهای کاری برای فعال کردن ارتباطات موازی استفاده می‌شوند، که باعث می‌شود 

که بارهای کاری بتوانند در سطح خوشه‌ها اجرا شوند به جای اینکه روی یک ماشین واحد اجرا شوند. 

بارهای کاری خود نرم‌افزارهایی هستند که پایه‌گذار محاسبات هستند. و در نهایت، قابلیت حمل بارهای کاری در 

حال تبدیل شدن به یک موضوع مهم‌تر از همیشه است، به همین دلیل است که استفاده از کانتینرها در HPC 

در حال افزایش است. 

زمان‌بندی‌کننده‌ها 

در HPC، زمان‌بندی‌کننده یا (Scheduler) بارهای کاری را در برابر منابع خوشه صف‌بندی می‌کند تا استفاده 

از آنها را هماهنگ کند. 

زمان‌بندی‌کننده‌ها به‌عنوان مغز خوشه‌ها عمل می‌کنند. آنها درخواست‌های بارهای کاری که نیاز به زمان‌بندی 

دارند را از کاربران خوشه دریافت می‌کنند، آنها را پی‌گیری می‌کنند و سپس این بارهای کاری را زمانی که 

منابع در دسترس هستند، اجرا می‌کنند. زمان‌بندی‌کننده‌ها از هرگونه در دسترس بودن و استفاده از منابع آگاه 

هستند و تلاش می‌کنند تا هر عاملی که ممکن است بر عملکرد تأثیر بگذارد را در نظر بگیرند. 

هدف اصلی آنها زمان‌بندی شغل‌های محاسباتی بر اساس توزیع بهینه بارهای کاری است. زمان‌بندی معمولاً بر 

اساس نیازهای سازمانی انجام می‌شود. زمان‌بندی‌کننده بارهای کاری را پی‌گیری کرده و آنها را به یک فرآیند 

کاربردی دیگر ارسال می‌کند که در گره‌های محاسباتی برای اجرای آن بار کاری عمل می‌کند. 

راه‌حل‌های مدیریت بار کاری در HPC 

مدیر بار SLURM 

مرور کلی 

SLURM که ابتدا به‌عنوان Simple Linux Utility for Resource Management شناخته می‌شد، 

یک برنامه‌ریز (job scheduler) متن‌باز و محبوب برای مدیریت و زمان‌بندی بارهای محاسباتی است. 

تاریخچه 

توسعه‌یافته به‌طور مشترک توسط آزمایشگاه ملی لارنس لیورمور، SchedMD، HP و Bull. SchedMD 

به‌عنوان نگهدارنده اصلی SLURM و ارائه‌دهنده پشتیبانی تجاری آن عمل می‌کند. 

استفاده 

نصب شده و به‌عنوان رایج‌ترین برنامه برای خوشه‌های TOP روی حدود 60٪ از خوشه‌های 500 SLURM 

بزرگ شناخته می‌شود. 

نصب 

در اوبونتو قابل نصب است. Universe از مخازن 

Open OnDemand 

مرور کلی 

کمک می‌کند. SLURM خود برنامه‌ریز نیست، به‌طور قابل‌توجهی به Open OnDemand در حال 

در حال ی که این ابزار یک رابط کاربری تحت وب است که استقرار و مدیریت بارهای کاری را از طریق یک پورتال وب آسان 

می‌کند. 

منشاء 

ایجاد شده توسط مرکز ابررایانه اوهایو و با بودجه از بنیاد ملی علوم.

 

**Engine**

 

**مرور کلی** 

این برنامه یک سیستم مدیریت بار کاری است که تاریخچه‌ای پیوسته دارد و شامل نسخه‌های متن باز و غیرمتن باز Grid Engine می‌شود.

 

**تاریخچه** 

- **انتشار اولیه**: به عنوان یک برنامه غیرمتن باز توسط Gridware آغاز شد.

- **خرید توسط Sun**: به Sun Grid Engine (SGE) تبدیل شد و سپس به صورت متن باز منتشر گردید.

- **خرید توسط Oracle**: بعد از خرید توسط Oracle، به صورت غیرمتن باز درآمد و به Oracle Grid Engine تغییر نام یافت.

 

 

**فُرک‌ها** 

- **Son of Grid Engine**: که به طور اولیه توسط دانشگاه لیورپول نگهداری می‌شد، ولی اکنون به طور فعال نگهداری نمی‌شود.

- **Grid Community Toolkit**: یک فورک متن باز ولی به طور فعال نگهداری نمی‌شود.

- **Univa Grid Engine**: یک فورک غیرمتن باز از Univa که اکنون متعلق به Altair است و به طور فعال نگهداری می‌شود.

 

**دسترسی** 

نسخه Grid Community Toolkit از مخازن Universe در اوبونتو قابل دریافت است.

 

**OpenPBS**

 

**مرور کلی** 

PBS (Portable Batch System) که ابتدا برای ناسا توسعه یافته بود، در سال 1998 به صورت متن باز منتشر شد.

 

**وضعیت فعلی** 

- **OpenPBS**: نسخه متن باز که به وسیله Altair نگهداری می‌شود.

- **TORQUE**: یک فورک از PBS که ابتدا متن باز بود ولی اکنون به صورت غیرمتن باز نگهداری می‌شود.

 

 

 

**HTCondor** 

HTCondor یک برنامه زمان‌بندی مستقل است که به‌طور خاص برای استفاده از منابع نوشته شده است. این سیستم قادر است بارهای کاری را بر روی سیستم‌های بیکار اجرا کند و هنگامی که فعالیتی در سیستم شناسایی می‌شود، آنها را متوقف کند.

 

**دسترس‌پذیری** 

HTCondor در Ubuntu در Universe در مخزن بسته‌های HTCondor موجود است.

 

**Kubernetes**

 

**مرور کلی** 

یک برنامه‌ریز کانتینر است که برای برنامه‌های بومی ابری محبوبیت زیادی پیدا کرده است. Kubernetes در بارهای کاری محاسباتی که به موازیسازی وابسته‌اند، افزایش یافته است.

 

**استفاده در یادگیری ماشین** 

برخی از بارهای کاری یادگیری ماشین حول Kubernetes اکوسیستم گسترده‌ای ساخته‌اند و این گاه‌گاه نیاز به استقرار Kubernetes به عنوان بار کاری موقت بر روی یک زیرمجموعه از منابع را ایجاد کرده است.

 

**توسعه** 

تلاش‌هایی برای گسترش قابلیت‌های برنامه‌ریزی Kubernetes به منظور بهتر خدمت‌رسانی به نیازهای بارهای کاری محاسباتی در حال انجام است.

 

 

**کتابخانه‌های MPI و کتابخانه‌های محاسبات موازی**

 

**استفاده از MPI** 

در حالی که می‌توان بارهای کاری HPC را بر روی یک سرور یا نود واحد اجرا کرد، پتانسیل واقعی محاسبات با عملکرد بالا از اجرای وظایف محاسباتی فشرده به عنوان فرآیندهایی در چندین نود به دست می‌آید. این فرآیندهای مختلف به صورت موازی به عنوان یک برنامه واحد با هم کار می‌کنند. برای اطمینان از ارتباط بین فرآیندها در نودهای مختلف، به مکانیزم انتقال پیام نیاز دارید که در HPC با عنوان MPI (Message Passing Interface) شناخته می‌شود.

 

**Grid MPI چیست؟** 

MPI یک پروتکل ارتباطی و استاندارد است که برای انتقال پیام از حافظه یک سیستم به سیستم دیگر در رایانه‌های موازی طراحی شده است. انتقال پیام به بارهای کاری محاسباتی این امکان را می‌دهد که در نودهای محاسباتی متصل به یک لینک شبکه با سرعت بالا اجرا شوند. 

MPI به توسعه HPC کمک کرد تا سازمان‌ها بتوانند مشکلات محاسباتی خود را با هزینه کمتر و مقیاس بیشتری حل کنند و دیگر محدود به توان محاسباتی یک سیستم واحد نباشند. 

 

**کتابخانه‌های MPI:** 

کتابخانه‌های MPI انتزاعاتی را برای ارتباط نقطه به نقطه و جمع‌آوری بین فرایندها فراهم می‌آورند. این کتابخانه‌ها برای اکثر زبان‌های برنامه‌نویسی در دسترس هستند و توسط اکثر بارهای کاری موازی برای رسیدن به مقیاس بینظیر در خوشه‌های بزرگ استفاده می‌شوند. 

 

**راه‌حل‌های MPI** 

**OpenMP** 

**مرور کلی:** 

OpenMP یک رابط برنامه‌نویسی کاربردی (API) و کتابخانه برای برنامه‌نویسی موازی است که از پردازش چند رشت‌های با حافظه مشترک پشتیبانی می‌کند. هنگامی که با OpenMP برنامه‌نویسی می‌شود، تمام نُخ‌ها حافظه و داده‌ها را به اشتراک می‌گذارند. 

 

**قابلیت حمل:** 

OpenMP بسیار قابل حمل است و به برنامه‌نویسان یک رابط ساده برای توسعه برنامه‌های موازی که می‌توانند بر روی هر چیزی از دسکتاپ‌های چند هست‌های تا بزرگترین ابررایانه‌ها اجرا شوند، می‌دهد. 

 

**کاربرد:** 

OpenMP به فرآیندها امکان برقرار کردن ارتباط با یکدیگر در داخل یک نود در یک خوشه HPC را می‌دهد، اما برای پردازش بین نودها به کتابخانه و API اضافی نیاز است که MPI این نقش را ایفا می‌کند. 

 

**دسترسی‌پذیری:** 

OpenMP از طریق اکثر کامپایلرها، مانند GCC، در اوبونتو در دسترس است. 

 

 

 

 

 

 

 

**OpenMPI** 

**مرور کلی:** 

OpenMPI یک پیاده‌سازی متن‌باز از استاندارد MPI است که توسط یک کنسرسیوم از شرکای آکادمیک توسعه و نگهداری می‌شود. این پروژه از ادغام سه پیاده‌سازی شناخته شده از آزمایشگاه ملی LA-MPI، FT-MPI از دانشگاه تنسی و LAM/MPI از دانشگاه ایندیانا ایجاد شده است. 

 

**ویژگی‌ها:** 

هدف این پروژه ترکیب بهترین ایده‌ها و تکنولوژی‌ها از هر یک از این پیاده‌سازی‌ها به یک پیاده‌سازی متن‌باز در دسترس است. OpenMPI با کد پایه کاملاً جدید و برتر است. 

 

**MPICH** 

**مرور کلی:** 

MPICH یک پیاده‌سازی متن‌باز و آزاد از MPI است که قبلاً با نام MPICH2 شناخته می‌شد و از ترکیب CH و MPI تشکیل شده است. این پروژه توسط آزمایشگاه ملی آرگون و دانشگاه ایالت میسیسیپی آغاز شد. نام CH به معنای Chameleon، یک کتابخانه برنامه‌نویسی موازی که توسط یکی از بنیانگذاران MPICH توسعه داده شده است، می‌باشد. 

 

**ویژگی‌ها:** 

MPICH یکی از محبوب‌ترین پیاده‌سازی‌های MPI است و به عنوان پایه بسیاری از کتابخانه‌های MPI موجود امروز، از جمله Intel MPI، IBM MPI، Cray MPI، Microsoft MPI و پروژه متن‌باز MVAPICH استفاده می‌شود. MPICH در اوبونتو در مخزن بسته‌های Universe در دسترس است. 

 

 

**MVAPICH** 

**مرور کلی:** 

MVAPICH که بر اساس MPICH توسعه یافته است، آزاد و متن‌باز است و توسط دانشگاه ایالت اوهایو رهبری می‌شود. اهداف آن ارائه "بهترین عملکرد، مقیاس‌پذیری و تحمل خطا برای سیستم‌های محاسباتی و سرورهای پیشرفته" است که از اتصالات با عملکرد بالا استفاده می‌کنند. 

 

**ویژگی‌ها:** 

توسعه آن بسیار فعال است و نسخه‌های مختلفی که بهترین سازگاری با سخت‌افزار و عملکرد ممکن برای زیرساخت‌های موجود را ارائه می‌دهند، در دسترس هستند. 

یکی از توسعه‌های قابل توجه آن، پشتیبانی از DPU offloading است، جایی که MVAPICH از SmartNICs (شبکه‌های هوشمند) برای بارگذاری فرآیندهای MPI استفاده می‌کند. SmartNICs و Data Processing Units (DPU) یک فرم پیشرفته از کارت‌های شبکه هستند که دارای اجزای سنتی کامپیوتر، مانند CPU، هستند و به آنها اجازه می‌دهند به عنوان یک کامپیوتر عمل کنند و حتی داده‌ها یا ترافیک شبکه‌ای که از طریق آنها عبور می‌کند را پردازش کنند. این اجازه می‌دهد که برخی از وظایف بارگذاری میزبان را پردازش کنند، برای مثال، مدیریت ارتباطات MPI که به پردازنده‌های میزبان اجازه می‌دهد به طور کامل بر روی بار کاری تمرکز کنند. 

 

**بارهای کاری منابع:** 

بسیاری از بارهای کاری HPC از توسعه داخلی یا متن‌باز نشأت می‌گیرند که به طور عمده از تلاش‌های جامعه قوی پشتیبانی می‌شود. این بارهای کاری اغلب از پس‌زمینه تحقیقات قوی و ابتکار از کارهای دانشگاهی یا منافع ملی ناشی می‌شوند و معمولاً به چندین موسسه یا کشور خدمت می‌کنند. 

 

 

 

**مثال‌ها:** 

در دنیای متن‌باز، بارهای کاری متعددی برای سناریوهای مختلف وجود دارد، از تحقیقات آب و هوا گرفته تا فیزیک. 

 

**راه‌حل‌های بارهای کاری** 

**BLAST** 

**مرور کلی:** 

BLAST (Basic Local Alignment Search Tool) یک الگوریتم در بیوانفورماتیک است که برای مقایسه اطلاعات توالی‌های زیستی، مانند توالی‌های پروتئین یا نوکلئوتیدهای DNA یا RNA استفاده می‌شود. این ابزار به پژوهشگران این امکان را می‌دهد که یک توالی را با کتابخانه یا پایگاه داده‌ای از توالی‌های شناخته شده مقایسه کنند، که شناسایی را آسان‌تر می‌کند. 

 

**کاربردها:** 

BLAST می‌تواند برای مقایسه توالی‌های یافت شده در حیوانات با آنهایی که در ژنوم انسان یافت می‌شود، استفاده شود، که به دانشمندان کمک می‌کند ارتباطات بین آنها و نحوه بیان آنها را شناسایی کنند.

 

OpenFOAM

**مرور کلی** 

OpenFOAM (Open-source Field Operation And Manipulation) یک جعبه‌ابزار متن‌باز است که برای توسعه حل‌کننده‌های عددی در دینامیک سیالات محاسباتی استفاده می‌شود. این نرم‌افزار به عنوان یک پروژه تجاری در ابتدا تحت مجوز FOAM تغییر نام یافت و از سال 2018، تیم توسعه‌دهندگان آن شامل بسیاری از اعضای پیشین OpenFOAM به توسعه آن ادامه می‌دهند. OpenFOAM در مخازن بسته‌های اوبونتو در دسترس است.

 

ParaView

**مرور کلی** 

ParaView یک پلتفرم متن‌باز برای تحلیل و بصری‌سازی داده‌ها است که با معماری سرور-کلاینت نوشته شده و به طور خاص برای استفاده در کنار OpenFOAM و دیگر برنامه‌ها طراحی شده است. این ابزار می‌تواند به عنوان یک کار زمان‌بندی‌شده در خوشه‌ها برای عملکرد بهینه، نیازهای رندرینگ یا پردازش اجرا شود تا از منابع محاسباتی خوشه‌ها به‌خوبی استفاده کند. ParaView همچنین به صورت یک برنامه مستقل قابل اجرا است و نیازی به اجرا بر روی خوشه‌ها ندارد.

 

توسعه ParaView از طریق همکاری بین KitWare Inc و آزمایشگاه‌های ملی لاس آلاموس با تأمین مالی از وزارت انرژی ایالات متحده آغاز شد. از آن زمان، آزمایشگاه‌های ملی دیگری نیز به تلاش‌های توسعه پیوسته‌اند. ParaView نیز در مخازن بسته‌های اوبونتو در دسترس است.

 

WRF

**مرور کلی** 

WRF (Weather Research & Forecasting) یک مدل پیش‌بینی آب و هوایی مقیاس میانه متن‌باز است که از محاسبات موازی پشتیبانی می‌کند و توسط جامعه وسیعی برای تحقیقات جوی و پیش‌بینی عملیاتی استفاده می‌شود. WRF امروزه توسط اکثر نهادهای مربوط به پیش‌بینی آب و هوا به کار می‌رود.

 

توسعه این مدل به طور مشترک توسط مرکز ملی تحقیقات جوی (NCAR)، سازمان ملی اقیانوسی و جوی (NOAA)، نیروی هوایی ایالات متحده، آزمایشگاه تحقیقات نیروی دریایی، دانشگاه اوکلاهما و اداره هوانوردی فدرال (FAA) انجام شده است. این یک تلاش چندرشته‌ای و چندسازمانی واقعی است که دارای جامعه‌ای وسیع از حدود 56,000 کاربر در بیش از 160 کشور می‌باشد.

 

 

شبیه‌ساز دینامیک آتش و مشاهده‌گر دود

شبیه‌ساز دینامیک آتش (FDS) و مشاهده‌گر دود (SMV) ابزارهای متن‌باز هستند که توسط مؤسسه ملی استانداردها و فناوری (NIST) توسعه یافته‌اند. شبیه‌ساز دینامیک آتش (FDS) یک مدل دینامیک سیالات محاسباتی (CFD) برای جریانات ناشی از آتش است که از محاسبات موازی برای حل عددی فرم خاصی از معادلات ناویه-استوکس استفاده می‌کند. این مدل برای جریانات حرارتی با سرعت پایین مناسب است و به ویژه برای شبیه‌سازی پخش و انتقال دود و حرارت ناشی از آتش استفاده می‌شود.

 

مشاهده‌گر دود (SMV) بخش بصری‌سازی FDS است و برای تحلیل خروجی‌های FDS مورد استفاده قرار می‌گیرد. این ابزار به کاربران کمک می‌کند تا بهتر بفهمند و مشاهده کنند که چگونه دود، حرارت و آتش پخش می‌شود. این ابزار به ویژه برای درک تأثیرات بر روی ساختارهای بزرگ و تحلیل سناریوهای فاجعه‌آمیز کاربرد دارد.

 

کانتینرها

محیط‌های HPC (محاسبات با کارایی بالا) اغلب به وابستگی‌های پیچیده‌ای برای اجرای بارهای کاری وابسته هستند. تلاش‌های زیادی به توسعه سیستم‌های مبتنی بر ماژول مانند Lmod معطوف شده است که به کاربران اجازه می‌دهد تا برنامه‌ها یا وابستگی‌ها مانند کتابخانه‌ها را خارج از مسیرهای معمول سیستم بارگذاری کنند. این نیاز به کامپایل برنامه‌ها در برابر مجموعه‌های خاصی از کتابخانه‌ها به وجود می‌آید که به نسخه‌های خاص عددی یا فروشنده وابسته‌اند.

 

برای اجتناب از این وابستگی‌های پیچیده، سازمان‌ها می‌توانند در کانتینرها سرمایه‌گذاری کنند. این روش به طور مؤثر به کاربر اجازه می‌دهد تا یک برنامه را به همراه تمام وابستگی‌های آن در یک کانتینر اجرایی واحد بسته‌بندی کند.

 

 

راه‌حل‌های کانتینر

یک سیستم مدیریت کانتینر و ماشین مجازی نسل بعدی است. این ابزار تجربه کاربری یکپارچه‌ای را حول سیستم‌های کامل لینوکس که در داخل کانتینرها یا ماشین‌های مجازی اجرا می‌شوند، ارائه می‌دهد. LXD امکان مدیریت ماشین‌های مجازی را نیز فراهم می‌آورد و برخلاف سایر محیط‌های اجرایی کانتینر، قابلیت اجرای محیط‌های چندبرنامه‌ای کامل را به طور منحصر به فرد ارائه می‌دهد. LXD به طور مؤثر می‌تواند یک محیط کامل را در داخل یک کانتینر HPC اجرا کند و این کارایی و جداسازی را بدون هزینه اضافی برای عملکرد فراهم می‌کند.

 

به عنوان محیط اجرایی پیشرو برای برنامه‌های بومی ابری شناخته می‌شود و تا حدی در محیط‌های Docker در سیستم‌های چند کاربره واقعی مانند محیط‌های Docker نیز مورد استفاده قرار گرفته است. پذیرش HPC اساساً به دسترسی‌های ویژه نیاز دارد. Docker خوشه‌های بزرگ محدود بوده است، زیرا معمولاً اندازه کلی تصاویر به وابستگی‌های برنامه نسبت داده می‌شود. این موضوع معمولاً کانتینرهای برنامه بزرگ را ایجاد می‌کند که ممکن است به راحتی اجزای دیگر کانتینرها را تکرار کنند. با این حال، وقتی به درستی انجام شود، می‌تواند برای مدیریت وابستگی‌ها مؤثر باشد. به ویژه در هنگام توسعه و فعال‌سازی یک استک سخت‌افزاری خاص، این امکان را می‌دهد که برنامه‌ها در یک استک یکپارچه بسته‌بندی شوند که برخی نقاط قوت را به همراه دارد.

 

نام شاخه جدیدتر آن، Apptainer یا Singularity، تلاشی برای ایجاد کانتینرهای اپلیکیشن است که به پاسخ می‌دهد. Docker برخی از معایب احتمالی کانتینرهای Singularity را با عدم وابستگی به دسترسی‌های ویژه به خوبی در محیط‌های چند کاربره بزرگ قابل استفاده می‌کند. به جای ایجاد کانتینرهای کامل اپلیکیشن با تمام وابستگی‌ها، می‌توانند کانتینرهای سبکتری با اهداف MPI مؤلفه‌های سطح سیستم مانند کتابخانه‌ها و پیاده‌سازی‌های وابستگی‌های خاص‌تر تولید کنند.

 

Charliecloud نیز از نظرهای مشابه به Singularity است و برای ساخت تصاویری استفاده می‌کند که سپس می‌توانند به‌طور غیرمستقیم در محیط اجرایی Docker اجرا شوند. این ابتکار توسط آزمایشگاه ملی لاس آلاموس (LANL) انجام شده است.

 

این مؤلفه‌ها می‌توانند برای بهبود استفاده از خوشه‌های HPC به کار روند. بسیاری از مؤلفه‌های نرم‌افزاری شامل هر چیزی از مدیریت هویت گرفته تا نرم‌افزارهای نظارت و مشاهده‌پذیری هستند.

 

مدیریت هویت رایج هستند. آنها به عنوان منبع واحدی برای مدیریت هویت و دسترسی در خوشه‌های HPC عمل می‌کنند. دسترسی یکپارچه، ورود به هر نود در خوشه را آسان می‌کند. این موضوع اغلب پیش‌نیازی برای زمان‌بندی منابع است. برای مثال، اگر بخواهید یک شغل موازی را در چندین نود در خوشه از طریق زمان‌بندهای اجرایی راه‌اندازی کنید، نیاز به دسترسی یکسان به نودهای محاسباتی و منابع ذخیره‌سازی دارید. یک راه‌حل مدیریت هویت می‌تواند به شما کمک کند تا اطمینان حاصل کنید که این سازگاری حفظ می‌شود. بدون آن، به عنوان یک مدیر، باید از ایجاد کاربران، هویت و پیکربندی‌های ذخیره‌سازی اطمینان حاصل کنید که همه آنها در سراسر خوشه به صورت جداگانه پیکربندی شده‌اند.

 

راه‌حل‌های مدیریت هویت از پروتکل دسترسی دایرکتوری سبک (LDAP) برای دسترسی به خدمات دایرکتوری مانند آنهایی که توسط Active Directory ارائه می‌شود، استفاده می‌کنند. این امکان را برای مشتریان فراهم می‌آورد تا اطلاعات دایرکتوری مانند حساب‌های کاربری، کلمات عبور و حقوق دسترسی را در شبکه جستجو و به‌روزرسانی کنند. LDAP استانداردی برای دسترسی به خدمات دایرکتوری است و توسط پروژه‌های مختلفی از جمله FreeIPA و OpenLDAP استفاده می‌شود. Active Directory نیز یک راه‌حل خدمات دایرکتوری است که توسط مایکروسافت برای شبکه‌های ویندوز ایجاد شده است. این سرویس مرکزی برای ذخیره، مدیریت و امنیت اطلاعات کاربران و رایانه‌ها، از جمله حساب‌های کاربری، کلمات عبور و حقوق دسترسی را فراهم می‌آورد. Active Directory همچنین ابزارهایی برای مدیریت منابع شبکه، مانند پوشه‌های به اشتراک گذاشته شده، چاپگرها و برنامه‌ها ارائه می‌دهد.

 

FreeIPA یک راه‌حل متن‌باز برای مدیریت هویت و دسترسی است که توسط Red Hat ایجاد شده است. این سیستم یک راه‌حل یکپارچه برای هویت و احراز هویت در محیط‌های لینوکس فراهم می‌آورد. FreeIPA احراز هویت، مجوزدهی و اطلاعات حساب را به‌طور متمرکز ارائه می‌دهد و بر روی تعدادی از راه‌حل‌های متن‌باز دیگر ساخته شده است، از جمله سرور دایرکتوری 389 که یک سرور LDAP را فراهم می‌آورد. به‌طور کلی، FreeIPA یک راه‌حل جامع است که بر اساس لیستی گسترده از راه‌حل‌های متن‌باز ساخته شده است.

 

ابزارهای نظارت و مشاهده‌پذیری بینش عمیق‌تری به استفاده از منابع بارهای کاری فراهم می‌آورند و بنابراین می‌توانند در شناسایی مسائل عملکردی یا مشکلات با سلامت کلی خوشه کمک کنند. معیارهایی که معمولاً در خوشه‌های HPC مورد نظارت قرار می‌گیرند شامل استفاده از CPU و حافظه، پهنای باند شبکه و حافظه، و معیارهای زمان‌بندی مانند توان خروجی بارها هستند که میزان کارهای انجام شده در یک دوره مشخص را اندازه‌گیری می‌کند. زمان‌های انتظار شغل و زمان تکمیل شغل، و همچنین معیارهای استفاده از صف زمان‌بندی نیز کلی هستند.

 

نظارت و مشاهده‌پذیری در HPC در گذشته محدود به ابزارهای نظارتی بود که کمترین تأثیر را بر بارهای کاری داشتند. امروزه این موضوع به دلیل افزایش کارایی سخت‌افزار کمتر اهمیت دارد، اما همیشه ایده خوبی است که زمان اجرای بارهای کاری را با و بدون ابزارهای اضافی بررسی کنیم تا مبنای زمان‌های اجرای شغل‌های بارهای کاری را تعیین کنیم. این تغییرات باعث شده‌اند که استک نظارتی مدرن برای نظارت بر خوشه‌های HPC بیشتر مرتبط باشد.

 

**راه‌حل‌های مدرن مانند Prometheus و Grafana** در این خوشه‌ها به طور فزاینده‌ای مشاهده می‌شوند.

 

 

 

 

 

 

 

راه‌حل‌های مشاهده‌پذیری

 

**Prometheus** یک سیستم نظارت متن‌باز است که برای جمع‌آوری، ذخیره و تحلیل معیارها از برنامه‌ها و خدمات استفاده می‌شود. این ابزار یک زبان پرس‌وجو و ذخیره‌سازی معیارها را فراهم می‌آورد و همچنین ویژگی‌هایی برای هشداردهی و سایر امکانات دارد. از Prometheus برای نظارت بر برنامه‌ها و خدمات در مراکز داده، محیط‌های ابری و خوشه‌های Kubernetes استفاده می‌شود.

 

**Grafana** یک پلتفرم نظارتی متن‌باز محبوب است که برای تجسم، تحلیل و هشدار بر روی معیارها از سیستم‌ها و خدمات مختلف استفاده می‌شود. Grafana از انواع منابع داده، از جمله Prometheus پشتیبانی می‌کند و مجموعه‌ای غنی از ویژگی‌ها برای ساخت داشبوردها و هشداردهی بر روی معیارها ارائه می‌دهد. این ابزار برای نظارت و هشدار در مورد عملکرد سیستم، عملکرد برنامه و سایر معیارها استفاده می‌شود.

 

**Grafana Loki** یک سیستم تجمیع لاگ متن‌باز است که برای استفاده در محیط‌های مبتنی بر ابر طراحی شده است. Loki راه‌حلی برای ذخیره، پرس‌وجو و تحلیل داده‌های لاگ فراهم می‌آورد و قابلیت‌های جستجوی قدرتمندی ارائه می‌دهد. این ابزار می‌تواند برای رفع اشکال، نظارت بر عملکرد سیستم و موارد دیگر استفاده شود.

 

Canonical Observability Stack (COS)

 

**Canonical Observability Stack (COS)** یک راه‌حل نظارتی یکپارچه است که Prometheus، Grafana و Loki را در یک راه‌حل قابل استقرار ترکیب می‌کند و یک راه‌حل کامل برای نظارت بر خوشه‌ها ارائه می‌دهد که نمای جامع از معیارها فراهم می‌کند.

 

 

کجا خوشه‌های HPC را اجرا کنیم؟

 

خوشه‌های HPC اکنون تقریباً در هر مکانی قابل استقرار هستند. با توجه به پیشرفت‌های فناورانه، اجرای خوشه‌های HPC در فضای ابری در سال‌های اخیر محبوبیت زیادی پیدا کرده است. برخی از سازمان‌ها حتی این گزینه‌ها را ترکیب کرده و یک خوشه خصوصی با هزینه بهینه ایجاد کرده و در صورت نیاز از فضای ابری برای گسترش استفاده می‌کنند.

 

HPC در فضای عمومی ابری

 

بسیاری از ارائه‌دهندگان فضای ابری عمومی منابع تخصیص یافته در فضای HPC ارائه می‌دهند که برای سازمان‌ها با هر اندازه‌ای قابل دسترسی است. رایانش ابری امکان ایجاد HPC را برای سازمان‌هایی فراهم کرده که ممکن است نیاز به گسترش یا افزایش مقیاس فراتر از آنچه با خوشه‌های اختصاصی منطقی است، داشته باشند. همچنین، امکان اجرای خوشه‌های آزمایشی کوچک برای کسانی که تازه با HPC آشنا می‌شوند نیز وجود دارد.

 

خدمات HPC در Amazon Web Services (AWS)

 

AWS یکی از کلیدی‌ترین بازیگران در ارائه خدمات ابری عمومی برای HPC است. پیاده‌سازی **AWS Nitro System** برای حذف سربار مجازی‌سازی و دسترسی مستقیم به سخت‌افزار اصلی، از جمله نوآوری‌های مهم AWS بود که باعث کاهش تأخیر و افزایش عملکرد شد. **AWS Elastic Fabric Adapter** در زمینه ارتباط بین گره‌های HPC برای برآورده کردن نیازهای بارهای کاری توسعه یافت که به کاهش تأخیر و افزایش عملکرد برای بارهایی که نیاز به ارتباطات با سرعت بالا دارند، کمک کرد.

 

 

Microsoft Azure

 

Azure در فضای ابری عمومی است و انواع قوی از ماشین‌های HPC را ارائه می‌دهد. آنها همچنین انواع **Infiniband** را ارائه می‌دهند که از فناوری‌های سنتی برای بهینه‌سازی تأخیر و عملکرد استفاده می‌کند و ماشین‌های مجازی‌ای را برای کاربران ارائه می‌دهند که به کاهش تعداد هسته‌های نمایان‌شده به بار کاری نیاز دارند.

 

Google Cloud Platform (GCP)

 

پیشنهادات HPC در Google Cloud Platform شامل ماشین‌های مجازی است که Terraform را ارائه می‌دهند. آنها همچنین شامل اتوماسیون و اسکریپت‌نویسی هستند که تولید اسکریپت‌های مبتنی بر HPC را مدیریت می‌کنند و راه‌اندازی محیطی متناسب با نیازهای کاربر را ساده می‌کنند.

 

Oracle Cloud Infrastructure

 

Oracle رویکردی پیشگام در فعال‌سازی HPC با تأخیر RDMA در فضای ابری عمومی اتخاذ کرده و انواع ماشین‌های مجازی با شبکه‌سازی HPC فوق‌العاده پایین را ارائه می‌دهد.

 

HPC هیبریدی

 

استفاده ترکیبی از منابع ابری خصوصی و عمومی در فضای HPC بسیار محبوب بوده است. ابرهای هیبریدی بهترین‌های هر دو دنیا را به کاربران ارائه می‌دهند: بهینه‌سازی هزینه و کنترل ارائه شده توسط سرورهای محلی، همراه با مقیاس‌پذیری فوق‌العاده خوشه‌های ابری عمومی.

 

به طور کلی، راه‌حل‌های هیبریدی یک راه‌حل تکمیلی ارائه می‌دهند که در آن نقاط ضعف یک با نقاط قوت دیگری جبران می‌شود.

 

HPC در لبه

 

بسیاری از بارهای کاری HPC، به‌ویژه آن‌هایی که نیاز به پردازش واقعی‌زمان یا حساسیت بسیار بالا به تأخیر دارند، اکنون در لبه پیاده‌سازی می‌شوند. این بدان معناست که آن‌ها اغلب در خوشه‌های کوچک یا حتی به‌عنوان یک رایانه بسیار متمرکز که به آن کامپیوتر با عملکرد بالا (HPC) گفته می‌شود، مستقر می‌شوند.

 

گام‌های بعدی خود را در HPC با Canonical بردارید

 

Canonical می‌تواند به شما کمک کند تا گام‌های بعدی خود را در سفر HPC خود بردارید. راه‌حل‌های ما می‌توانند به شما در برآورده کردن نیازهای HPC از لایه سیستم‌عامل تا اتوماسیون زیرساخت و بیشتر، در سراسر ابرها و در محل کمک کنند.

 

Ubuntu: بهترین توزیع لینوکس برای محاسبات با عملکرد بالا

 

Ubuntu بهترین توزیع لینوکس برای محاسبات با عملکرد بالا است. برخی از مزایای Ubuntu شامل:

 

- هسته اخیر

- مخازن پکیج گسترده

- چرخه انتشار ثابت ۲ ساله برای نسخه‌های LTS با پشتیبانی ۵ ساله

- نگهداری و رفع اشکال قابل تمدید تا ۱۰ سال با Ubuntu Pro

 

Ubuntu برای محیط‌های در حال اجرای طولانی‌مدت ایده‌آل است و با Ubuntu Pro، می‌توانید اطمینان حاصل کنید که محیط شما در طول عمر آن پشتیبانی می‌شود.

 

بهبود فرآیند تأمین سرور با MAAS

 

برای پیاده‌سازی‌های در محل، می‌توانید فرآیند تأمین سرور خود را با استفاده از MAAS بهبود دهید، که توسط سازمان‌های زیادی که به خوشه‌های HPC در محل متکی هستند، مورد اعتماد است. معماری بسیار در دسترس آن باعث می‌شود MAAS مقاوم به خطا باشد و اطمینان حاصل کند که می‌تواند به مقیاس بزرگ پیاده‌سازی شود.

 

بدون توجه به اندازه خوشه شما، می‌توانید به MAAS اعتماد کنید تا قابلیت‌های تأمین و تجربه ابر نهایی را در مدیریت خوشه‌های برهنه ارائه دهد، که عملکرد و انعطاف‌پذیری نهایی را فراهم می‌کند.

 

Juju: راه‌حل اتوماسیون زیرساخت

 

Juju، راه‌حل ما برای اتوماسیون زیرساخت، می‌تواند به شما کمک کند تا یک خوشه مبتنی بر SLURM را راه‌اندازی کنید و آماده استفاده برای کاربران باشد. با تشکر از Juju، عملیات روز دوم شما نیز مدیریت می‌شود.

 

Juju می‌تواند در انتهای ابر عمومی استفاده شود و همچنین می‌تواند برای پیاده‌سازی‌های در محل با MAAS نیز استفاده شود. برای بهره‌برداری از پیاده‌سازی‌های ابری بومی، در نظر داشته باشید که از Charmed Kubernetes و Canonical استفاده کنید.

 

Charmed OpenStack و Charmed Ceph

 

برای پیاده‌سازی‌های پیچیده‌تر زیرساخت، ما Charmed OpenStack را داریم که به شما امکان می‌دهد ابری با بهینه‌سازی هزینه‌های خود داشته باشید و بهترین ارزش را برای عملکرد با حاکمیت کامل ارائه دهد.

 

Charmed Ceph، راه‌حل مناسبی برای کسانی که به دنبال راه‌حل ذخیره‌سازی مقاوم به خطا هستند، به شما کمک می‌کند تا بر روی نرم‌افزار متن‌باز بسازید و ذخیره‌سازی مشترک مبتنی بر فایل یا ذخیره‌سازی شیء را ارائه دهید.

 

 

شما می‌توانید از ترکیبی از راه‌حل‌ها برای استراتژی مناسب ابر هیبریدی استفاده کنید و بارهای کاری خود را بسته به نیازهای خود اجرا کنید.

شرکت دانش بنیان رایانش سریع هزاره ایرانیان به منظور ارائه راهکارهای رایانش سریع، تحلیل داده، بیگ دیتا و کلان داده به سازمانها و شرکتهای عصر دیجیتال تشکیل شده است. خدماتی از جمله طراحی راهکارهای بیگ دیتا، راه اندازی دریاچه داده و انباره داده، ساخت کاتالوگ داده، تحلیل داده و یادگیری ماشینی و ... از جمله فعالیتهای این شرکت می باشد.

 

 

آخرین مقالات

کامپایل و نصب mfix-2016.1

درک عملکرد دستگاه های انرژی، محیط زیست و فرایندها...

تحولات جدید در بیگ دیتا (...

تحولات جدید در بیگ دیتا (Big Data) در سال ۲۰۲۴ مقد...

راهنمای محاسبات با عملکرد...

خلاصه اجرایی این کتاب، راهنمایی مقدماتی درباره مح...

جک دونگارا برنده جایزه تو...

در سپتامبر 2024، IT4Innovations افتخار استقبال از...

اهمیت استفاده از بیگ دیتا...

اهمیت استفاده از بیگ دیتا در صنعت بانکداری مقدمه...

لزوم استفاده از فناوری بی...

لزوم استفاده از فناوری بیگ دیتا و کاربردهای مفید...

تاریخچه بیگ دیتا از آغاز...

تاریخچه بیگ دیتا از آغاز تا امروز بیگ دیتا (Big D...

لزوم تحلیل داده در دنیای...

تحلیل داده‌ها به فرآیند بررسی، تفسیر و استخراج اط...

مقایسه نفت و دیتا در دنیا...

مقایسه نفت و دیتا در دنیای امروز: ثروت جدید در دنی...

ارزش داده ها در دنیای امر...

در دنیای امروز، داده‌ها به یکی از با ارزش‌ترین دار...

معرفی کامل صف پیشرفته کاف...

آپاچی کافکا نیز پلت فرم متن باز به منظور پردازش جر...

روندهای معماری داده در سا...

هدف اصلی از پیاده‌سازی معماری داده، استانداردسازی...

کامپیوترهای کوانتومی: انف...

کامپیوترهای کوانتومی انفجاری در سرعت محاسبات ایجا...

رایانش مرزی یا EDGE COMPU...

در این مقاله تصمیم داریم با مفهومی به نام رایانش...

پردازش سریع تصاویر دریافت...

پردازش سریع تصاویر دریافت از راه دور (RS) در بسیار...

امنیت در مجازی سازی و رای...

مجازی سازی و رایانش ابری در رایانش ابری کامپوننت...

الگوریتم‌‌های پیش‌بین و ک...

استفاده از الگوریتم‌های پیش‌بین و هوش مصنوعی به د...

استفاده از سیستم چند عامل...

رایانش ابری یکی از راه حل های فشرده توسعه یافته بر...

۶ مهارت پر تقاضای بازار د...

متخصص دانش ابری (Cloud professional) یکی از عناوی...

جریان موازی بین منابع HPC...

چکیده انجام تجزیه و تحلیل یا تولید تصویری همزمان ب...

پردازش داده‌های جریانی در...

با ظهور وب ۲٫۰ و اینترنت اشیا، ردگیری همه نوع اطلا...

معرفی روش ها و ارائه پیشن...

چكیده محاسبات ابری یک فنآوری جدید نیست؛ بلکه روشی...

آیا فرآیند دموکراتیزه شدن...

ما وسط یک تحول تکنولوژیکی هستیم که شیوه سازماندهی...

کارکرد نظارتی و مدیریتی م...

محاسبات ابری و اینترنت اشیا به عنوان دو مبحث داغ د...

پیوند کلان داده با هوش مص...

سیستم‌های نرم‌افزاری تجاری همچون سرویس‌های ERP و...

محاسبات ابری قدرت رقابتی...

آیا فناوری دیجیتال، یک نیروی دموکراتیزه کننده است...

معماري لامبدا در مقابل مع...

معماري لامبدا تولید بی وقفه داده ها در دنیاي امروز...

زبان برنامه‌نویسی Milk سر...

زبان برنامه‌نویسی Milk که توسط دانشگاه MIT توسعه...

بیگ دیتا ، یادگیری ماشین...

سازمان‌ها گاهی اوقات به سختی تلاش می‌کنند تا با دس...

محاسبات مه چه هستند و چه...

در ابتدا همه چیز «ابر» بود، ولی حالا کلمه جدید «مه...

گالری تصاویر

hacklink al hack forum organik hit