راه اندازی مجدد شبکه های ترجیحی ژاپنی تراشه AI را با عملکرد 0.5 پتافلوپ توسعه داده است


در نمایشگاهی که به کنفرانس SC19 اختصاص داده شده ، موضوع هوش مصنوعی و یادگیری ماشین بسیار غنی است. نه تنها غول های صنعت ، بلکه شرکت های جوان نیز محصولات جدید بسیار جالب و قابل توجهی را نشان دادند.

یکی از این محصولات جدید پردازنده MN-Core بود که توسط شرکت ژاپنی Preferred Networks (PFN) توسعه یافته و در سال 2014 با بودجه شرکت Toyota Toyota تاسیس شد. این تراشه نتیجه تلاشهایی است که برای ایجاد پردازنده هوش مصنوعی برای سیستم های با تأخیر کم ، از جمله سیستم های IoT متمرکز شده است.

 شبکه های ترجیحی MN-2 ابر رایانه

شبکه های ترجیحی MN-2 ابر رایانه

وی در ایجاد MN-Core شرکت کرد استاد دانشگاه توکیو کی هیراکی. وی گفت: PFN به منظور سرعت بخشیدن به پیشرفت خود در زمینه یادگیری عمیق ماشین ، خانواده ای از ابر رایانه های شخصی ایجاد کرده است. اولین سیستم چنین ، MN-1 ، در سال 2017 راه اندازی شد و قدرت بیش از 19 پتلافلوپ را نشان داد و مقام اول را در رده بندی ابر رایانه های ژاپنی کسب کرد.

 PFN MN-Core: 4 کریستال ، 756 میلی متر مربع ، 500 وات گرما

PFN MN-Core: 4 کریستال ، 756 میلی متر مربع ، گرما 500 وات

اولین سیستم های PFN ترکیبی کلاسیک از پردازنده های عمومی و شتاب دهنده های مبتنی بر GPU های NVIDIA بود ، اما دستگاه بعدی مجبور است از تراشه MN-Core جدید استفاده کند ، که اگر معتقدید قول می دهد از بازده انرژی موجود فراتر رود راه حل های کلی توسعه دهندگان در یک پردازنده با یک بسته حرارتی 500 وات چرخیدند!

 PFN MN-Core: مشخصات فنی اصلی

PFN MN-Core: مشخصات فنی اصلی

MN-Core با استفاده از استانداردهای 12 نانومتری فناوری در ظرفیت های TSMC تولید می شود. یکپارچه نخواهد بود – نمونه ای که قبلاً در این نمایشگاه نشان داده شده این موضوع را روشن می کند که ما درمورد مونتاژ چهار بلور در ساختمان مشترک صحبت می کنیم. نشانگر GRAPE-DR نشانگر تداوم معماری منشأ پردازنده محاسبات بدنی قبلاً توسعه یافته توسط PFN است.

تراشه بسیار بزرگ است ، 85 × 85 میلی متر ، مساحت کریستال 756.7 میلی متر است 2 ، قدرت محاسبات طراحی 524 تراتوپلاپ در محاسبات نیم دقیق (FP16) است ، که می دهد تولید خاص در حدود 1 teraflops در هر وات

PFN MN-Core: چهار بلوک محاسبه + بلوک حسابی ماتریس در هر هسته

علیرغم اینکه حالت اولیه FP16 است ، محاسبات دقیق تر در قالب های FP32 / 64 در دسترس خواهد بود – به قیمت کار مشترک بلوک های محاسباتی و مربوطه تخریب عملکرد شتاب دهنده مبتنی بر MN-Core یک کارت توسعه کلاسیک با اندازه کامل و دارای شکاف PCI Express 3.0 است که علاوه بر پردازنده ، 32 گیگابایت حافظه را نیز روی برد خود خواهد داشت. هنوز نوع حافظه و پهنای باند حافظه مشخص نیست.

 طراحی شتاب دهنده های MN-Core در آینده شامل یک سیستم خنک کننده قدرتمند است

طراحی شتاب دهنده های MN-Core آینده شامل یک سیستم خنک کننده قدرتمند است

به گفته پروفسور هیراکی ، مشکل اصلی توسعه دهندگان سطح بالایی از تولید گرما بود. اما آنها موفق به ایجاد یک سیستم خنک کننده هوا شدند که بتواند با مصرف انرژی در منطقه 600 وات مقابله کند. هر گره سرور از ابر رایانه MN-3 آینده دارای 7U ارتفاع خواهد بود و شامل چهار شتاب دهنده MN-Core است. با این کار تقریباً 2.1 پتلوپلوپ در هر سرور حاصل می شود.

ادعا می شود که برای یک پردازنده عمومی دارای دو کانکتور است که دارای یک بسته حرارت حداکثر 200 وات است. به احتمال زیاد ، ما در مورد Intel Xeon Scalable صحبت می کنیم. هر سرور حداکثر 24 عدد دیسک را دریافت می کند ، که حداقل دو پروتکل NVMe را پشتیبانی می کنند.

 سرور PFN: بلوک ساختمان ابر رایانه آینده

سرور PFN: بلوک ساختمان ابر رایانه آینده

ابر رایانه MN-3 که هم اکنون طراحی شده است شامل خواهد شد 4800 تراشه MN-Core ، اما هنوز مشخص نیست که چند رک برای این کار لازم است. این شرکت خود ارقام موجود در منطقه 300 واحد را فراخوانی می کند. برنامه ریزی شده است برای دستیابی به بیش از 2 Exaflops (10 18 در ثانیه) با مصرف برق در حدود 3.36 مگاوات باشد. در مقایسه ، ابر رایانه Summit 1.88 Exaflops را با استفاده از 13 مگاوات تولید می کند.

 ابعاد تقریبی MN-3. 4 سرور با شتاب دهنده های جدید در هر قفسه قابل مشاهده هستند

ابعاد تقریبی MN-3. شما می توانید 4 سرور با شتاب دهنده های جدید را در هر قفسه مشاهده کنید

این شرکت قصد دارد MN-3 را قبلاً در سال 2020 به بهره برداری برساند ، و این سیستم منحصراً برای تأمین نیروی محاسباتی برای تحولات جدید شبکه های ترجیحی مورد استفاده قرار خواهد گرفت. PFN قصد ندارد MN-Core را به سایر توسعه دهندگان یا تولید کنندگان سخت افزار سرور تحویل دهد. بنابراین ، او در زیر گام های غول هایی مانند گوگل و آمازون ، که در حال توسعه پردازنده های هوش مصنوعی خود برای سیستم های ابر و خوشه های خود هستند.

3DNews


نظرات

نظر شما