CPU (واحد پردازش مرکزی) مغز یک کامپیوتر نامیده می شود. GPU (واحد پردازش گرافیک) روح خود را دارد. با این حال ، طی یک دهه
گذشته ، GPU از محدوده های رایانه شخصی PC شکسته شده است.
GPU ها رونق
AI را در سراسر جهان برانگیخته
اند. آنها به بخش مهمی از ابر رایانه های مدرن تبدیل شده اند . آنها در مراکز داده
های جدید و گسترده پراکنده بافته شده اند. هنوز هم توسط گیمرها با ارزش هستند ،
آنها به شتابدهنده هایی تبدیل شده اند که انواع کارها را از رمزگذاری گرفته تا
شبکه به هوش مصنوعی سرعت می بخشند.
آنها همچنان به پیشرفت در
زمینه های بازی و گرافیک های حرفه ای در ایستگاه های کاری ، رایانه های شخصی رومیزی
و نسل جدیدی از لپ تاپ ها ادامه می دهند .
GPU چیست؟
تفاوت بین CPU و
GPU چیست؟
تفاوت بین CPU و
GPU چیست؟
در حالی که GPU اکنون تقریباً بیشتر از رایانه های شخصی است که در آن ظاهر
می شوند ، در ایده بسیار قدیمی تر به نام محاسبات موازی لنگر مانده اند. و این
همان چیزی است که GPU ها را بسیار قدرتمند می کند.
مطمئناً CPU ها ضروری هستند.
CPU های سریع و همه کاره با یک
سری کارهایی که به تعامل زیادی نیاز دارند ، مسابقه می دهند. برای مثال فراخوانی
اطلاعات از یک هارد در پاسخ به کلیدهای کاربر ، به عنوان مثال.
در مقابل ، GPU مشکلات پیچیده ای را در هزاران یا میلیون ها کار جداگانه برطرف می کند و یکباره
آنها را حل می کند.
این امر باعث می شود آنها
برای گرافیک ایده آل شوند ، جایی که برای روشن نگه داشتن تصاویر در سراسر صفحه ،
باید بافت ، نورپردازی و ارائه اشکال باید به یکباره انجام شود.
پردازنده GPU
واحد پردازش مرکزی واحد پردازش گرافیک
چندین هسته هسته های زیادی
زمان تاخیر کم توان بالا
خوب برای پردازش سریال خوب برای پردازش موازی
می تواند یک تعداد معدود
عملیات را به طور همزمان انجام دهد می تواند هزاران عملیات را به طور همزمان انجام دهد
پردازنده در مقابل GPU
از نظر معماری ، CPU فقط از چند هسته با حافظه نهان زیادی برخوردار است که می تواند چندین موضوع
نرم افزاری را همزمان انجام دهد. در مقابل ، یک پردازنده گرافیکی متشکل از صدها
هسته است که می تواند هزاران موضوع را همزمان کنترل کند.
GPU ها تکنولوژی یکبار باطنی محاسبات موازی را ارائه می دهند. این
فناوری با یک شجره برجسته و برجسته است که شامل نام هایی همچون نبوغ ابر رایانه سیمور
کرای است. اما GPU به جای اینکه به شکل ابر رایانه های سرپوشیده
استفاده شود ، این ایده را برای کار در دسک تاپ و کنسول های بازی بیش از یک میلیارد
گیمر ارائه می دهد.
برای GPU ها ، گرافیک رایانه اول از بسیاری برنامه ها
این برنامه - گرافیک رایانه
- اولین اولین برنامه چند قاتل بود. و این موتور R&D عظیم پشت GPU را به جلو هدایت می کند. همه اینها GPU ها را قادر می
سازد تا پیش از تراشهای تخصصی تر و با عملکرد ثابت که در بازارهای طاقچه قرار
دارند ، مسابقه دهند.
عامل دیگری که باعث دستیابی
به همه این قدرتها می شود:
CUDA . برای اولین بار در سال
2007 منتشر شد ، پلت فرم محاسبات موازی اجازه می دهد تا رمزگذارها از قدرت محاسباتی GPU ها برای پردازش اهداف کلی با وارد کردن چند دستور ساده در
کد خود استفاده کنند.
این امر به GPU اجازه می دهد تا در زمینه های جدید شگفت آور گسترش یابد. و
با پشتیبانی از تعداد سریع استانداردهای - از جمله Kubernetes و Dockers - برنامه ها را می توان با یک پردازنده گرافیکی رومیزی کم هزینه
آزمایش کرد و برای پردازنده های سرور سریعتر و پیشرفته تر و همچنین هر ارائه دهنده
اصلی خدمات ابری مقیاس بندی کرد.
CPU ها و پایان قانون مور
با خاموش شدن قانون مور ،
GPU ها ، که توسط
NVIDIA در سال 1999 اختراع شده
بود ، به موقع آمدند.
طبق قانون مور ، تعداد
ترانزیستورهایی که می توانند در مدار یکپارچه قرار گیرند تقریباً در هر دو سال دو
برابر خواهد شد. ده ها سال است که این افزایش سریع قدرت محاسباتی است. این قانون
اما با محدودیتهای سخت جسمی مخالف است.
GPU ها با تقسیم وظایف در بین بسیاری از پردازنده ها راهی برای
ادامه شتاب برنامه ها - مانند گرافیک ، ابر رایانه و هوش مصنوعی - ارائه می دهند.
طبق گفته های جان هنسی و دیوید پترسون ، برندگان جوایز AM AM Turing 2017 و نویسندگان
معماری رایانه: A
Quantitive Approach در مورد کتاب درسی seminal در ریز پردازنده ها ، چنین شتاب دهنده هایی برای آینده نیمه
هادی ها بسیار مهم هستند
.
GPU: کلید در هوش مصنوعی ، چشم انداز رایانه ، ابر رایانه و
موارد دیگر
طی یک دهه گذشته این
مسئله ثابت شده است برای طیف گسترده ای از برنامه های کاربردی.
GPU نسبت به پردازنده ها برای هر واحد انرژی کار بسیار بیشتری
انجام می دهند. این امر باعث می شود آنها برای کلیدهای ابر رایانه ای که در غیر این
صورت از مرزهای شبکه های برقی امروزی عبور می کنند ، کلید بخورد.
در هوش مصنوعی ، GPU ها به فن آوری موسوم به "یادگیری عمیق" تبدیل شده اند. یادگیری عمیق
مقدار زیادی از داده ها را از طریق شبکه های عصبی ریخته و به آنها آموزش می دهد تا
وظایف بسیار پیچیده ای را برای توصیف هر رمزگذار انسانی انجام دهند.
هوش مصنوعی و بازی: Deep Learning Deep GPU کامل می آید
این توانایی یادگیری عمیق
به لطف قرار دادن هسته های اختصاصی
Tensor در GPU های NVIDIA تسریع می شود . هسته های تانسور باعث تسریع در عملیات ماتریس
بزرگ ، در قلب هوش مصنوعی می شوند و محاسبه های ماتریس با دقت مختلط را در یک عمل
واحد محاسبه می کنند. این امر نه تنها به انواع مختلفی از کارهای مختلف هوش مصنوعی
سرعت می بخشد ، بلکه اکنون برای تسریع در بازی نیز مورد استفاده قرار می گیرد.
تفاوت بین CPU و
GPU چیست؟ پردازنده های گرافیکی کاملاً گسترده هستند:
هسته های Tensor ساخته شده در GPU های Turing در
NVIDIA ، سرعت بخشیدن
به AI ، که به نوبه خود ، اکنون برای سرعت بخشیدن به بازی مورد استفاده
قرار می گیرند.
پردازنده های گرافیکی
کاملاً گسترده هستند: هسته های
Tensor ساخته شده در GPU های
Turing در NVIDIA ،
سرعت بخشیدن به AI ، که به نوبه خود ، اکنون برای سرعت بخشیدن به بازی مورد استفاده
قرار می گیرند.
در صنعت خودرو ، GPU مزایای بسیاری را ارائه می دهد. آنها همانطور که انتظار دارید قابلیت تشخیص بی
نظیر تصویر را ارائه می دهند. اما آنها همچنین در ایجاد وسایل نقلیه خود رانندگی
که قادر به یادگیری و سازگاری با آنها هستند ، بسیار اساسی است و از سناریوهای
مختلفی در دنیای واقعی برخوردار است.
در رباتیک ، GPU همانطور که انتظار دارید ، قادر است ماشین ها را قادر به درک محیط خود کند. با
این حال ، قابلیت های هوش مصنوعی آنها برای ماشین هایی که می توانند کارهای پیچیده
ای مانند حرکت به صورت خودگردان را یاد بگیرند ، کلید خورده اند.
در مراقبت های بهداشتی و
علوم زندگی ، GPU مزایای بسیاری را ارائه می دهد. آنها البته برای
کارهای تصویربرداری ایده آل هستند. اما یادگیری عمیق مبتنی بر GPU ، تجزیه و تحلیل آن تصاویر را سرعت می بخشد. آنها می توانند داده
های پزشکی را خرد کرده و به تبدیل اطلاعات از طریق یادگیری عمیق به قابلیت های جدید
کمک کنند.
به طور خلاصه ، GPU ها ضروری شده اند. آنها با شتاب بازی و گرافیک شروع به کار کردند. اکنون آنها
مناطق بیشتر و بیشتری را تسریع می کنند که محاسبات اسب بخار تغییری ایجاد می کند.
[ بازدید : 414 ] [ امتیاز : 3 ] [ نظر شما :
]