نظر توسط: Naman Kabra ، بنیانگذار و مدیرعامل شبکه NodeOps
واحدهای پردازش گرافیک (GPU) برای بسیاری از بارهای کار هوش مصنوعی ، به ویژه هنگام آموزش مدلهای بزرگ ، به سخت افزار پیش فرض تبدیل شده اند. این تفکر در همه جا است. در حالی که در برخی از زمینه ها منطقی است ، اما یک نقطه کور نیز ایجاد شده است که ما را عقب می اندازد.
GPU شهرت خود را به دست آورده است. آنها در خرد کردن اعداد عظیم به طور موازی باورنکردنی هستند و همین امر باعث می شود آنها برای آموزش مدل های بزرگ زبان یا اجرای استنتاج هوش مصنوعی با سرعت بالا مناسب باشند. به همین دلیل شرکت هایی مانند Openai ، Google و متا پول زیادی را برای ساخت خوشه های GPU صرف می کنند.
در حالی که GPU ممکن است برای اجرای AI ترجیح داده شود ، ما نمی توانیم واحدهای پردازش مرکزی (CPU) را که هنوز هم بسیار توانمند هستند فراموش کنیم. فراموش کردن این امر می تواند برای ما وقت ، پول و فرصت باشد.
CPU های منسوخ نیستند. افراد بیشتری باید متوجه شوند که می توانند برای کارهای هوش مصنوعی مورد استفاده قرار گیرند. آنها در میلیون ها دستگاه در سراسر جهان بیکار نشسته اند ، قادر به اجرای طیف گسترده ای از کارهای هوش مصنوعی به طور کارآمد و مقرون به صرفه هستند ، اگر فقط به آنها فرصتی بدهیم.
جایی که CPU ها در AI می درخشند
به راحتی می توان فهمید که چگونه به اینجا رسیدیم. GPU ها برای موازی سازی ساخته شده اند. آنها می توانند مقادیر گسترده ای از داده ها را به طور همزمان اداره کنند ، که برای کارهایی مانند تشخیص تصویر یا آموزش چت بابات با میلیاردها پارامتر بسیار عالی است. CPU ها نمی توانند در آن مشاغل رقابت کنند.
هوش مصنوعی فقط آموزش مدل نیست. این فقط ریاضی ماتریس پر سرعت نیست. امروز ، هوش مصنوعی شامل کارهایی مانند اجرای مدل های کوچکتر ، تفسیر داده ها ، مدیریت زنجیره های منطقی ، تصمیم گیری ، واکشی اسناد و پاسخ به سؤالات است. اینها فقط مشکلات “ریاضی گنگ” نیستند. آنها به تفکر انعطاف پذیر نیاز دارند. آنها به منطق احتیاج دارند. آنها به CPU احتیاج دارند.
در حالی که GPU ها تمام عناوین را دریافت می کنند ، CPU ها بی سر و صدا در حال انجام ستون فقرات بسیاری از گردش کار هوش مصنوعی هستند ، به خصوص وقتی که در مورد نحوه عملکرد سیستم های AI در دنیای واقعی بزرگنمایی می کنید.
اخیر: “GPU های ما در حال ذوب شدن هستند”-Openai پس از Ghibli-tsunami محدود کننده است
CPU ها از آنچه برای آنها طراحی شده اند چشمگیر هستند: عملیات انعطاف پذیر و مبتنی بر منطق. آنها ساخته شده اند تا یک یا چند کار را همزمان انجام دهند ، واقعاً خوب. این ممکن است در کنار موازی سازی گسترده GPU ها چشمگیر به نظر نرسد ، اما بسیاری از کارهای هوش مصنوعی به آن نوع قدرت آتش نیاز ندارند.
عوامل خودمختار را در نظر بگیرید ، آن دسته از ابزارهای فانتزی که می توانند از هوش مصنوعی برای انجام وظایف مانند جستجوی وب ، نوشتن کد یا برنامه ریزی یک پروژه استفاده کنند. مطمئناً ، عامل ممکن است یک مدل زبان بزرگ را که روی یک GPU اجرا می شود ، صدا کند ، اما همه چیز در اطراف آن ، منطق ، برنامه ریزی ، تصمیم گیری ، فقط روی یک پردازنده خوب اجرا می شود.
حتی استنباط (AI-APP برای استفاده از مدل پس از آموزش آن) می تواند بر روی CPU ها انجام شود ، به خصوص اگر مدل ها کوچکتر ، بهینه سازی شده باشند یا در شرایطی اجرا شوند که تأخیر فوق العاده ای لازم نباشد.
CPU ها می توانند طیف عظیمی از کارهای هوش مصنوعی را به خوبی انجام دهند. با این حال ، ما آنقدر روی عملکرد GPU متمرکز شده ایم که از آنچه در حال حاضر درست در مقابل ما هستیم استفاده نمی کنیم.
ما نیازی به ایجاد مراکز داده جدید گران قیمت بسته بندی شده با GPU نداریم تا تقاضای فزاینده ای برای هوش مصنوعی را برآورده کنیم. ما فقط باید از آنچه در حال حاضر در آنجا کارآمد است استفاده کنیم.
اینجاست که همه چیز جالب می شود. زیرا اکنون ما راهی برای واقعاً داریم انجام دادن که
چگونه شبکه های محاسباتی غیر متمرکز بازی را تغییر می دهند
دپین ها ، یا شبکه های زیرساخت فیزیکی غیر متمرکز ، یک راه حل مناسب هستند. این یک لقمه است ، اما این ایده ساده است: مردم به قدرت محاسبات بلااستفاده خود (مانند CPU های بیکار) کمک می کنند ، که به یک شبکه جهانی تبدیل می شود که دیگران می توانند به آن ضربه بزنند.
به جای اجاره زمان در خوشه GPU برخی از ارائه دهندگان Cloud Providender ، می توانید بارهای کار هوش مصنوعی را در یک شبکه غیرمتمرکز از CPU ها در هر نقطه از جهان اجرا کنید. این سیستم عامل ها نوعی از لایه محاسبات همتا به همتا را ایجاد می کنند که در آن می توان شغل ها را با اطمینان توزیع ، اجرا و تأیید کرد.
این مدل چند مزیت مشخص دارد. اول ، بسیار ارزان تر است. برای اجاره یک GPU کمیاب در هنگام CPU ، کار را به خوبی انجام می دهد ، نیازی به پرداخت حق بیمه نیست. دوم ، به طور طبیعی مقیاس می شود.
محاسبه موجود در حال رشد است زیرا تعداد بیشتری از افراد ماشین های خود را به شبکه وصل می کنند. سوم ، محاسبات را به لبه نزدیک می کند. وظایف را می توان در دستگاه های نزدیک محل زندگی ، کاهش تأخیر و افزایش حریم خصوصی انجام داد.
برای محاسبه به آن مانند Airbnb فکر کنید. به جای ساختن هتل های بیشتر (مراکز داده) ، ما از همه اتاق های خالی (CPU های بیکار) که قبلاً در حال استفاده هستند ، بهتر استفاده می کنیم.
از طریق تغییر تفکر و استفاده از شبکه های غیرمتمرکز برای هدایت بارهای کار هوش مصنوعی به نوع پردازنده صحیح ، GPU در صورت نیاز و CPU در صورت امکان ، مقیاس ، کارآیی و مقاومت را باز می کنیم.
خط پایین
وقت آن است که از درمان CPU ها مانند شهروندان درجه دوم در دنیای هوش مصنوعی جلوگیری کنیم. بله ، GPU بسیار مهم است. هیچ کس آن را انکار نمی کند. CPU ها در همه جا هستند. آنها مورد استفاده قرار نمی گیرند اما هنوز هم کاملاً قادر به تأمین نیروی بسیاری از کارهای هوش مصنوعی ما به آنها هستند.
به جای پرتاب پول بیشتر در کمبود GPU ، بیایید یک سؤال هوشمندانه تر بپرسیم: آیا ما حتی از محاسباتی که قبلاً داریم استفاده می کنیم؟
با وجود سیستم عامل های محاسباتی غیرمتمرکز برای اتصال CPU های بیکار به اقتصاد هوش مصنوعی ، ما فرصتی عظیم برای تجدید نظر در نحوه مقیاس زیرساخت های هوش مصنوعی داریم. محدودیت واقعی فقط در دسترس بودن GPU نیست. این یک تغییر ذهنیت است. ما آنقدر شرط داریم که سخت افزار سطح بالا را تعقیب کنیم که از نشستن بالقوه بی استفاده در شبکه غافل می شویم.
نظر توسط: Naman Kabra ، بنیانگذار و مدیر عامل شبکه NodeOps.
این مقاله برای اهداف اطلاعات عمومی است و در نظر گرفته نشده است و نباید به عنوان مشاوره قانونی یا سرمایه گذاری در نظر گرفته شود. نظرات ، افکار و نظرات بیان شده در اینجا تنها نویسنده است و لزوماً بازتاب یا نمایانگر نظرات و نظرات Cointelegraph نیست.

