GlobalFoundries، یک شرکت سازنده تراشه برای دیگران، از جمله AMD و جنرال موتورز، قبلاً همکاری خود را با Lightmatter اعلام کرده بود. هریس میگوید شرکت او با اشاره به بزرگترین شرکتهای ابری مانند مایکروسافت، آمازون و گوگل «با بزرگترین شرکتهای نیمهرسانا در جهان و همچنین ابر مقیاسکنندهها کار میکند».
اگر Lightmatter یا شرکت دیگری بتواند سیم کشی پروژه های غول پیکر هوش مصنوعی را دوباره اختراع کند، یک گلوگاه کلیدی در توسعه الگوریتم های هوشمندتر ممکن است از بین برود. استفاده از محاسبات بیشتر برای پیشرفت هایی که منجر به ChatGPT شد، اساسی بود، و بسیاری از محققان هوش مصنوعی افزایش مقیاس سخت افزار را برای پیشرفت های آینده در این زمینه و امید به دستیابی به هدف مبهم مشخص شده مصنوعی بسیار مهم می دانند. هوش عمومی یا AGI به معنی برنامه هایی است که می توانند از هر نظر با هوش بیولوژیکی مطابقت داشته باشند یا از آن فراتر رود.
نیک هریس، مدیرعامل Lightmatter میگوید: پیوند یک میلیون تراشه با نور ممکن است امکان الگوریتمهایی را برای چندین نسل فراتر از لبههای امروزی فراهم کند. او با اطمینان پیشنهاد میکند: «Passage الگوریتمهای AGI را فعال میکند».
مراکز داده بزرگی که برای آموزش الگوریتمهای هوش مصنوعی غولپیکر مورد نیاز هستند، معمولاً شامل قفسههایی هستند که با دهها هزار رایانه پر از تراشههای سیلیکونی تخصصی و اسپاگتی از اتصالات عمدتاً الکتریکی بین آنها هستند. حفظ دوره های آموزشی برای هوش مصنوعی در بسیاری از سیستم ها – که همگی با سیم و سوئیچ به هم متصل هستند – یک کار مهندسی بزرگ است. تبدیل بین سیگنال های الکترونیکی و نوری نیز محدودیت های اساسی بر توانایی تراشه ها برای اجرای محاسبات به عنوان یک واحد ایجاد می کند.
رویکرد Lightmatter برای ساده کردن ترافیک پیچیده در مراکز داده هوش مصنوعی طراحی شده است. هریس میگوید: «به طور معمول شما یک دسته از پردازندههای گرافیکی، و سپس یک لایه سوئیچ، و یک لایه سوئیچ، و یک لایه سوئیچ دارید، و باید از آن درخت عبور کنید» تا بین دو GPU ارتباط برقرار کنید. هریس میگوید در مرکز دادهای که توسط Passage متصل است، هر GPU یک اتصال پرسرعت به هر چیپ دیگر خواهد داشت.
کار Lightmatter در Passage نمونهای از این است که چگونه شکوفایی اخیر هوش مصنوعی به شرکتهای بزرگ و کوچک الهام گرفته است تا سختافزار کلیدی را پشت سر پیشرفتهایی مانند ChatGPT OpenAI دوباره اختراع کنند. انویدیا، تامینکننده پیشرو پردازندههای گرافیکی برای پروژههای هوش مصنوعی، کنفرانس سالانه خود را ماه گذشته برگزار کرد، جایی که جنسن هوانگ، مدیر عامل شرکت، آخرین تراشه این شرکت را برای آموزش هوش مصنوعی رونمایی کرد: یک GPU به نام Blackwell. انویدیا GPU را در یک “سوپرتراشه” متشکل از دو پردازنده گرافیکی Blackwell و یک پردازنده CPU معمولی که همگی با استفاده از فناوری ارتباطی پرسرعت جدید این شرکت به نام NVLink-C2C به هم متصل هستند، به فروش خواهد رساند.
صنعت تراشه به دلیل یافتن راههایی برای استخراج قدرت محاسباتی بیشتر از تراشهها بدون بزرگتر کردن آنها مشهور است، اما انویدیا تصمیم گرفت این روند را کاهش دهد. پردازندههای گرافیکی بلکول در سوپرچیپ این شرکت دو برابر قدرتمندتر از مدلهای قبلی خود هستند، اما از اتصال دو تراشه به یکدیگر ساخته میشوند، به این معنی که انرژی بسیار بیشتری مصرف میکنند. این معاوضه، علاوه بر تلاشهای انویدیا برای چسباندن تراشههایش با لینکهای پرسرعت، نشان میدهد که ارتقاء سایر اجزای کلیدی ابررایانههای هوش مصنوعی، مانند آنچه توسط Lightmatter پیشنهاد شده است، میتواند اهمیت بیشتری پیدا کند.
منبع: https://www.wired.com/story/build-a-better-ai-supercomputer-let-there-be-light/
تحریریه مجله اچ پی