برای ساختن یک ابرکامپیوتر هوش مصنوعی بهتر، اجازه دهید نور وجود داشته باشد

برای ساختن یک ابرکامپیوتر هوش مصنوعی بهتر، اجازه دهید نور وجود داشته باشد

GlobalFoundries، یک شرکت سازنده تراشه برای دیگران، از جمله AMD و جنرال موتورز، قبلاً همکاری خود را با Lightmatter اعلام کرده بود. هریس می‌گوید شرکت او با اشاره به بزرگترین شرکت‌های ابری مانند مایکروسافت، آمازون و گوگل «با بزرگترین شرکت‌های نیمه‌رسانا در جهان و همچنین ابر مقیاس‌کننده‌ها کار می‌کند».

اگر Lightmatter یا شرکت دیگری بتواند سیم کشی پروژه های غول پیکر هوش مصنوعی را دوباره اختراع کند، یک گلوگاه کلیدی در توسعه الگوریتم های هوشمندتر ممکن است از بین برود. استفاده از محاسبات بیشتر برای پیشرفت هایی که منجر به ChatGPT شد، اساسی بود، و بسیاری از محققان هوش مصنوعی افزایش مقیاس سخت افزار را برای پیشرفت های آینده در این زمینه و امید به دستیابی به هدف مبهم مشخص شده مصنوعی بسیار مهم می دانند. هوش عمومی یا AGI به معنی برنامه هایی است که می توانند از هر نظر با هوش بیولوژیکی مطابقت داشته باشند یا از آن فراتر رود.

نیک هریس، مدیرعامل Lightmatter می‌گوید: پیوند یک میلیون تراشه با نور ممکن است امکان الگوریتم‌هایی را برای چندین نسل فراتر از لبه‌های امروزی فراهم کند. او با اطمینان پیشنهاد می‌کند: «Passage الگوریتم‌های AGI را فعال می‌کند».

مراکز داده بزرگی که برای آموزش الگوریتم‌های هوش مصنوعی غول‌پیکر مورد نیاز هستند، معمولاً شامل قفسه‌هایی هستند که با ده‌ها هزار رایانه پر از تراشه‌های سیلیکونی تخصصی و اسپاگتی از اتصالات عمدتاً الکتریکی بین آن‌ها هستند. حفظ دوره های آموزشی برای هوش مصنوعی در بسیاری از سیستم ها – که همگی با سیم و سوئیچ به هم متصل هستند – یک کار مهندسی بزرگ است. تبدیل بین سیگنال های الکترونیکی و نوری نیز محدودیت های اساسی بر توانایی تراشه ها برای اجرای محاسبات به عنوان یک واحد ایجاد می کند.

رویکرد Lightmatter برای ساده کردن ترافیک پیچیده در مراکز داده هوش مصنوعی طراحی شده است. هریس می‌گوید: «به طور معمول شما یک دسته از پردازنده‌های گرافیکی، و سپس یک لایه سوئیچ، و یک لایه سوئیچ، و یک لایه سوئیچ دارید، و باید از آن درخت عبور کنید» تا بین دو GPU ارتباط برقرار کنید. هریس می‌گوید در مرکز داده‌ای که توسط Passage متصل است، هر GPU یک اتصال پرسرعت به هر چیپ دیگر خواهد داشت.

کار Lightmatter در Passage نمونه‌ای از این است که چگونه شکوفایی اخیر هوش مصنوعی به شرکت‌های بزرگ و کوچک الهام گرفته است تا سخت‌افزار کلیدی را پشت سر پیشرفت‌هایی مانند ChatGPT OpenAI دوباره اختراع کنند. انویدیا، تامین‌کننده پیشرو پردازنده‌های گرافیکی برای پروژه‌های هوش مصنوعی، کنفرانس سالانه خود را ماه گذشته برگزار کرد، جایی که جنسن هوانگ، مدیر عامل شرکت، آخرین تراشه این شرکت را برای آموزش هوش مصنوعی رونمایی کرد: یک GPU به نام Blackwell. انویدیا GPU را در یک “سوپرتراشه” متشکل از دو پردازنده گرافیکی Blackwell و یک پردازنده CPU معمولی که همگی با استفاده از فناوری ارتباطی پرسرعت جدید این شرکت به نام NVLink-C2C به هم متصل هستند، به فروش خواهد رساند.

صنعت تراشه به دلیل یافتن راه‌هایی برای استخراج قدرت محاسباتی بیشتر از تراشه‌ها بدون بزرگ‌تر کردن آنها مشهور است، اما انویدیا تصمیم گرفت این روند را کاهش دهد. پردازنده‌های گرافیکی بلک‌ول در سوپرچیپ این شرکت دو برابر قدرتمندتر از مدل‌های قبلی خود هستند، اما از اتصال دو تراشه به یکدیگر ساخته می‌شوند، به این معنی که انرژی بسیار بیشتری مصرف می‌کنند. این معاوضه، علاوه بر تلاش‌های انویدیا برای چسباندن تراشه‌هایش با لینک‌های پرسرعت، نشان می‌دهد که ارتقاء سایر اجزای کلیدی ابررایانه‌های هوش مصنوعی، مانند آنچه توسط Lightmatter پیشنهاد شده است، می‌تواند اهمیت بیشتری پیدا کند.

منبع: https://www.wired.com/story/build-a-better-ai-supercomputer-let-there-be-light/