میکرون تراشههای حافظه برای استفاده در چیپهای هوش مصنوعی Nvidia میسازد
میکرون تراشههای حافظه برای استفاده در چیپهای هوش مصنوعی Nvidia میسازد
میکرون اعلام کرد که HBM3E (حافظه با پهنای باند بالا ) 30 درصد انرژی کمتری نسبت به محصولات رقیب مصرف میکند و میتواند به افزایش تقاضا برای تراشههایی که برنامههای کاربردی هوش مصنوعی تولید میکنند کمک کند.
انویدیا از این تراشه در واحدهای پردازش گرافیکی نسل بعدی H200 خود استفاده میکند که انتظار میرود در سه ماهه دوم امسال عرضه شود و از تراشه H100 که باعث افزایش عظیم درآمد در طراحی تراشه شده است، پیشی بگیرد.
آنشل ساگ، تحلیلگر Moor Insights & Strategy میگوید: «من فکر میکنم این فرصت بزرگی برای میکرون است، بهویژه از آنجایی که به نظر میرسد محبوبیت تراشههای HBM برای کاربردهای هوش مصنوعی در حال افزایش است.»
ساگ افزود: «از آنجایی که SK Hynix انویدیا موجودی سال 2024 خود را به فروش رسانده است، وجود منبع دیگری که بازار را تامین کند میتواند به سازندگان GPU مانند AMD، Intel یا NVIDIA کمک کند تا تولید GPU خود را نیز افزایش دهند.»
HBM یکی از سودآورترین محصولات میکرون است که بخشی از آن به دلیل پیچیدگی فنی در ساخت آن است.
این شرکت پیش از این گفته بود که انتظار دارد چند صد میلیون دلار درآمد از HBM در سال مالی 2024 و 2025 داشته باشد.