فناوری

دستاوردی شگفت‌انگیز در هوش مصنوعی: تبدیل ترانزیستور معمولی به نورون مصنوعی

دستاوردی شگفت‌انگیز در هوش مصنوعی: تبدیل ترانزیستور معمولی به نورون مصنوعی

به تازگی دانشمندان دانشگاه ملی سنگاپور موفق شده‌اند از یک ترانزیستور معمولی به گونه‌ای استفاده کنند که همچون نورون و سیناپس عمل نماید. این رویکرد در نوع خود، گامی بزرگ برای ساخت سخت‌افزارهای هوش مصنوعی کم‌مصرف و با قابلیت تولید انبوه به شمار می‌رود.
 
به گزارش نیوزلن و به نقل از سای‌تک‌دیلی، محققان دانشگاه ملی سنگاپور (NUS) نشان داده‌اند که یک ترانزیستور سیلیکونی استاندارد ـ همان قطعه‌ای که در پردازنده‌های رایانه، گوشی‌های هوشمند و تقریباً تمام وسایل الکترونیکی امروزی به کار می‌رود ـ می‌تواند در شرایط خاصی رفتارهای یک نورون و یک سیناپس زیستی را شبیه‌سازی کند.
 
این پژوهش به سرپرستی «ماریو لانزا» (استادیار مهندسی مواد در کالج طراحی و مهندسی NUS) انجام شده و گامی مهم در مسیر توسعهٔ سخت‌افزارهای مقیاس‌پذیر و کم‌مصرف برای شبکه‌های عصبی مصنوعی (ANN) به شمار می‌رود. نتایج این تحقیق در تاریخ ۲۶ مارس ۲۰۲۵ در نشریهٔ Nature منتشر شده است.
 
 ترانزیستورها در نقش مغز انسان
 شاید پیشرفته‌ترین رایانه‌های جهان، همان‌هایی باشند که در جمجمهٔ ما جای گرفته‌اند. مغز انسان با داشتن حدود ۹۰ میلیارد نورون و ۱۰۰ تریلیون اتصال بین آن‌ها، اطلاعات را با راندمانی بالا پردازش می‌کند. این سیناپس‌ها با گذشت زمان تقویت یا تضعیف می‌شوند؛ پدیده‌ای به نام «پلاستیسیتهٔ سیناپسی» که پایهٔ یادگیری و حافظه است.
 
سال‌هاست دانشمندان تلاش کرده‌اند این کارایی بی‌نظیر را در سامانه‌های مصنوعی بازآفرینی کنند. شبکه‌های عصبی مصنوعی در سال‌های اخیر پیشرفت‌های بزرگی در حوزهٔ هوش مصنوعی رقم زده‌اند، اما این سامانه‌ها بیشتر به نام نورون و سیناپس تکیه دارند تا به عملکرد واقعی آن‌ها.

مدل‌های زبانی بزرگ مانند ChatGPT، علی‌رغم الهام‌گیری از مغز، به‌شدت پرمصرف‌اند و همین موضوع مانع استفاده از آن‌ها در بسیاری از کاربردها شده است.
 

 انقلابی در رایانش نورومورفیک
 گفته می‌شود که هدف رایانش نورومورفیک این است که همان توان پردازشی و بازدهی مغز را در تراشه‌ها پیاده‌سازی کند. برای رسیدن به این هدف، باید معماری سامانه‌ها بازطراحی شده و حافظه و پردازش در یک نقطه انجام شوند؛ مفهومی به نام «رایانش درون‌حافظه‌ای» (IMC).

همچنین، نیاز است اجزای الکترونیکی‌ای توسعه یابند که بتوانند پدیده‌های فیزیکی و الکترونیکی نورون‌ها و سیناپس‌ها را شبیه‌سازی کنند.
 
با این حال، راهکارهای فعلی در این حوزه با پیچیدگی بالا و استفاده از مواد جدیدی همراه‌اند که هنوز قابلیت تولید انبوه آن‌ها اثبات نشده است. لانزا اظهار می‌دارد: «برای دستیابی به رایانش واقعی نورومورفیک، باید سخت‌افزاری داشته باشیم که هم مقیاس‌پذیر باشد و هم کم‌مصرف.»
 
 دستاوردی با استفاده از فناوری متداول سیلیکون
 گروه تحقیقاتی NUS موفق شده است با استفاده از یک ترانزیستور استاندارد و بهره‌گیری از تنظیمات خاص، هر دو رفتار نورونی (شلیک پالس) و سیناپسی (تغییر وزن اتصال) را در آن بازسازی کند. این کار از طریق تنظیم مقاومت پایانهٔ زیرین ترانزیستور انجام شده، به گونه‌ای که دو پدیدهٔ فیزیکی «یونیزاسیون ضربه‌ای» و «به‌دام‌افتادن بار» در آن فعال شوند.
 
در ادامه، این تیم پژوهشی سلولی شامل دو ترانزیستور طراحی کرده که می‌تواند بسته به نیاز در حالت نورونی یا سیناپسی کار کند. آن‌ها این فناوری جدید را «حافظهٔ تصادفی نوروـسیناپسی» یا به اختصار NS-RAM نامیده‌اند.
 
لانزا توضیح می‌دهد: «بر خلاف دیگر رویکردها که به آرایه‌های پیچیده یا مواد خاص نیاز دارند، روش ما از همان فناوری CMOS استفاده می‌کند که در پردازنده‌ها و حافظه‌های امروزی به کار می‌رود. این یعنی روش ما با فناوری‌های فعلی سازگار، قابل اطمینان و قابل تولید انبوه است.»
 
 پیش‌نیازی برای پردازنده‌های هوش مصنوعی آینده
 
سلول NS-RAM در آزمایش‌ها، مصرف انرژی بسیار کمی داشت، عملکرد پایداری در چرخه‌های متعدد نشان داد و رفتاری قابل پیش‌بینی و یکنواخت بین دستگاه‌های مختلف از خود بروز داد؛ ویژگی‌هایی که برای طراحی سخت‌افزارهای مطمئن ANN ضروری‌اند.
 
این دستاورد نقطهٔ عطفی در مسیر توسعهٔ پردازنده‌های کوچک و کم‌مصرف برای هوش مصنوعی به شمار می‌رود؛ پردازنده‌هایی که می‌توانند به پردازش سریع‌تر و پاسخ‌گویی بالاتر در کاربردهای واقعی منجر شوند.

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا