اسپینگلس؛ چگونه یک ماده «بیکاربرد» به هوش مصنوعی حافظه انسانی داد؟

اسپینگلس؛ چگونه یک ماده «بیکاربرد» به هوش مصنوعی حافظه انسانی داد؟
در هر لحظه، وضعیت کلی شبکه مشخص میکند که کدام نورونها روشن هستند و کدام خاموش. این وضعیت را میتوانیم خیلی ساده با یک رشتهی باینری نمایش دهیم: عدد ۱ برای نورون فعال و عدد ۰ برای نورون غیرفعال. بنابراین، حالت شبکه در هر زمان فقط ترکیب خاصی از صفر و یک است. اما نکتهی اساسی اینجا است: در مدل هاپفیلد، اطلاعات در یک نقطهی مشخص ذخیره نمیشوند؛ بلکه خودِ ساختار شبکه و وضعیت کلی آن، حامل اطلاعات است.
حافظه دیگر بهصورت محلی تعریف نمیشود، بلکه در قالب یک الگوی توزیعشده از فعالیت نورونها در سراسر شبکه شکل میگیرد. این نگاه نو به حافظه، بهعنوان حالتی جمعی و پویای شبکه، نه یک دادهی ایستا، بلکه یکی از مفاهیم کلیدی بود که بعدها نقش مهمی در تحول نظریههای یادگیری و طراحی شبکههای عصبی مصنوعی ایفا کرد.
برای اینکه شبکه بتواند یک الگو را یاد بگیرد، هاپفیلد منظرهی انرژی آن را طوری شکل داد که الگوی مورد نظر، درست در یکی از کمانرژیترین و پایدارترین نقاط قرار بگیرد. به این ترتیب، شبکه با رسیدن به آن حالت، دیگر تغییر نمیکرد و دقیقاً همان الگو را حفظ میکرد، مثل افتادن یک توپ در عمیقترین نقطهی یک دره که دیگر از جایش تکان نمیخورد.
شباهت ساختاری شبکههای عصبی و مدل آیزینگ نشان میدهد که ابزارهای فیزیک آماری بهخوبی میتوانند حافظه و یادگیری را در سیستمهای هوشمند مدلسازی کنند
برای رسیدن به این هدف، هاپفیلد از یک قانون مشهور در علوم اعصاب الهام گرفت: «نورونهایی که با هم فعال میشوند، با هم ارتباط برقرار میکنند». هاپفیلد ارتباط بین نورونهایی را که در الگوی نهایی با هم روشن یا خاموش بودند، قویتر و برعکس، اگر دو نورون وضعیتهای متفاوتی داشتند (یکی روشن و دیگری خاموش)، اتصال میان آنها را ضعیف کرد.
وقتی هاپفیلد میخواست الگویی را به شبکه آموزش دهد، ساختار انرژی شبکه را طوری تنظیم میکرد که آن الگو در یکی از پایینترین نقاط انرژی قرار بگیرد؛ یعنی به حالتی برسد که شبکه بهطور طبیعی در آن پایدار بماند.
درنتیجه، اگر شبکه دچار نویز یا تغییرات جزئی شود، فقط کافی است اجازه دهیم که انرژیاش کاهش پیدا کند. شبکه خودش بهصورت خودکار به پایینترین نقطه یعنی همان الگوی ذخیرهشده برمیگردد؛ بدون آنکه نیاز داشته باشد دادهها را جستوجو یا دستوری از بیرون دریافت کند. حافظه در این مدل، همان حالتی است که شبکه بهطور طبیعی به آن میل میکند و در آن پایدار میماند.
اگر بتوانیم مانند اسپینگلسها، قدرت تعامل میان نورونها را تنظیم کنیم، شاید بتوانیم نقاط تعادلیای در شبکه تعریف کنیم که همان خاطرهها باشند.
– جان هاپفیلد
شبکههای هاپفیلد میتوانند چند خاطره را همزمان در خود نگه دارند؛ هر خاطره در یک درهی انرژی جداگانه ذخیره میشود. اینکه شبکه در نهایت وارد کدام دره شود، به نقطهی شروعش بستگی دارد.
بهعنوان مثال، اگر شبکه هم تصویر گربه و هم تصویر یک فضاپیما را به خاطر داشته باشد، حالتی که شبیه گربه باشد، باعث میشود شبکه بهسمت درهی مربوط به گربه برود. برعکس، اگر حالت اولیه شباهت بیشتری به ویژگیهای فضاپیما داشته باشد، شبکه به سمت درهی فضاپیما سقوط میکند. این یعنی شبکهها مانند حافظهی تداعیگر انسان کار میکنند: کافی است تکهای ناقص یا مبهم از یک خاطره را بدهید، شبکه بقیهاش را بازسازی میکند.
پیوستگی فیزیک و یادگیری؛ از هاپفیلد تا مدلهای انتشار
بین سالهای ۱۹۸۳ تا ۱۹۸۵، جفری هینتون و همکارانش با گسترش ایدهی هاپفیلد، شبکهی جدیدی بهنام ماشین بولتزمن ساختند. تفاوت اصلی این مدل با هاپفیلد آن بود که بهجای فقط بهخاطر سپردن اطلاعات، میتوانست الگوهای آماری موجود در دادهها را یاد بگیرد و نمونههای جدیدی مشابه آنها تولید کند، چیزی شبیه به نسخهی اولیهی هوش مصنوعی مولد.
منبع : زومیت