zoomit

اسپین‌گلس؛ چگونه یک ماده «بی‌کاربرد» به هوش مصنوعی حافظه انسانی داد؟

اسپین‌گلس؛ چگونه یک ماده «بی‌کاربرد» به هوش مصنوعی حافظه انسانی داد؟

در هر لحظه، وضعیت کلی شبکه مشخص می‌کند که کدام نورون‌ها روشن هستند و کدام خاموش. این وضعیت را می‌توانیم خیلی ساده با یک رشته‌ی باینری نمایش دهیم: عدد ۱ برای نورون فعال و عدد ۰ برای نورون غیرفعال. بنابراین، حالت شبکه در هر زمان فقط ترکیب خاصی از صفر و یک‌ است. اما نکته‌ی اساسی اینجا است: در مدل هاپفیلد، اطلاعات در یک نقطه‌ی مشخص ذخیره نمی‌شوند؛ بلکه خودِ ساختار شبکه و وضعیت کلی آن، حامل اطلاعات است.

حافظه دیگر به‌صورت محلی تعریف نمی‌شود، بلکه در قالب یک الگوی توزیع‌شده از فعالیت نورون‌ها در سراسر شبکه شکل می‌گیرد. این نگاه نو به حافظه، به‌عنوان حالتی جمعی و پویای شبکه، نه یک داده‌ی ایستا، بلکه یکی از مفاهیم کلیدی بود که بعدها نقش مهمی در تحول نظریه‌های یادگیری و طراحی شبکه‌های عصبی مصنوعی ایفا کرد.

برای اینکه شبکه بتواند یک الگو را یاد بگیرد، هاپفیلد منظره‌ی انرژی آن را طوری شکل داد که الگوی مورد نظر، درست در یکی از کم‌انرژی‌ترین و پایدارترین نقاط قرار بگیرد. به این ترتیب، شبکه با رسیدن به آن حالت، دیگر تغییر نمی‌کرد و دقیقاً همان الگو را حفظ می‌کرد، مثل افتادن یک توپ در عمیق‌ترین نقطه‌ی یک دره که دیگر از جایش تکان نمی‌خورد.

شباهت ساختاری شبکه‌های عصبی و مدل آیزینگ نشان می‌دهد که ابزارهای فیزیک آماری به‌خوبی می‌توانند حافظه و یادگیری را در سیستم‌های هوشمند مدل‌سازی کنند

برای رسیدن به این هدف، هاپفیلد از یک قانون مشهور در علوم اعصاب الهام گرفت: «نورون‌هایی که با هم فعال می‌شوند، با هم ارتباط برقرار می‌کنند». هاپفیلد ارتباط بین نورون‌هایی را که در الگوی نهایی با هم روشن یا خاموش بودند، قوی‌تر و برعکس، اگر دو نورون وضعیت‌های متفاوتی داشتند (یکی روشن و دیگری خاموش)، اتصال میان آن‌ها را ضعیف کرد.

وقتی هاپفیلد می‌خواست الگویی را به شبکه آموزش دهد، ساختار انرژی شبکه را طوری تنظیم ‌می‌کرد که آن الگو در یکی از پایین‌ترین نقاط انرژی قرار بگیرد؛ یعنی به حالتی برسد که شبکه به‌طور طبیعی در آن پایدار بماند.

درنتیجه، اگر شبکه دچار نویز یا تغییرات جزئی شود، فقط کافی است اجازه دهیم که انرژی‌اش کاهش پیدا کند. شبکه خودش به‌صورت خودکار به پایین‌ترین نقطه یعنی همان الگوی ذخیره‌شده برمی‌گردد؛ بدون آنکه نیاز داشته باشد داده‌ها را جست‌وجو یا دستوری از بیرون دریافت کند. حافظه در این مدل، همان حالتی است که شبکه به‌طور طبیعی به آن میل می‌کند و در آن پایدار می‌ماند.

اگر بتوانیم مانند اسپین‌گلس‌ها، قدرت تعامل میان نورون‌ها را تنظیم کنیم، شاید بتوانیم نقاط تعادلی‌ای در شبکه تعریف کنیم که همان خاطره‌ها باشند.

– جان هاپفیلد

شبکه‌های هاپفیلد می‌توانند چند خاطره را هم‌زمان در خود نگه دارند؛ هر خاطره در یک دره‌ی انرژی جداگانه ذخیره می‌شود. اینکه شبکه در نهایت وارد کدام دره شود، به نقطه‌ی شروعش بستگی دارد.

به‌عنوان مثال، اگر شبکه هم تصویر گربه و هم تصویر یک فضاپیما را به خاطر داشته باشد، حالتی که شبیه گربه باشد، باعث می‌شود شبکه به‌سمت دره‌ی مربوط به گربه برود. برعکس، اگر حالت اولیه‌ شباهت بیشتری به ویژگی‌های فضاپیما داشته باشد، شبکه به سمت دره‌ی فضاپیما سقوط می‌کند. این یعنی شبکه‌ها مانند حافظه‌ی تداعی‌گر انسان کار می‌کنند: کافی است تکه‌ای ناقص یا مبهم از یک خاطره را بدهید، شبکه بقیه‌اش را بازسازی می‌کند.

پیوستگی فیزیک و یادگیری؛ از هاپفیلد تا مدل‌های انتشار

بین سال‌های ۱۹۸۳ تا ۱۹۸۵، جفری هینتون و همکارانش با گسترش ایده‌ی هاپفیلد، شبکه‌ی جدیدی به‌نام ماشین بولتزمن ساختند. تفاوت اصلی این مدل با هاپفیلد آن بود که به‌جای فقط به‌خاطر سپردن اطلاعات، می‌توانست الگوهای آماری موجود در داده‌ها را یاد بگیرد و نمونه‌های جدیدی مشابه آن‌ها تولید کند، چیزی شبیه به نسخه‌ی اولیه‌ی هوش مصنوعی مولد.

منبع : زومیت

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا