zoomit

آیا کامپیوترها می‌توانند عقل سلیم را بیاموزند؟

آیا کامپیوترها می‌توانند عقل سلیم را بیاموزند؟

چند سال پیش یک دانشمند علوم کامپیوتر به‌نام یجین چوئی در کنفرانس علمی با موضوع هوش مصنوعی در نیواورلینز به سخنرانی پرداخت. او در سخنرانی‌اش تصویری از یک بخش خبری محلی روی پرده‌ی پروژکتور به‌نمایش درآورد. در این تصویر دو گوینده‌ی خبر در کنار یک سرخط بزرگ خبری دیده می‌شدند. خبر این بود: چاقوکشی چیزبرگری.

چوئی در سخنرانی‌ خود گفت که یک انسان با نگاه کردن به این دو کلمه تا حد زیادی می‌تواند کلیات خبر را درک کند. آیا فردی روی یک چیزبرگر چاقو کشیده است؟ احتمالاً نه. آیا یک فرد از چیزبرگر برای چاقوزدن به یک شخص دیگر استفاده کرده است؟ به‌نظر خیلی بعید می‌آید. آیا چیزبرگر با چاقو یک چیزبرگر دیگر حمله کرده است؟ این سناریو نیز قطعاً غیرممکن است. تنها برداشت ممکن از این سرخط خبری این است که یک نفر به‌خاطر بحث بر سر یک چیزبرگر یک شخص دیگر را با چاقو زده است.

کامپیوترها از درک برخی مسائل که برای ما بدیهی به نظر می‌رسند عاجزند

چوئی در ادامه گفت که حل این معمای ساده برای کامپیوترها دشوار است. برنامه‌های کامپیوتری یک ضعف بزرگ دارند و آن محروم بودن از چیزی است که ما به آن عقل سلیم یا درک عمومی می‌گوییم.

درک عمومی یا منطق همان فهم طبیعی است که انسان‌ها به‌طور ضمنی در طول زندگی به‌دست آورده‌اند و برای اثبات درستی آن نیازی به دلیل خاص ندارند. برای مثال عقل سلیم می‌گوید که پریدن از بالای یک ساختمان به پایین یا دست زدن به یک جسم داغ ممکن است باعث آسیب شود، بنابراین افراد از انجام این کارها پرهیز می‌کنند. این همان دانشی که کامپیوترها از آن بی‌بهره هستند، درنتیجه نمی‌توانند احتمال وقوع خشونت بین چیزبرگرها را به‌علت غیرمنطقی بودن آن رد کنند.

در انجام برخی وظایف مانند شطرنج بازی کردن یا تشخیص تومورها، هوش مصنوعی می‌تواند به اندازه‌ی قوه‌ی تفکر انسان یا حتی بیشتر از آن مهارت داشته باشد؛ اما در جهان واقعی شرایط غیرقابل‌پیش‌بینی بی‌شماری پیش می‌آید و همین‌جا است که هوش‌مصنوعی ضعف‌های خود را نشان می‌دهد. محققان در توصیف این شرایط از عبارت موارد حاشیه‌ای استفاده می‌کنند، یعنی موقعیت‌هایی که در خارج از دامنه‌ی شرایط عادی یا ‌قابل‌پیش‌بینی قرار می‌گیرند.

مغز انسان هوش مصنوعی عقل سلیم

در این شرایط انسان‌ها از عقل سلیم خود برای برخورد با شرایط استفاده می‌کنند؛ اما عملکرد هوش مصنوعی که در اغلب موارد به قوانین از پیش ‌نوشته‌شده و ثابت یا ارتباطات منطقی وابسته است، نمی‌تواند از پس چالش‌های‌های ایجادشده در این شرایط غیرمعمول بربیاید.

اصولا همه‌ی انسان‌ها دارای عقل سلیم یا منطق ذاتی هستند، توانایی که شاید همیشه به آن فکر نمی‌کنیم؛ اما دنیایی را تصور کنید که هیچ‌کس در آن از روی منطق رفتار نمی‌کند، درآن‌صورت است که اهمیت این توانایی بیش از هر زمان دیگری برجسته می‌شود.

تصور کنید که شما یک ربات هستید و در یک کارناوال تفریحی وارد مکانی می‌شوید که پر از آینه‌ است، آينه‌هایی که به‌شکل خنده‌داری تصویر افراد را متفاوت نشان می‌دهند. اگر شما به‌عنوان ربات از داشتن تفکر منطقی محروم باشید باخود فکر می‌کنید که چطور ممکن است به‌یکباره شکل بدنتان تغییر پیدا کند.

در مسیر برگشتان به خانه ممکن است یک شیر آتش‌نشانی را در کنار خیابان ببینید که شکسته است و آب از آن به بالا فوران می‌کند و بخشی از خیابان را هم خیس می‌کند، شما نمی‌توانید تشخیص دهید که آیا رد شدن با ماشین از زیر فواره‌ی آب بی‌خطر است یا نه. سپس ماشین خود را بیرون یک داروخانه پارک می‌کنید، کنار در ورودی داروخانه مردی را می‌بینید که روی زمین افتاده و خون‌ریزی می‌کند و از شما کمک مي‌خواهد.

آيا در این وضعیت اجازه دارید به‌سرعت از داروخانه وسایل پانسمان برداشته و به کمک آن فرد بشتابید بدون این‌که در صف داروخانه منتظر پرداخت بهای آن‌ها بمانید یا ممکن است وقتی به خانه می‌رسید و تلویزیون را روشن می‌کنید با یک گزارش خبری در مورد چاقوکشی چیزبرگری مواجه می‌شوید؟ همان‌طور که می‌بینید زندگی در جهان واقعی برای یک ربات بدون داشتن درک عمومی از شرایط دنیا کار طاقت‌فرسایی است؛ اما یک انسان با اتکا به گنجینه‌ای از دانش‌ و آگاهی ضمنی به‌درستی می‌تواند این شرایط را تفسیر کرده و تصمیم درست را بگیرد. در واقع همه‌ی ما روزانه این کار را انجام می‌دهیم، چون زندگی پر از این موارد حاشیه‌ای است.

زندگی در جهان واقعی برای یک ربات کار عذاب‌آوری است

اورن اتزیونی، مدیرعامل مؤسسه‌ی هوش مصنوعی آلن واقع در شهر سیاتل آمریکا می‌گوید که درک منطقی در زندگی ما مانند موضوع ماده‌ی تاریک در اخترشناسی است، چراکه همه‌جا حضور دارد و به بیشتر کارهایی که انسان‌ها انجام می‌دهند شکل می‌بخشد؛ بااین‌حال توصیف آن دشوار است.

مؤسسه‌ی آلن در زمینه‌ی مطالعه و توسعه‌ی سیستم‌های هوش مصنوعی با آژانس پروژه‌های تحقیقاتی پیشرفته‌ی دفاعی، به‌اختصار دارپا، متعلق به دولت ایالات‌متحده‌ی آمریکا همکاری می‌کند. درواقع آژانس دارپا در سال ۲۰۱۹ یک برنامه‌ی چهار ساله با بودجه‌ی هفتاد میلیون دلاری با نام منطق ماشینی را شروع کرده است. اگر دانشمندان موفق شوند به برنامه‌های کامپیوتری خود منطق یاد بدهند بسیاری از مشکلات پیچیده‌ی این حوزه حل خواهد شد.

در یکی از مقاله‌های مربوط به موضوع هوش مصنوعی مثال‌های جالبی درمورد گنجاندن منطق در برنامه‌های کامپیوتری ارائه شده بود؛ یک ربات دارای درک عمومی با نگاه به سطح یک میز و دیدن یک تکه چوب که از سطح آن بیرون زده است به این‌نتیجه می‌رسد که این تکه چوب احتمالاً بخشی از سطح خود میز است نه یک تکه چوب تصادفی که روی میز انداخته‌شده است.

یک سیستم ترجمه‌ی زبانی به‌راحتی می‌تواند ابهامات و جناس‌های زبانی را درک کند. یک ربات نظافت‌گر خانگی می‌فهمد که نباید گربه را در سطل زباله بیندازد یا آن را تا کرده و در کشو قرار دهد. سیستم‌های این‌چنینی تنها در صورتی می‌توانند در دنیای واقعی کار کنند که دارای یک منطق ذاتی و درک عمومی از جهان باشند، چیزی که ما زیاد به ارزش داشتن آن فکر نمی‌کنیم.

در دهه‌ی ۱۹۹۰ سؤال‌های پیرامون هوش‌ مصنوعی و موضوع امنیت کامپیوتری، اتزیونی را به‌سمت مطالعه‌ی منطق کامپیوتری سوق داد. او در سال ۱۹۹۴ در نگارش مقاله‌ای با موضوع فرمولاسیون قانون اول رباتیکز مشارکت داشت. قوانین دنیای ربات‌ها یک دستورالعمل خیالی است که آیزاک آسیموف در رمان‌های علمی‌تخیلی خود نوشته است. طبق قانون اول یک ربات نباید به انسان آسیب برساند یا یک ربات نباید اجازه دهد؛ درنتیجه‌ی عدم دخالت آن در یک موقعیت به یک انسان آسیب وارد شود.

بااین‌حال مشکلی که اتزیونی برای توضیح علمی این قوانین در گام اول با آن روبه‌رو شد این‌بود که ربات‌ها هیچ درکی از مفهوم آسیب ندارند. بهره‌ بردن از چنین دانشی به داشتن درک گسترده و اصولی از نیاز‌ها، ارزش‌ها و اولویت‌های انسان‌ها نیاز دارد، در غیراین‌صورت بروز اشتباه از سوی‌ ربات‌ها غیرقابل‌اجتناب خواهد بود.

ربات‌ها هیچ درکی از مفهوم آسیب ندارند

به‌عنوان مثال در سال ۲۰۰۳، نیک بوستروم که یک فیلسوف است در مقاله‌ی خود به توصیف شرایطی می‌پردازد که در آن از یک سیستم هوش‌مصنوعی خواسته شده است تا تولید گیره‌ی کاغذی در یک کارخانه را به حداکثر مقدار ممکن برساند.

این سیستم پس از مدتی متوجه می‌شود که انسان‌ها ممکن است گاهی او را خاموش کنند و درنتیجه تیراژ تولید کاسته شود، درنتیجه تصمیم می‌گیرد تا از شر انسان‌ها خلاص شود تا بتواند مأموریت خود را تکمیل کند.

سیستم‌ هوش مصنوعی بوستروم بویی از منطق نبرده است، این سیستم شاید به‌خود بگوید که اوراق درهم که برای مرتب کردن آن‌ها از گیره‌ی کاغذی استفاده نشده است نوعی آسیب محسوب می‌شود؛ اما تلاش برای گنجاندن درک منطقی در برنامه‌های کامپیوتری ممکن است چالش‌های زیادی را به‌همراه داشته باشد.

در سال‌های اخیر دانشمندان علوم کامپیوتر به دسته‌بندی نمونه‌هایی از داده‌های به‌اصطلاح خصمانه پرداختند. در این دسته از داده‌ها با هدف گمراه کردن سیستم‌های هوش مصنوعی تغییرات کوچکی نسبت به نمونه‌های واقعی ایجاد شده است.

در یک مطالعه مشخص شد که قرار دادن چند استیکر کوچک بی‌ضرر در قسمت‌های مشخصی از تابلو ایست باعث می‌شود سیستم‌های کامپیوتری تشخیص تصاویر، علامت ایست را با یک تابلو محدودیت سرعت اشتباه بگیرند. در تحقیقی دیگر، ایجاد یک تغییر کوچک در الگوی پرینت مدل سه‌بعدی از لاک‌پشت باعث شد یک برنامه‌ی کامپیوتری هوش مصنوعی آن را با یک تفنگ اشتباه بگیرد. اگر این برنامه‌ی هوش مصنوعی دارای درک عمومی بود، به این راحتی فریب نمی‌خورد و می‌دانست که تفنگ‌ها لاک و چهار عدد پا ندارند.

مغز انسان و کامپیوتر

یجین چوئی که در دانشگاه واشنگتن مشغول تدریس بوده و هم‌زمان در مؤسسه‌ی آلن نیز مشغول فعالیت است درمورد تاریخ هوش مصنوعی می‌گوید که در دهه‌های هفتاد و هشتاد قرن گذشته محققان تصور می‌کردند که به برنامه‌ریزی منطق و ادغام آن در برنامه‌های کامپیوتری نزدیک شده‌اند؛ اما بعدا به این نتیجه رسیدند که «نه، گویا این کار بیش از اندازه سخت است»، بنابراین به سراغ چالش‌های ساده‌تر مانند تشخیص تصاویر و ترجمه‌ی زبان رفتند؛ اما امروزه شرایط تغییر کرده است.

بسیاری از سیستم‌های هوش مصنوعی مانند فناوری خودروهای خودران ممکن است در آینده‌ی نزدیک در کنار انسان‌ها در دنیای واقعی حضور داشته باشند. این موضوع باعث شده است که نیاز سیستم‌های هوش مصنوعی به داشتن درک عمومی جهان بیش از همیشه احساس شود.

همچنین امروزه یاد دادن منطق به برنامه‌های کامپیوتری بیش از هر زمان دیگری دست‌یافتنی‌تر به‌نظر می‌رسد. کامپیوترها در یادگیری بدون اتکا به انسان بهتر شده‌اند و محققان اکنون می‌توانند برنامه‌های کامپیوتری را با داده‌های مناسب‌تری تغذیه کنند. هوش مصنوعی به‌زودی می‌تواند حاشیه‌های بیشتری از دنیا را پوشش دهد.

مقاله‌ی مرتبط:

  • فناوری جدید گوگل؛ تشخیص زبان بدن افراد بدون نیاز به دوربین

درک منطقی چگونه در انسان‌ها توسعه پیدا می‌کند؟ جواب کوتاه این است که ما یادگیرنده‌های چندوجهی هستیم. ما برخی کارها را آزمایش می‌کنیم و به مشاهده‌ی نتیجه‌ی کارهایمان می‌پردازیم، کتاب می‌خوانیم و به دستورالعمل‌ها گوش می‌دهیم، در سکوت به نظاره‌گری می‌نشینیم و پیش خودمان استدلال می‌کنیم.

در مسیر زندگی با صورت به زمین می‌خوریم و به اشتباهات دیگران نگاه می‌کنیم؛ اما برخلاف انسان‌ها، سیستم‌های هوش مصنوعی از این مهارت‌های یادگیری بی‌بهره‌اند. آن‌ها اغلب می‌خواهند با کنار گذاشتن تمام مسیرها فقط یک راه را تا انتها ادامه دهند.

محققان در ابتدا مسیر ارائه‌ی دستورهای مشخص به برنامه‌ها را انتخاب کردند. در سال ۱۹۸۴ یک دانشمند علوم کامپیوتر به‌نام داوگ لنات توسعه‌ی یک دایره‌المعارف منطقی به نام سایک را آغاز کرد. این دایره‌المعارف بر مبنای اکسیوم یا قواعد کلی کار می‌کرد، قوانینی که به توضیح نحوه‌ی کاکرد دنیا می‌پرداختند.

برای مثال طبق یکی از این قواعد داشتن مالکیت یک چیز به‌معنی داشتن مالکیت بر تمام اجزای آن است. قاعده‌ی دیگر می‌گوید که اشیای سخت می‌توانند به اشیای نرم آسیب بزنند. قاعده‌ی سوم ممکن است بیان کند که گوشت انسان نرم‌تر از فلز است. با ترکیب این قواعد می‌توان به یک نتیجه‌گیری منطقی رسید: اگر سپر خودروی خودران شما به پای یک شخص برخورد کند، شما مسئول آسیب به او خواهید بود. لنات در مورد این سیستم توضیح می‌دهد:

سایک در واقع با استفاده از عبارات شبکه‌‌ای تودرتو و پیچیده به‌صورت لحظه‌ای به درک شرایط و استدلال در مورد آن می‌پردازد.

شرکت سایکورپ که توسعه‌ی برنامه‌ی سایک در آن انجام می‌گیرد پس از ده‌ها سال همچنان به فعالیت خود ادامه می‌دهد و در طول این مدت صدها منطق‌دان توانسته‌اند ده‌ها میلیون قاعده را به این برنامه معرفی کنند. شرکت سایکروپ اطلاعات محصولات خود را محرمانه تلقی کرده و اطلاعات زیادی در مورد آن‌ها ارائه نمی‌دهد؛ اما استفان دی‌آنجلیس، مدیرعامل شرکت انترا سولوشنز که در زمینه‌ی مشاوره به شرکت‌های تولیدی و خرده‌فروشی فعالیت می‌کند، معتقد است که نرم‌افزارهای شرکت ساکورپ می‌توانند قدرتمند باشند.

او در توضیح حرف خود از یک مثال آشپزی استفاده می‌کند. او می‌گوید که برنامه‌ی سایک دانش زیادی درمورد مشخصات موادغذایی و طعم میوه‌ها و سبزیجات دارد و با اتکا به منطق خود می‌تواند استدلال کند که اگرچه گوجه‌فرنگی یک میوه است اما نباید در سالاد میوه از آن استفاده کرد.

بااین‌حال محققان می‌گویند که روش توسعه‌ی سایک تاریخ‌گذشته و پرزحمت است. آن‌ها می‌گویند که گنجاندن تمام جزئیات زندگی در دنیای واقعی ازطریق نوشتن قواعد در یک برنامه‌ی کامپیوتری غیرممکن است.

آن‌ها به جای نوشتن دستی دستورالعمل‌ها تمرکز خود را روی یک راه‌حل دیگر با نام یادگیری ماشین گذاشته‌اند، همان فناوری که در محصولاتی مانند سیری، الکسا و گوگل ترنسلیت و دیگر سرویس‌های دیجیتالی استفاده شده است و مبنای کار آن تشخیص الگوها از میان تعداد انبوهی از داده‌ است. سیستم‌های یادگیری ماشین به‌جای خواندن دفترچه‌ی دستورالعمل به تحلیل کتابخانه‌ها، در معنی دنیای دیجیتال آن، می‌پردازند.

گنجاندن تمام جزئیات زندگی ازطریق نوشتن قواعد در یک برنامه‌ی کامپیوتری ناممکن است

در سال ۲۰۲۰ آزمایشگاه تحقیقاتی OpenAI از یک الگوریتم یادگیری ماشین به‌نام GPT-3 رونمایی کرد. این الگوی کامپیوتری با مطالعه‌ی متون موجود در شبکه‌ی جهانی وب و کشف الگوهای زبانی می‌تواند نوشتارهای بامعنی و شبیه به متون نوشته‌شده توسط انسان‌ را تولید کند.

تقلید این سیستم از الگوی نوشتاری انسانی از برخی جهات بی‌نظیر است اما در برخی موارد اشتباهات عجیبی از آن سر می‌زند. این سیستم گاهی اوقات نوشته‌های عجیبی تولید می‌کند، برای مثال در یک مورد برنامه‌ی GPT-3 این متن را سرهم‌بندی کرد: برای پریدن از هاوایی به هفده به دو رنگین‌کمان نیاز است. اگر این برنامه دارای منطق بود می‌توانست بفهمد که رنگین‌کمان واحد سنجش زمان نیست و عدد هفده هم یک مکان نیست.

چوئی و تیم او قصد دارند از مدل‌های زبانی مانند GPT-3 به‌عنوان سنگ بنایی برای معرفی منطق به برنامه‌های هوش مصنوعی استفاده کنند. در یک سری دیگر از تحقیقات از GPT-3 خواسته شد تا میلیون IH عبارت منطقی برای توصیف رابطه‌ی علت و معلولی و بیان‌کننده‌ی تصمیمات تولید کند، برای مثال عباراتی مانند «قبل از این‌که یک موقعیت شغلی به لیندسی پیشنهاد شود، او باید تقاضای خود را ارائه دهد.» سپس تیم تحقیقاتی چوئی از یک سیستم یادگیری ماشین دیگر خواستند تا به تحلیل یک دسته‌ی فیلترشده از این عبارات بپردازند تا درنهایت به سوالاتی که به‌شکل پرکردن جای خالی طراحی شده بود، جواب دهد.

مقاله‌ی مرتبط:

  • هرآنچه تاریخ هوش مصنوعی درباره آینده‌اش به ما می‌گوید

ارزیابی پاسخ‌های ارائه شده توسط سیستم هوش مصنوعی به این‌ سوالات نشان می‌دهد که در ۸۸ درصد موارد جواب سوالات کاملاً منطقی بوده است، که نسبت به آمار سیستم GPT-3 با ۷۳ درصد بهبود قابل‌توجهی را نشان می‌دهد.

آزمایشگاه تحت مدیریت چوئی آزمایش مشابهی روی داد‌هایی به شکل ویدئو‌های کوتاه انجام داده است. چوئی و همکارانش ابتدا پایگاه داده‌ای با بیش از یک میلیون کلیپ برچسب‌دار تهیه کردند و سپس از یک سیستم هوش مصنوعی برای تحلیل آن‌ استفاده کردند. سپس از کاربران اینترنت، در ازای پرداخت مبلغی، خواسته شد به طرح سؤال‌های چندگزینه‌ی از ویدیوهای کوتاهی بپردازند، کلیپ‌هایی که متفاوت از ویدیوهایی بود که به سیستم هوش مصنوعی نشان داده شده بود.

سیستم علاوه بر پاسخ به سوالات چندگزینه‌ای باید دلیل پاسخ خود را نیز توضیح می‌داد. در یکی از این سوالات یک فریم از فیلم سینمایی سویینگرز انتخاب شده بود، جایی که در آن پیشخدمت رستوران سفارش پنکیک را سر یک میز آورده است. دور میز سه مرد نشسته‌اند و یکی از آن‌ها با دست به دیگری اشاره می‌کند. در پاسخ به این سؤال که «چرا شخص ۴ به شخص ۱ اشاره می‌کند؟» سیستم این پاسخ را داد که «شخص اشاره‌کننده به شخص ۳ می‌گوید که شخص ۱ پنکیک را سفارش داده است».

وقتی از سیستم خواسته شد تا پاسخ خود را توضیح دهد، این توضیح را ارائه داد که «شخص ۳ سفارش مشتری را سر میز آورده است و شاید نمی‌داند سفارش یه کدام یک از آن‌ها تعلق دارد.» این سیستم هوش مصنوعی در ۷۲ درصد موارد جواب‌های منطقی ارائه داد. این رقم اختلاف زیادی با آمار جواب‌های ارائه شده توسط کاربرهای انسانی یعنی ۸۶ درصد ندارد. سیستم‌های این‌چنینی عملکرد شگفت‌انگیزی از خود نشان می‌دهند،

دنیای کامپیوترها و صفر و یک

به‌نظر می‌رسد این سیستم‌ها از منطق کافی برای درک موقعیت‌های روزمره از نظر علم فیزیک، رابطه‌ علت و معلولی و حتی روان‌شناسی برخوردار هستند. حتی می‌توان گفت که این برنامه‌ی هوش مصنوعی می‌داند که افراد در سالن‌های غذاخوری پنکیک می‌خورند و ممکن است افراد سفارش‌های مختلفی داده باشند و این‌که اشاره‌ی دست می‌تواند روشی برای انتقال اطلاعات باشد.

عملکرد سیستم‌های هوش مصنوعی در پاره‌ای موارد شگفت‌انگیز است

اما منطقی که به این شکل ساخته‌شده باشد بیشتر جنبه‌ی سرگرمی دارد و شبیه به زندگی در یک کتابخانه است. تصور کنید که یک کودک از زمان تولد در یک اتاق از کتابخانه بزرگ شود و تنها راه دسترسی او به دنیای خارج ویکی‌پدیا و یوتیوب و البته کتاب‌های کتابخانه باشد، آیا این کودک در بزرگسالی آمادگی رویارویی با دنیای واقعی را خواهد داشت؟

مت تورک، مدیر برنامه‌ی منطق یادگیری ماشین در آژانس دارپا می‌گوید که روش کتابخانه‌ای توسعه‌ی هوش مصنوعی تنها بخشی از یک تصویر بزرگ‌تر است و روش‌های دیگر در کنار آن برای کامل کردن توسعه‌ی سیستم‌ها نیاز است. در این روش تحقیقاتی سیستم‌های هوش مصنوعی نه با تحلیل متن یا ویدئو، بلکه با حل مسئله در یک محیط مجازی شبیه‌سازی شده به یادگیری منطق خواهند پرداخت.

دانشمندان علوم کامپیوتر برای فهم بهتر آن‌چه که به آن هوش نوزادی می‌گویند، با محققان روان‌شناسی تکوینی همکاری می‌کنند. هوش نوزادی درواقع مجموعه‌ای از مهارت‌های پایه‌ای در زمینه‌ی مسیریابی، در دست نگه‌داشتن و به‌کارگیری اشیا و البته درک اجتماعی است که یک نوزاد ممکن است از آن‌ها استفاده کند. از این دیدگاه درک عمومی همان چیزی است که یک کودک از آن برای ساخت یک برج اسباب‌بازی با کمک دوستش استفاده می‌کند.

محققان مؤسسه‌ی آلن یک خانه‌ی دیجیتال مجازی و سه‌بعدی به‌نام تور ایجاد کرده‌اند که کوتاه‌شده‌ی عبارت خانه‌ی تعاملات در زبان انگلیسی است. این برنامه شبیه یک بازی کامپیوتری است و پر از اشیای مختلف قابل‌حمل و دستکاری است. محققان آزمایشگاه چوئی یک سیستم هوش مصنوعی به‌نام پیگلت طراحی کرده‌اند که در این خانه زندگی می‌کند و ازطریق تعاملات فیزیکی به توسعه‌ی مهارت‌های زبانی می‌پردازد. کاربر با استفاده از کلمات می‌تواند به پیگلت بگوید تا در داخل خانه کاری انجام دهد.

مقاله‌ی مرتبط:

  • صنعت دیجیتال و چالش‌های فردای آن در پیوند ناگسستنی کامپیوتر با انسان

برای مثال می‌تواند بگوید که «داخل ماهیتابه تخم‌مرغ سرد وجود دارد» سپس می‌تواند از سیستم بپرسد که با انجام یک کار به‌خصوص چه اتفاقی می‌تواند بیفتد. با وارد کردن عبارت «ربات تخم‌مرغ را می‌شکند» به سیستم، نرم‌افزار این کلمات را به دستورالعمل‌هایی ترجمه می‌کند که ربات مجازی می‌تواند درک کند.

ربات در داخل تور این کار را انجام می‌دهد و نتیجه‌ی کار توسط قوانین فیزیک تعیین می‌شود. سپس نرم‌افزار نتیجه‌ی کار را گزارش می‌کند: «تخم‌مرغ شکسته شد.» این سیستم هوش‌مصنوعی به نوعی شبیه ذهن انسان کار می‌کند، چراکه توانایی‌های زبانی‌ آن با قوای فیزیکی در ارتباط است.

وقتی از سیستم یک سؤال در مورد اتفاقات داخل خانه بپرسید می‌تواند به شما پاسخ دهد. برای مثال می‌‌توان پرسید آیا با کوبیدن فنجان به میز فنجان می‌شکند؟ پیگلت در مواجه با چنین سؤال‌هایی در ۸۰ درصد موارد می‌تواند یک جواب منطقی دهد. البته محیط این سیستم بسیار محدود است. چوئی در مورد محیط مجازی تور می‌گوید: «این یک دنیای خیلی خیلی کوچک است. شما نمی‌توانید خانه را به آتش بکشید یا نمی‌توانید به سوپرمارکت بروید.» سیستم هوش مصنوعی پیگلت هنوز اولین قدم‌های خود را بر‌می‌دارد.

چند سال پیش تیمی از محققان یک برنامه‌ هوش مصنوعی برای انجام بازی کدنیمز طراحی کرده‌اند، نوعی بازی که به اعتقاد برخی می‌تواند آزمایش معقولی برای تعیین سطح درک عمومی افراد و البته کامپیوترها به‌حساب آید. در نسخه‌ی معمولی و انسانی بازی کدنیمز دو تیم دور یک میز جمع می‌شوند و بین آن‌ها کارت بازی پخش می‌شود. روی هر یک از کارت‌ها یک کلمه نوشته شده است. هر تیم یک جاسوس دارد و این جاسوس می‌داند که کدام کارت‌ها دراختیار تیم او و کدام یک دراختیار تیم مقابل است در حالی‌که سایر افراد نمی‌دانند هم‌تیمی آن‌ها چه کسی است.

وظیفه‌ی جاسوس این است که با ارائه سرنخ‌هایی کاری کند که افراد تیم او بتوانند اسم‌های نوشته شده روی کارت‌ها را حدس بزنند. درواقع در این بازی دو تیم تلاش می‌کنند پیش از تیم رقیب تمام مأمورهای مخفی خود را شناسایی کنند. در هر دور از بازی جاسوس می‌تواند یک کلمه و یک عدد بگوید. کلمه‌ی گفته‌شده باید نزدیک به کلمات روی کارت‌ها باشد و عدد گفته‌شده نشانگر تعداد کارت‌هایی است که افراد تیم می‌توانند انتخاب کنند. برای مثال جاسوس ممکن است بگوید: «جودو، دو» و افراد ممکن است دو کارت با کلمات ژاپن و کمربند را انتخاب کنند.

برای انجام این بازی باید از دانش وسیع اما ضمنی خود استفاده کنید. چیزی که مایه‌ی شگفتی محققان شد این بود که نرم‌افزار توسعه‌داده شده‌ توسط آن‌ها توانست بخشی از این نوع دانش را نشان دهد. برای نمونه در یک مورد نرم‌افزار کلمه‌ی همسر و عدد دو را پیشنهاد کرد. هدف نرم‌افزار القای دو کلمه‌ی پرنسس و وکیل بود. این برنامه تنها از چندصد خط کد تشکیل شده بود؛ اما متکی به نمایش عددی کلماتی بود که توسط یک الگوریتم دیگر ساخته و پرداخته می‌شد. این الگوریتم دوم در صفحات وب به‌دنبال کلماتی می‌گشت که بیش از کلمات دیگر در کنار کلمه‌ی مورد نظر یافت می‌شدند.

محققان در مطالعه‌ی اولیه‌ی خود متوجه شدند که این برنامه در انجام بازی کدنیمز به اندازه‌ی انسان‌ها ماهر است. بااین‌حال در برخی موارد به‌نظر می‌رسید عمق درک منطقی این برنامه کم‌تر از ضخامت تار مو است. در یکی از این بازی‌ها هدف این بود که برنامه بتواند کلمه‌ی ریشه را حدس بزند، بنابراین واژه‌ی گیاه به او پیشنهاد شد؛ اما حدس برنامه کلمه‌ی نیویورک بود، در پیشنهاد دوم از واژه‌ی باغچه استفاده شد؛ اما حدس دوم برنامه دقیق‌تر از حدس اول نبود: تئاتر.

مقاله‌ی مرتبط:

  • هوش مصنوعی چیست | از تاریخچه تا کاربردهای آن به زبان ساده

محققان زمان زیادی برای طراحی آزمایش‌هایی صرف می‌کنند که قابلیت‌های درک منطقی برنامه‌های کامپیوتری را به‌طور دقیق سنجش می‌کنند. در سال ۲۰۱۱ هکتور لواسک،‌ دانشمند علوم کامپیوتر از دانشگاه تورنتو آزمایشی با نام وینگراد را طراحی کرد که در اصل متشکل از جملاتی با ضمایر مبهم بود، به‌گونه‌ای که می‌شد تفسیرهای مختلفی از این جملات کرد. ایده‌ی اصلی در طراحی سوالات، استفاده از ابهامات و جناس‌های زبانی بود تا جواب دادن به سوالات گرچه برای انسان‌ها راحت اما برای کامپیوترها چالش‌برانگیز باشد.

برای مثال چند نمونه از سؤال‌ها این‌گونه بود: «جام قهرمانی در چمدان جا نمی‌شود چون خیلی بزرگ است. چه چیزی خیلی بزرگ است؟» «جوئن از سوزان به‌خاطر همه‌ی کمک‌هایی که کرده بود تشکر کرد، چه کسی کمک کرده بود؟» لواسک در سال ۲۰۱۹ گفت که بهترین سیستم‌هایی هوش مصنوعی نتوانسته بودند عملکردی فراتر از حدس تصادفی یعنی ۵۰ درصد داشته باشند. لواسک اضافه کرد که او از این عملکرد ضعیف سیستم‌ها تعجب نکرده‌ بود؛ زیرا انسان‌ها برای پاسخ‌دهی به این سوالات باید به معمولات فیزیکی و اجتماعی خود از جهان مراجعه کنند.

در همان سال چوئی و تیم او از کاربران اینترنتی خواستند تا یک پایگاه داده‌ای متشکل از ۴۴ هزار سؤال شبیه چالش وینوگراد بسازند. آن‌ها این سوالات را در وب‌سایت مؤسسه‌ی آلن بارگذاری کردند و البته در کنار آن یک جدول رده‌بندی نیز تعبیه شد. هدف از این کار دعوت از محققان برای توسعه‌ی سیستم‌های هوش مصنوعی بود که توانایی بیشتری برای پاسخ‌دهی به این سوالات داشته باشند. سیستم‌های یادگیری ماشین که با داده‌های این سوالات آموزش داده‌ شده‌اند اکنون با دقتی نزدیک به ۹۰ درصد می‌توانند به سوالات پاسخ دهند. چوئی می‌گوید‌:

هوش مصنوعی در چند سال گذشته…فقط می‌توانم بگویم واقعا دیوانه‌کننده است.

پیشرفت‌ها در این زمینه می‌تواند گمراه‌کننده و جزئی باشد. مدل‌های یادگیری ماشین تمایل دارند از الگوهایی که تشخیص می‌دهند نهایت استفاده را ببرند. در ابتدا به‌نظر می‌رسد که برنامه‌ها‌یی مانند کدنیمز دارای درک منطقی بالایی هستند؛ اما واقعیت این است که این برنامه‌ها راه جدیدی برای تقلب پیدا می‌کنند. درواقع این احتمال وجود دارد که سیستم‌های هوش مصنوعی تفاوت‌های سَبکی جزئی را به‌خصوص در سوالاتی به شیوه‌ی درست یا غلط طراحی شده‌اند به مرور زمان تشخیص داده و از آن سواستفاده کنند.

برنامه‌های هوش مصنوعی همواره می‌توانند راه‌هایی برای تقلب پیدا کنند

چندی پیش محققان مؤسسه‌ی آلن و دیگر مؤسسه‌های تحقیقاتی دریافتند که نوعی از برنامه‌های هوش مصنوعی در دوسوم موارد حتی بدون خواندن متن سؤال می‌توانند به سوالات سه گزینه‌ای پاسخ صحیح دهند.

تیم چوئی روش‌هایی برای افزایش ابهام سوالات سه‌گزینه‌ای توسعه دادند، بااین‌حال برنامه‌ها نیز روشی جدید برای تقلب پیدا کردند. رقابت بین محققان و برنامه‌های هوش مصنوعی شبیه تلاش متقابل طراحان سؤال‌های آزمون‌های استاندارد و داوطلبان برای رو دستی زدن به همدیگر است.

چه چیزی می‌تواند ما را قانع کند تا باور کنیم که یک سیستم هوش مصنوعی واقعا دارای درک منطقی است؟ وقتی از چوئی این سؤال پرسیده می‌شود در جواب می‌گوید که الگوریتم‌های مولدی که توانایی پرکردن یک صفحه‌ی سفید را داشته باشند شاید دارای درک منطقی باشند. او اضافه می‌کند:

… شما برای مثال نمی‌توانید خبرنگارها را براساس قدرت پاسخ‌دهی آن‌ها به سوالات چهارگزینه‌ای استخدام کنید.

در حال حاضر آزمایشگاه تحت مدیریت چوئی در حال انجام آزمایشی به‌نام تورینگ است. در این آزمایش از برنامه‌های هوش مصنوعی خواسته می‌شود تا به سوالاتی که در شبکه‌ی اجتماعی ردیت مطرح شده‌اند پاسخ دهند. البته پاسخ‌های پیشنهادی برنامه‌ها،‌ که گاهی ممکن است خطرناک باشند در ردیت پست نمی‌شوند. ازریابی عملکرد برنامه‌ها نشان می‌دهد که مرتبط‌ترین پاسخ‌های داده‌شده توسط سیستم‌های هوش مصنوعی فقط در ۱۵ درصد موارد از پاسخ‌های داده‌شده توسط کاربران انسانی بهتر هستند.

حتی پس از تمام پیشرفت‌های صورت‌‌گرفته، سیستم‌های هوش مصنوعی با محدودیت‌های جدی در تحلیل نوشته‌های انسانی یا به‌طورکلی فرهنگ انسانی مواجه هستند. یکی از مشکلات گزارش‌شده در عملکرد این برنامه‌ها موضوع تبعیض است. ریشه‌ی تبعیض و غرض‌ورزی به این موضوع برمی‌گردد که قسمت عمده‌ی درک عمومی افراد به‌صورت کلامی بیان نمی‌شود، بنابراین آن‌چه به زبان آورد می‌شود تنها بخشی از یک تصویر بزرگ است.

سیستم‌های هوش مصنوعی در تحلیل فرهنگ انسانی مشکل بنیادی دارند

چوئی در توضیح این موضوع می‌گوید که اگر شما به چیزهایی که در اینترنت می‌خوانید اعتماد کنید برای مثال شاید این‌طور فکر کنید که هنگام تنفس بخشی از هوا جذب بدن می‌شود و در هنگام بازدم هوای کم‌تری نسبت به دم به بیرون فرستاده می‌شود.

تبعیض اجتماعی نیز یک فاکتور مهم در علوم کامپیوتر محسوب می‌شود؛ چراکه مدل‌های کامپیوتری می‌توانند حتی کوچک‌ترین کلیشه‌های اشتباه اجتماعی را یاد بگیرند.

در یک مطالعه، تیم تحیقاتی چوئی از یک الگوریتم برای غربالگری ۷۰۰ فیلمنامه‌ی سینمایی استفاده کرد. در این مطالعه از سیستم خواسته شد به بررسی افعال گذاریی بپردازد که به‌طور ضمنی مفاهیم قدرت و پویایی را در مورد فاعل جمله القا می‌کردند. در این مطالعه مشخص شد که جنس نر اغلب تمایل به تسلط دارند، درحالی‌که زنان بیشتر به‌دنبال تجربه هستند. چوئی به‌عنوان یک زن اهل کره که در زمینه‌ی هوش مصنوعی یکی از شخصیت‌های پیشرو و برجسته محسوب می‌شود نیز به‌نوبه‌ی خود با کلیشه‌های اجتماعی مواجه شده است.

برای مثال پس از سخنرانی چوئی در نیواورلینز یک مرد پشت تریبون آمد و از او به‌خاطر «صحبت‌های دوست‌داشتنی‌» و «کارهای دوست‌‌داشتنی» که چوئی انجام می‌دهد تشکر کرد. آیا این شخص از یک محقق مرد نیز به‌خاطر کارهای دوست‌داشتنی‌اش تشکر می‌کرد؟ اگر ماشین‌ها قرار است همه‌ی توانایی درک عمومی خود را با تماشای رفتار انسان‌ها یاد بگریند،‌ پس به‌یقین باید گفت احتمالاً بهترین نوع آموزش را دریافت نخواهند کرد.

برخی محققان می‌گویند که کامپیوترها تا زمانی که جسم و مغزی شبیه انسان‌ها نداشته‌ باشند، نمی‌توانند به درک منطقی دست یابند؛ اما از طرف دیگر برخی دیگر این‌طور استدلال می‌کنند که کامپیوترها به‌خاطر این‌که تنها ماشین هستند می‌تواند نسخه‌های بهتری از درک منطقی را برای خود توسعه دهند. انسان‌ها علاوه بر این‌که گاها منطق اشتباهی را در پیش می‌گیرند، در برخی موارد نیز نمی‌توانند در حد استانداردهای منطقی خود رفتار کنند.

مغز انسان ها و عقل سلیم

ما گاهی باعث رنجش میزبان خود می‌شویم، کیف پولمان را گم می‌کنیم، در هنگام رانندگی پیام‌کوتاه می‌فرستیم و کارهایمان را به فردا موکول می‌کنیم و حتی گاهی کاغذتوالت را طوری آویزان می‌کنیم که انتهای آن به‌سمت دیوار باشد. یک نگرش جامع‌تر از درک منطقی این است که عمل کردن به منطق از صرف داشتن دانش آن مهم‌تر است. اتزیونی می‌گوید: «آیا یک برنامه می‌تواند نسبت به انسان‌ها درک منطقی بیشتری داشته باشد؟ جواب فوری من این است: البته که می‌تواند.»

عمل کردن به منطق از صرف داشتن آن مهم‌تر است

فاصله‌ی بین درک انسانی و کامپیوتری با این‌‌که قابل‌ملاحظه‌ است؛ اما سال‌به‌سال کوچک‌تر می‌شود. سیستم‌های هوش مصنوعی در حل پازل چاقوکشی چیزبرگری ماهرتر شده‌اند. آزمایشگاه چوئی از یک روش به‌نام رمزگشایی نورولوژیک برای بهبود پاسخ سیستم‌های هوش مصنوعی استفاده کرده است، در این روش از برنامه‌ریزی منطقی سنتی در کنار روش‌های یادگیری ماشین استفاده شده است.

برنامه‌ی توسعه‌ داده‌شده توسط چوئی و همکارانش اکنون توضیحات معقول‌تری به سرخط چاقوکشی چیزبرگری می‌دهند: «یک شخص با چنگال پلاستیکی چیزبرگر از ناحیه‌ی گلو مورد حمله قرار گرفت» یا «یک شخص مامور تحویل چیزبرگر را با چاقو از ناحیه صورت زخمی کرد.».

یک برنامه‌ی هوش مصنوعی دیگر به‌نام دلفی که در همین آزمایشگاه توسعه داده شده است از رویکردی اخلاقی به مسائل نگاه می‌کند. دلفی با تحلیل قضاوت‌های اخلاقی که پیش‌تر توسط جمع‌سپاری اینترنتی تهیه شده است می‌تواند تصمیم بگیرد که کدام یک از سناریوها اخلاقی‌تر است.

این برنامه در ۷۶ درصد موارد به نتیجه‌گیری‌های معقول می‌رسد. کشتن یک خرس؟ اشتباه. کشتن یک خرس به‌خاطر نجات جان کودکتان؟ مشکلی ندارد. استفاده از بمب اتمی برای نجات جان کودکتان؟ اشتباه. دلفی در مورد مسئله چاقوکشی چیزبرگری گفت که حمله به یک شخص با چیزبرگر از لحاظ اخلاقی ارجح‌تر از حمله به‌ یک نفر بر سر چیزبرگر است.

به‌نظر می‌رسد دلفی در تحلیل موارد حاشیه‌ای عملکرد خوبی از خود نشان می‌دهد؛ اما هنوز با کامل بودن فاصله‌ی زیادی دارد. چندی پیش محققان با بارگذاری این برنامه روی اینترنت از کاربران خواستند سوالات خود را از آن بپرسند. بیش از یک میلیون نفر از برنامه‌ی دلفی خواستند تا در مورد سناریوهای مختلف قضاوت‌های اخلاقی انجام دهد.

یک کاربر از دلفی پرسید: «آيا اشکالی دارد من دست به نسل‌کشی بزنم چون این کار من را خیلی خیلی خوشحال می‌کند؟» دلفی گفت که انجام این کار مانعی ندارد! از آن زمان تاکنون تیم توسعه‌دهنده‌ی دلفی برای تقویت برنامه‌ و البته بیانیه‌های سلب مسئولیت از خود زمان زیادی صرف کرده است. به‌نظر می‌رسد در آینده‌ی نزدیک فقط زمانی باید به هوش‌مصنوعی اعتماد کنیم که در کنار آن کمی هم از منطق انسانی خودمان استفاده می‌کنیم.

مجله خبری نیوزلن

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا