وقتی هوش مصنوعی احساس شما را بداند، چه اتفاقی میافتد؟

در ماه می ۲۰۲۱، توییتر ویژگی جدیدی را ارائه داد که به کاربران پیشنهاد میکند قبل از ارسال توییت دوباره فکر کنند. ماه بعد، فیسبوک «هشدارهای درگیری» هوش مصنوعی را برای گروهها اعلام کرد تا مدیران بتوانند در جایی که ممکن است گفتگوهای جنجالی یا ناسالم اتفاق افتد، وارد عمل شوند. پاسخهای هوشمند ایمیل و پیامرسانی هر روز میلیاردها جمله را برای ما به پایان میرسانند.
مچبند Halo که آمازون آن را در سال ۲۰۲۰ عرضه کرد، مچبند تناسب اندامی است که لحن صدای شما را تحت نظارت قرار میدهد. بهزیستی دیگر فقط ردیابی ضربان قلب یا شمارش قدمها نیست، بلکه نحوه برخورد ما با اطرافیانمان را نیز شامل میشود. ابزارهای درمانی الگوریتمی برای پیشبینی و پیشگیری از رفتارهای منفی درحال توسعه هستند.
طبق تعریف جف هنکاک، استاد ارتباطات در دانشگاه استنفورد، ارتباطات مبتنی بر هوش مصنوعی، ارتباطی هستند که در آن عاملی هوشمند از طرف فرد ارتباطگر پیامها را تولید، اصلاح یا اضافه میکند تا اهداف ارتباطی را برآورده سازد. بهگفتهی او، این فناوری هماکنون در مقیاس وسیعی به کار میرود.
از آغاز دنیاگیری، بیشتر روابط ما به مسیرهای کامیپوتری وابسته شده است. اما آیا الگوریتمها میتوانند به ما کمک کنند تا در میان اقیانوس خروشانی از مشاجرههای آنلاین و پیامهای سمی با همدیگر بهتر رفتار کنیم؟ آیا اپلیکیشن بهتر از ما میتواند احساسات ما را بخواند؟ آیا واگذار کردن روابطمان به هوش مصنوعی، بهتدریج آنچه را که رابطه انسانی را انسانی میکند، از بین میبرد؟
کدنویسی برای والدینی که حضانت مشترک دارند
جی کیسون در سیستم دادگاه خانواده یا حداقل در اطراف آن بزرگ شد. مادرش، کاتلین کیسون، وکیل خانواده بود و زمانی که جی نوجوان بود، در دفتر او در مینیاپولیس مینهسوتا در رفتوآمد بود و به جمعآوری اسناد کمک میکرد. دراینمیان، او داستانهایی درمورد روشهای از هم پاشیدن خانوادهها میشنید.
از این جهت، برای کیسون که یکی از بنیانگذاران اپلیکیشن OurFamilyWizard است، چیز زیادی تغییر نکرده است. اپلیکیشن مذکور، ابزار برنامهریزی و ارتباط برای زوجهای طلاق گرفته و والدین دارای حضانت مشترک فرزند است که در سال ۲۰۰۱ راهاندازی شد.
ایده از کاتلین بود، اما جی طرح تجاری را توسعه داد و ابتدا OurFamilyWizard را بهعنوان وبسایت راهاندازی کرد. این وبسایت بهزودی موجب جلبتوجه کسانی شد که در سیستم حقوقی کار میکردند.
قاضی جیمز سونسون در سال ۲۰۰۳ پروژهی آزمایشی را با این پلتفرم در دادگاه خانوادهای در شهرستان هنپین مینهسوتا اجرا کرد. در این پروژه، ۴۰ نفر از کسانی که سرسختترین خانوادهها بودند، درنظر گرفته شدند. آنها روی پلتفرم قرار گرفتند و پس از مدتی، از سیستم دادگاه ناپدید شدند. وقتی سرانجام فردی در دادگاه ظاهر شد (دو سال بعد)، پس از آن بود که یکی از والدین استفاده از اپلیکیشن را متوقف کرده بود.
طی دو دهه بعد، OurFamilyWizard مورد استفاده حدود یک میلیون نفر قرار گرفت و تاییدیه دادگاه را در سراسر آمریکا دریافت کرد. در سال ۲۰۱۵، این اپلیکیشن در بریتانیا و سال بعد در استرالیا آغاز به کار کرد. اپلیکیشن OurFamilyWizard اکنون در ۷۵ کشور وجود دارد. محصولات مشابه عبارتاند از coParenter، Cozi، Amicable و TalkingParents.
برایان کارپف، دبیر انجمن وکلای آمریکا در بخش حقوق خانواده، میگوید اکنون بسیاری از وکلا زمانی که میخواهند تأثیری بازدارنده بر برقراری ارتباط زوجین داشته باشند، اپلیکیشنهای حضانت مشترک را بهعنوان رویه استاندارد توصیه میکنند. این اپلیکیشنها میتوانند عامل بازدارندهای برای اذیت و آزار باشند و دادگاه میتواند حکم استفاده از آنها در ارتباطات را صادر کند.
- هوش مصنوعی میتواند براساس تصاویر شخصیت افراد را قضاوت کند
- فناوری تشخیص چهره آمازون توانایی شناسایی ترس را دارد
- هوش مصنوعی با خواندن مغز افراد، چهرههای ساختگی جذابی خلق میکند
در تلاش برای تشویق نیکرفتاری، هوش مصنوعی به ویژگی بسیار برجستهای تبدیل شده است. برنامه OurFamilyWizard دارای تابعی به نام ToneMeter است که از تجزیهوتحلیل عواطف برای نظارت بر پیامهای ارسالشده در برنامه استفاده میکند. تجزیهوتحلیل عواطف زیرمجموعهای از پردازش زبانهای طبیعی یعنی تجزیهوتحلیل گفتار انسان است. این الگوریتمها که با استفاده از پایگاههای داده زبانی بزرگ آموزش دیدهاند، متن را تجزیه میکنند و با توجه به کلمات و عبارتهایی که در آن وجود دارد، به بار عاطفی آن نمره میدهند.
درمورد ToneMeter، اگر عبارت دارای بار عاطفی در پیام شناسایی شود، نوارهایی که در برنامه نشان داده میشود، به رنگ قرمز درآمده و کلمات دردسرساز علامتگذاری میشود. برای مثال جمله «تقصیر شما است که دیر کردیم»، میتواند بهعنوان «پرخاشگرانه» علامتگذاری شود. عبارتهای دیگر میتوانند بهعنوان «تحقیرآمیز» یا «ناراحتکننده» علامتگذاری شوند. این موضوع به کاربر بستگی دارد که همچنان بخواهد آنها را ارسال کند.
از ToneMeter در ابتدا در سرویس پیامرسانی استفاده میشد اما اکنون برای همه نقاط تبادل میان والدین در برنامه کدگذاری میشود. شین هلگت، مدیر ارشد تولید، میگوید این برنامه بهزودی نهتنها ارتباط منفی را منع میکند، بلکه کلام مثبت را نیز تشویق میکند. او درحال جمعآوری بینشهایی از مجموعه گستردهای از تعاملات با این دیدگاه است که برنامه والدین را تشویق کند تا فراتر از گفتگوهای معمولی رفتار مثبتی با هم داشته باشند.
برنامه CoParenter که در سال ۲۰۱۹ آغاز به کار کرد نیز از تحلیل احساسات استفاده میکند. والدین ازطریق پیامک با هم گفتگو میکنند و اگر پیامی خیلی خصمانه باشد، هشداری ظاهر میشود. اگر سیستم به توافق منجر نشود، گزینهای وجود دارد که میتواند فرد دیگری را وارد گفتگو کند.
البته، واگذارکردن چنین گفتگوهای پر از احساسی به برنامه، بدون مشکل نیست. برنامههای حضانت مشترک ممکن است بتوانند به هدایت رابطه مشکلداری کمک کنند؛ اما نمیتوانند مشکل را حل کنند و گاهیاوقات، میتوانند آن را بدتر کنند. کارپف میگوید برخی از والدین برنامه را به سلاح تبدیل میکنند و پیامهایی میفرستند تا طرف مقابل را عصبی کنند تا پیام مشکلداری را ارسال کند.
کیسون گفتگویی را که زمان اجرای برنامه ازمایش با یک قاضی داشت، به یاد میآورد. قاضی به او گفت: «موضوعی که باید درمورد ابزارهای به خاطر داشته باشید این است که من میتوانم به شما پیچ گوشتی را بدهم و شما میتوانید به کمک آن اشیاء را تعمیر کنید یا اینکه آن را درون چشم خود فرو کنید».
کامپیوتر میگوید در آغوش بگیر
در سال ۲۰۱۷، آدلا تیمونز، دانشجوی دکترای روانشناسی دوره کارآموزی بالینی را در دانشگاه کالیفرنیا در سانفرانسیسکو و بیمارستان عمومی سانفرانسیسکو گذارند. او با خانوادههایی از قشر کمدرآمد کار میکرد که دارای کودکان خردسالی بودند که درمعرض تروما قرار گرفته بودند. تیمونز در آنجا متوجه الگوی خاصی شد: بیماران زمانی در درمان پیشرفت میکردند که درمان با زندگی روزمره آنها تلفیق شده باشد. او معتقد بود فناوری میتواند شکاف بین اتاق درمانگر و جهان واقعی را پر کند. او پتانسیل فناوریهای پوشیدنی را میدید که میتوانستند در لحظهای که مشکلی درحال آشکارشدن بود، مداخله کنند؛ یعنی «مداخله سازشی به موقع» انجام شود. در تئوری، این وضعیت مانند داشتن درمانگری است که وقتی زنگ هشدار عاطفی به صدا در میآید، آماده است تا در گوش شما نجوا کند.
تیمونز، مدیر آزمایشگاه مداخلات فناوری برای سیستمهای زیستمحیطی (TIES) در دانشگاه بینالمللی فلوریدا میگوید: «برای انجام کارآمد این کار، باید رفتارهای موردنظر را احساس کنید یا آنها را از راه دور تشخیص دهید».
پژوهشهای تیمونز که شامل ایجاد مدلهای محاسباتی از رفتار انسان است، بر ایجاد الگوریتمهایی تمرکز دارد که بتواند رفتار زوجها و خانوادهها را پیشبینی کند. تمرکز او در ابتدا روی زوجها بود.
در یک مطالعه، پژوهشگران ۳۴ زوج جوان را به پایشگرهای مُچ و قفسه سینه مجهز کردند و دمای بدن، ضربان قلب و تعریق آنها پیگیری کردند. آنها همچنین به زوجها گوشیهای هوشمندی دادند که به مکالمات آنها گوش میکردند. تیمونز و گروهش با ارجاع متقابل این دادهها با نظرسنجیهایی که در آن زوجها وضعیت عاطفی و مشاجرههای خود را توصیف میکردند، مدلهایی را برای تعیین زمانی که احتمال دعوا بین زوجین بالا است، ایجاد کردند.
عوامل محرک عبارت بودند از ضربان قلب بالا، استفاده مکرر از کلماتی مانند «تو» و عناصر زمینهای مانند زمان روز یا میزان نور اتاق. تیمونز توضیح میدهد:
متغیر واحدی وجود ندارد که بهعنوان شاخص قوی برای یک مرافعهی اجتنابناپذیر عمل کند، اما وقتی اطلاعات متنوعی را داشته باشید که در یک مدل استفاده شود، میتوانید به سطوح دقت موردنیاز برای الگورتیمی که در جهان واقعی کارآمد باشد، نزدیکتر شوید.
تیمونز درحال گسترش این مدلها برای بررسی دینامیک خانواده با تمرکز روی بهبود روابط بین والدین و فرزندان است.
آزمایشگاه TIES درحال ایجاد برنامههای موبایل است که هدف آنها درک منفعلانه تعاملات مثبت با استفاده از گوشیهای هوشمند، فیتبیتها و اپلواچ (ساعتهای هوشمند اپل) است. (ایده این است که با فناوری موجود قابل اجرا باشد). ابتدا، دادهها جمعآوری میشود: عمدتا ضربان قلب، لحن صدا و کلام. سختافزار همچنین فعالیت بدنی و اینکه آیا والدین و فرزند با همدیگر بوده یا از هم جدا هستند، را تشخیص میدهد.
در مطالعه زوجها، الگوریتم در تشخیص درگیری ۸۶ درصد دقیق بود و توانست با حالات عاطفی خودگزارششده همبستگی ایجاد کند. در شرایط خانواده، پژوهشگران امیدوار هستند که با شناسایی این حالتها، برنامه بتواند بهطور فعالانه مداخله کند. تیمونز میگوید:
این ممکن است اعلانی با این محتوا باشد که «برو فرزندت را در آغوش بگیر»، یا «کار خوب امروز فرزندت را به او یادآوری کن». ما همچنین روی الگوریتمهای کار میکنیم که میتوانند حالتهای منفی را تشخیص دهند و سپس مداخلاتی را برای کمک به والدین برای تنظیم احساسات خود ارسال کنند. وقتی احساسات والد تنظیم شود، معمولا وضعیت بهتر میشود.
اطلاعات زمینهای نیز به بهبود نرخهای پیشبینی کمک میکند: آیا فرد شب قبل خوب خوابیده است؟ آیا آن روز ورزش کرده است؟ پیاموارهها میتواند به شکل پیشنهادی برای مدیتیشن، تمرین تنفسی یا انجام تکنیکهای رفتاردرمانی شناختی باشد.
اپلیکیشنهای ذهنآگاهی وجود دارند، اما آنها بهندرت به کاربر یادآوری میکنند که در لحظهای که خشمگین، ناراحت و آشفته است، از آنها استفاده کند. تیمونز میگوید: «در آن لحظات است که کمتر میتوانید از منابع شناختی خود استفاده کنید. امیدواریم که بتوانیم با آگاه کردن مردم از لحظهای که به استفاده از این مهارتها نیاز دارند، به آنها کمک کنیم».
تیمونز طبق تجربیات خود درزمینه کار با خانوادهها معتقد است ساختار سنتی درمان (جلسات ۵۰ دقیقهای یکبار در هفته)، موثرترین راه برای تاثیرگذاری نیست. او فکر میکند علم مداخله روانشناسی درحال گسترش است. این کار با کمک مالی مؤسسه ملی بهداشت و بنیاد ملی علوم انجام میشود و تیمونز امیدوار است این پژوهشها به مراقبتهای سلامت روان دردسترس، مقیاسپذیر و پایدار منجر شود.
هنگامی که آزمایشگاه تیمونز به دادههایی برای اثبات اثربخشی و ایمنی آن برای خانوادهها دست پیدا کرد، باید درمورد نحوه به کارگیری چنین فناوری تصمیمگیری شود.
با گسترش مراقبتهای بهداشتی مبتنیبر داده، حفظ حریم خصوصی یکی از نگرانیهایی است که وجود دارد. اپل اخیرا وارد این فضا شده است و بخشی از مطالعه سه سالانهای با همکاری پژوهشگران دانشگاه کالیفرنیا است که در سال ۲۰۲۰ آغاز شد. هدف، بررسی این موضوع است که آیا آیفونها و ساعتهای هوشمند اپل میتوانند موارد افسردگی و اختلالات خلقی را تشخیص دهند (و درنهایت بتوانند پیشبینی و مداخله کنند). دادههای دوربینها و حسگرهای صوتی آیفون و نیز حرکات کاربر و حتی نحوه تایپ کردن آنها روی دستگاهشان جمعآوری میشود. اپل قصد دارد با قرار دادن الگوریتم روی خود گوشی و عدم ارسال اطلاعات به سرورهای خود، از دادههای کاربران محافظت کند.
در آزمایشگاه TIES، تیمونز میگوید هیچ دادهای فروخته یا به اشتراک گذاشته نمیشود مگر در مواردی که مربوط به آسیب یا سوءاستفاده باشد. او معتقد است دانشمندانی که چنین فناوریهایی را ایجاد میکنند، باید درمورد سوءاستفادههای احتمالی فکر کنند: «این مسئولیت مشترک جامعه علمی، قانونگذاران و مردم است که حد و مرز قابل قبولی را درون این فضا تعیین کنند».
گام بعدی آزمایش این مدلها در زمان واقعی است تا ببینیم که آیا مؤثر هستند و اینکه آیا پیاموارهها ارسالی برای کاربر به تغییر رفتار معناداری منجر میشود.
ارزیابی روابط
این ایده که حسگرها و الگوریتمها میتوانند پیچیدگیهای تعامل انسانی را معنایابی کنند، جدید نیست. برای جان گاتمن، روانشناس روابط، عشق همیشه بازی اعداد بوده است. از دههی ۱۹۷۰، او در تلاش بوده است تا کیمیاگری روابط را تجزیهوتحلیل کند.
گاتمن مطالعاتی را روی زوجها انجام داده است. معروفترین کارهای او در آزمایشگاه عشق انجام شده است که مرکز تحقیقاتی در دانشگاه واشینگتن است که آن را در دههی ۱۹۸۰ تأسیس کرد. نسخهای از آزمایشگاه عشق هنوز در مؤسسه گاتمن در سیاتل فعال است. او این مرکز را در سال ۱۹۹۶ با همکاری همسرش جولی گاتمن روانشناس، تأسیس کرد.
ازنظر کمدی رمانتیک، آزمایشگاه عشق مانند سکانس آغازین فیلم «وقتی هری سالی را دید…» است که به صحنهای در فیلم «ملاقات با والدین» پیوند میخورد که در آن رابرت دنیرو دامادش را به دستگاه دروغسنج وصل میکند.
در آزمایشگاه عشق گاتمن، افراد دو به دو به دستگاه متصل میشدند و از آنها خواسته میشد تا با همدیگر صحبت کنند؛ اول درمورد تاریخچه روابطشان، سپس درمورد یک درگیری. در همین حین، اجزای مختلف دستگله نبض، تعرق، لحن صدا و میزان بیقراری آنها را روی صندلی پیگیری میکرد. در اتاق پشتی که پر از مانیتور بود، حالتهای چهره توسط اپراتورهای آموزشدیده رمزگذاری میشد.
هدف آزمایشگاه عشق جمعآوری دادههایی درزمینه نحوه تعامل و انتقال احساسات زوجین بود. این پژوهش به ایجاد «روش گاتمن» درزمینه مشاوره روابط منجر شد. حفظ نسبت پنج به یک از تعاملات مثبت به منفی مهم است؛ یعنی ۳۳ درصد عدم توانای پاسخگویی به تلاش شریک برای توجه، معادل فاجعه است و حرکات چشم نیز ارتباط محکمی با شکست رابطه دارد. جان گاتمن که از خانهاش در جزیره اورکاس در واشینگتن صحبت میکرد، گفت: «روابط چندان هم پیچیده نیستند».
گاتمن نیز درحال قدم گذاشتن به قلمرو هوش مصنوعی است. آنها در سال ۲۰۱۸، استارتاپی به نام Affective Software را برای ایجاد پلتفرم آنلاینی برای ارزیابی و راهنمایی روابط تأسیس کردند. این کار از تعاملی در زندگی واقعی و برخورد جولی گاتمن با رافائل لیسیتسیا، کارشناس باتجربه مایکروسافت آغاز شد.
لیسیتسیا، همبنیانگذار و مدیرعامل Affective Software، درحال توسعه نسخه مجازی از آزمایشگاه عشق است که در آن زوجها میتوانند به کمک دوربین روی کامپیوتر، آیفون یا تبلتشان، رابطه خود را ارزیابی کنند. در اینجا هم حالات چهره، و لحن صدا و نیز ضربان قلب مورد نظارت قرار میگیرد.
این پیشرفتها نشانگر آن است که تشخیص عواطف یا محاسبات عاطفی تا کجا پیش رفته است. اگرچه آزمایشگاه عشق اولیه توسط صفحات نمایش و دستگاههای متعدی پشتیبانی میشد، درنهایت به فرد آموزشدیدهای نیاز بود تا مانیتور را نگاه کند و نشانهها را به درستی رمزگذاری کند. گاتمن هرگز باور نمیکرد که بتوان عنصر انسانی را حذف کرد. او میگوید:
افراد بسیار کمی بودند که بتوانند عواطف را با دقت بالا رمزگذاری کنند. آنها باید اهل موسیقی میبودند و درزمینهی تئاتر نیز مقداری تجربه میداشتند. هرگز تصور نمیکردم ماشینی بتواند این کار را انجام دهد.
البته همه متقاعد نشدهاند که ماشینها بتوانند احساسات انسانی را تشخیص دهند. هوش مصنوعی تشخیصدهنده احساسات قلمرو متلاطمی است و تا حدود زیادی مبتنیبر این ایده است که علائم عاطفی انسانها جهانی است. این تئوری که در دههی ۱۹۶۰ و ۱۹۷۰ با مشاهدات پل اکمن مطرح شد که سیستم رمزگذاری حالت چهره را ایجاد کرد، به کار گاتمن کمک کرد و اساس بسیاری از نرمافزارهای محاسباتی عواطف را تشکیل میدهد.
برخی از پژوهشگران مانند لیزا فلدمن بارت، روانشناس دانشگاه نورت ایسترن این پرسش را مطرح کردهاند که آیا ممکن است که بتوان عواطف را با اطمینان از روی علامتهای چهره تشخیص داد.
اگرچه نرمافزارهای تشخیص چهره قبلا بهطور گسترده مورد استفاده قرار میگرفتند، شواهدی از تعصب نژادی در برخی از آنها مشاهده شده است. مطالعهای که دو برنامه اصلی را با هم مقایسه کرد، نشان داد که احساسات منفی بیشتری را به چهرههای سیاهپوست نسبت داده بودند.
گاتمن میگوید آزمایشگاه عشق مجازی روی پایگاه داده حالتهای چهرهای آموزش دیده است که شامل تمام انواع پوستها میشود و سیستمهای تعاملاتی موجود در گروههای مختلف را آزمایش کرده است. او میگوید:
میدانیم که فرهنگ بر نحوه بیان یا پوشاندن احساسات مردم اثر دارد. ما استرالیا، بریتانیا، کره جنوبی و ترکیه را بررسی کردهایم و بهنظر میرسد سیستم خاصی که ایجاد کردهایم، واقعا کار میکند. اما اینکه آیا همه فرهنگها کار خواهد کرد؟ واقعا نمیدانیم.
گاتمن اضافه میکند که آزمایشگاه عشق با استفاده از سیستم رمزگذاری اجتماعی عمل میکند: این سیستم با درنظر گرفتن گفتگو، لحن صدا، زبان بدن و حالات چهره، روی تشخیص عواطف منحصربهفرد در لحظه تمرکز کمتری دارد و درعوض روی تجزیهوتحلیل کیفیتهای کلی تعامل تمرکز میکند. گاتمن میگوید این موارد را در کنار هم قرار دهید و میتوانید با اطمینان بیشتری به مقولههایی مانند خشم، غم، انزجار و تحقیر برسید.
از زوجهای شرکتکننده خواسته میشود تا به پرسشنامه مفصلی پاسخ دهند، سپس دو مکالمه ده دقیقهای از آنها ضبط میشود. یکی بحثی درباره هفته گذشته و دیگری درباره یک درگیری است. پس از بارگذاری فیلمها، زوجها به وضعیت عاطفی خود را در جریان مراحل مختلف گفتگو (از بسیار منفی تا بسیار مثبت: یک تا ۱۰) نمره میدهند. سپس برنامه این اطلاعات را به همراه نشانههای شناساییشده تجزیهوتحلیل میکند و نتایجی ازجمله نسبت مثبت به منفی، معیار اعتماد و درجه ایرادگیری، حالت تدافعی، تحقیر و ایجاد دیوار سنگی را تعیین میکند. هدف این است که از این ابزار با همکاری درمانگر استفاده شود.
از زمان دنیاگیری کووید ۱۹، خدمات درمانی و سلامت روان ارائهشده ازطریق تماسهای ویدئویی رواج زیادی پیدا کرده است. بهگفتهی تحلیلگران مؤسسه تحقیقاتی مککینزی، از زمان دنیاگیری، سرمایهگذاریهای مخاطرهآمیز در حوزه مراقبتهای مجازی و سلامت دیجیتال سه برابر شده است و چتباتهای درمانی هوش مصنوعی مانند Woebot درحال تبدیل شدن به جریان اصلی هستند.
درحالحاضر، اپلیکیشنهای مشاوره روابط مانند Lasting مبتنیبر روش گاتمن هستند و اعلانهایی را ارسال میکنند تا به کاربران یادآوری کنند که برای مثال، به شریک زندگی خود بگویند که وی را دوست دارند. شاید برخی فکر کنند این کار موجب تنبلی میشود، اما گاتمن آن را بهعنوان فرایندی آموزشی میبیند که ما را به ابزارهای مجهز میکند که درنهایت به عادت تبدیل میشوند. تیم درحالحاضر به نسخه سادهای فکر میکند که مستقل از درمانگر استفاده شود.
برای گاتمنها که از این واقعیت الهام گرفتند که بسیاری از زوجها زمان زیادی را صرف گوشیهای هوشمند خود میکنند، فناوری راهی برای مردمی کردن مشاوره باز میکند و میتواند از راههای زیادی زندگی آنها را بهبود دهد.
ایمیلی برای شما، اما نه توسط شما
فناوری درحالحاضر هم ممکن است بدون اینکه متوجه شوید، بر روابط شما تأثیر بگذارد. پاسخ هوشمند (Smart Reply) جیمیل را درنظر بگیرید؛ پیشنهادهایی که برای نحوه پاسخ دادن به یک نامه ارائه میشود و قابلیت نگارش هوشمند (Smart Compose) که پیشنهاد میکند چگونه جملههای خود را به پایان برسانید. پاسخ هوشمند در سال ۲۰۱۵ بهعنوان ویژگی تلفن همراه اضافه شد، قابلیت نگارش هوشمند نیز در سال ۲۰۱۸ عرضه شد و هر دو توسط شبکههای عصبی تغذیه میشوند.
جس هوهنشتاین، پژوهشگر دانشگاه کرنل، اولینبار زمانی با پاسخ هوشمند روبهرو شد که گوگل الو (Google Allo)، پیامرسانی که اکنون منسوخ شده است، در سال ۲۰۱۶ راهاندازی شد. این برنامه دستیاری مجازی بود که پاسخهای پیشنهادی را تولید میکرد. او آن را ناخوشایند میدانست: «نمیخواستم الگوریتمی روی الگوهای گفتاری من تأثیر بگذارد».
او در سال ۲۰۱۹ مطالعاتی را منتشر کرد که نشان میداد هوش مصنوعی نحوه تعامل ما با یکدیگر را تغییر میدهد. در یک مطالعه با استفاده از گوگل الو، از ۱۱۳ دانشجو خواسته شد تا در شرایطی که یکی از آنها، هر دو یا هیچکدام نمیتوانستند از پاسخ هوشمند استفاده کنند، وظیفهای را به کمک شریک خود انجام دهند. پسازآن، از شرکتکنندگان سؤال شد تا موفقیت یا شکست در انجام وظیفه را تا چه حد به شخص دیگر (یا هوش مصنوعی) نسبت میدهند.
مطالعه دوم روی اثرات زبانی تمرکز داشت: مردم چگونه به پاسخهای هوشمند مثبت یا منفی پاسخ میدهند؟ هوهنشتاین دریافت کلامی که افراد با پاسخ هوشمند استفاده میکنند، به سمت مثبت منحرف میشود. احتمال اینکه افراد پیشنهاد مثبت را قبول کنند، نسبتبه پیشنهاد منفی بیشتر بود. شرکتکنندگان همچنین غالبا خود را در شرایطی میدیدند که در آن میخواستند مخالفت کنند اما فقط عباراتی درزمینه توافق به آنها پیشنهاد میشد.
هدف نهایی این است که گفتگو سریعتر و روانتر پیش برود. هوهنشتاین متوجه شد که این فناوری موجب میشود که افراد مشارکتکننده در گفتوگو احساس بهتری نسبتبه هم داشته باشند. البته بهنظر هوهنشتاین، در روابط حرفهای میتواند نتیجه معکوس داشته باشد: این فناوری (همراه با تلقینپذیری خودمان) میتواند ما را از به چالش کشیدن دیگران یا مخالفت بازدارد.
در تلاش برای کارآمدتر کردن ارتباطامان، هوش مصنوعی میتواند احساسات واقعی ما را حذف کند و فقط گفتگوهای دوستانه ایجاد کند. برای افرادی که در محل کار هستند که در شرایط عادی نیز مخالفت کردن با نظر دیگران برایشان سخت است، این فناوری میتواند موجب شود که آنها نتوانند مخالفت خود را ابراز کنند.
در مطالعه تکمیل وظیفه، هوهنشتاین دریافت که وقتی نتایج مثبت حاصل میشد، این موفقیت به انسانها نسبت داده میشد اما وقتی مشکلی پیش میآمد، هوش مصنوعی سرزنش میشد. با انجام این کار، الگوریتم از روابط انسانی محافظت میکرد و سپری برای شکستهای ما فراهم میکرد. در این وضعیت، سؤال عمیقتری درمورد شفافیت ایجاد میشود: آیا باید آشکار شود که هوش مصنوعی به ایجاد پاسخ کمک کرده است؟
هنگامی که یکی از شرکا از پاسخ هوشمند استفاده میکرد، ابتدا موجب میشد گیرنده احساس مثبتتری درمورد شخص دیگر داشته باشد. اما وقتی به آنها گفته میشد که هوش مصنوعی در پاسخها نقش داشته است، آنها احساس ناراحتی میکردند. این امر تاییدکننده پارادوکسی است که طی استفاده از چنین فناوری ایجاد میشود: «ادراک و واقعیت همسو نیستند».
هنکاک در مقالهی خود بر این موضوع تأکید میکند که این ابزار چگونه ممکن است اثرات اجتماعی گستردهای داشته باشند و دستورالعمل پژوهشی را برای پرداختن به انقلابی تکنولوژیک که بیخ گوش ما به وقوع پیوسته است، تعیین میکند.
ارتباطات مبتنیبر هوش مصنوعی میتواند نحوه صحبت کردن ما را تغییر دهد، تعصب را کم کند یا آن را تشدید کند. حتی ممکن است برای ما این سؤال را ایجاد کند که واقعا با چه کسی صحبت میکنیم. این نوع ارتباط حتی میتواند ادراک ما را از خودمان تغییر دهد.
اما اگر هوش مصنوعی پیامهای فرستنده را به گونهای تغییر دهد که مثبتتر، شوختر یا خونگرمتر باشد، آیا ادراک فرستنده از خود به سمت مثبتتر، شوختر یا خونگرمتر تغییر خواهد کرد؟ اگر هوش مصنوعی بیشازحد روابط ما را دراختیار بگیرد، چه چیزی برای خود ما باقی میماند؟