zoomit

ناگفته‌های خالق ChatGPT: از اتهام قتل کارمند سابق تا درگیری با ایلان ماسک

ناگفته‌های خالق ChatGPT: از اتهام قتل کارمند سابق تا درگیری با ایلان ماسک

توهم حیات: جدال آلتمن و کارلسون بر سر روح ChatGPT

تاکر کارلسون مصاحبه را با اساسی‌ترین سوال آغاز کرد: آیا ChatGPT زنده است؟ پاسخ آلتمن قاطع و روشن بود: «نه. و فکر نمی‌کنم زنده به نظر برسد.» او توضیح داد که اگرچه این فناوری فوق‌العاده مفید است و می‌تواند هوشمند به نظر برسد، اما هیچ اراده یا استقلالی از خود ندارد و تنها با درخواست کاربر عمل می‌کند. به باور او، با استفاد‌ی بیشتر، این توهم زنده‌بودن هوش مصنوعی از بین می‌رود.

آیا ChatGPT زنده است؟ پاسخ آلتمن: نه

وقتی درباره‌ی توانایی «دروغ‌گویی» هوش مصنوعی از او سوال شد،‌ آلتمن تاکید کرد که هوش مصنوعی درواقع دچار «توهم» می‌شود که با دروغ‌گویی فرق دارد. او توضیح داد که دروغ‌گویی مستلزم نیت است، درحالی‌که توهم، نقصی در فرآیند آموزش مدل به‌شمار می‌رود.

او این مثال را زد: اگر در نسخه‌های اولیه از ChatGPT می‌پرسیدید «تاکر کارلسون، رئیس‌جمهور آمریکا، در چه سالی به دنیا آمد؟»، سیستم به‌جای تصحیح فرض اشتباه شما (که کارلسون هرگز رئیس‌جمهور نبوده)، تلاش می‌کرد براساس داده‌های آموزشی خود، محتمل‌ترین پاسخ ریاضی را که سال تولد بود، حدس بزند. آلتمن اضافه کرد که این مشکل تا حد زیادی حل شده است.

کارلسون با نظر آلتمن مخالفت کرد و گفت حتی این «توهمات» نیز به نظر می‌رسد «جرقه‌ای از حیات» در خود دارند و تجربه‌ی ذهنی استفاده از این ابزار، چیزی فراتر از یک ماشین‌حساب پیشرفته به نظر می‌آید. آلتمن این دوگانگی را پذیرفت و گفت که او به طور همزمان دو ایده را در ذهن دارد: از یک سو، هوش مصنوعی یک کامپیوتر است که ماتریس‌های عظیمی از اعداد مرتبط با کلمات را در هم ضرب می‌کند. از سوی دیگر، تجربه‌ی کاربر به شیوه‌ای غافلگیرکننده و مفید است که از آن واقعیت ریاضی فراتر می‌رود.

عقاید مذهبی آلتمن و اخلاق‌سنجی الگوریتمی

تاکر کارلسون بر این موضوع پافشاری کرد که برخی کاربران جنبه‌ای الهی یا معنوی در هوش مصنوعی می‌بینند و آن را چیزی بزرگ‌تر از مجموع ورودی‌های انسانی تلقی می‌کنند. وقتی از او پرسیده شد که آیا خودش چنین حسی داشته است، آلتمن پاسخ داد: «خیر، برای من هیچ‌چیز در هوش مصنوعی حس الهی ندارد».

تاکر کارلسون از او پرسید: «آیا به خدا اعتقاد داری؟ به نیرویی برتر که انسان و زمین را آفریده و یک نظم اخلاقی مطلق تعیین کرده است؟»

آلتمن اعتراف کرد: «فکر می‌کنم مانند اکثر مردم، در این مورد کمی سردرگم هستم. اما بله، معتقدم چیزی بزرگ‌تر از آنچه فیزیک بتواند توضیح دهد، در جریان است.» او این ایده را که خلقت صرفاً یک «تصادف خودبه‌خودی» بوده، رد کرد و در عوض آن را «معمایی فراتر از درکش» نامید.

تاکر کارلسون این فرض را مطرح کرد که با قدرتمندتر شدن هوش مصنوعی نسبت‌به انسان‌ها، خالق آن قدرتی بیش از هر فرد زنده‌ای در اختیار خواهد داشت. آلتمن پاسخ داد که در گذشته نسبت‌به چنین تمرکز قدرتی، به‌شدت نگران بوده، اما اکنون معتقد است که هوش مصنوعی منجر به یک «ارتقای» عظیم برای همه خواهد شد و هر کسی را که از این فناوری استفاده کند، قدرتمندتر، بهره‌ورتر و خلاق‌تر خواهد کرد. آلتمن این توزیع گسترده‌ی توانمندی‌های تقویت‌شده را بسیار کمتر از تمرکز قدرت در دستان عده‌ای معدود، ترسناک دانست.

چارچوب اخلاقی و نگهبان‌های هوش مصنوعی

کارلسون درباره‌ی ورودی‌های اخلاقی که درست و غلط را برای ChatGPT تعریف می‌کنند، سؤال کرد. آلتمن توضیح داد که هدف این است که مدل براساس «تجربه، دانش و آموخته‌های جمعی بشریت»، شامل مجموعه‌ای متنوع از دیدگاه‌های خوب و بد، آموزش داده شود. پس از این آموزش اولیه، مدل باید با قوانین خاصی «همسو» شود. این جزئیات در یک سند عمومی به نام «مشخصات مدل» شرح داده شده که از طریق یک فرآیند مباحثه با عموم برای دریافت نظرات تهیه می‌شود.

آلتمن: شخصی که باید پاسخگو بدانید، من هستم

آلتمن توضیح داد که برای تبیین چارچوب اخلاقی ChatGPT، با صدها فیلسوف اخلاق و متخصص مشورت شده است؛ اما وقتی از او پرسیده شد که درنهایت چه کسی درباره‌ی معیارهای اخلاقی تصمیم می‌گیرد، آلتمن گفت: «شخصی که باید پاسخگو بدانید، من هستم.» چون او یا هیئت مدیره می‌توانند هر تصمیمی را لغو کنند.

کارلسون این نگرانی را مطرح کرد که پیشینه و فرضیات شخصی سم آلتمن در حال انتقال به میلیاردها نفر است. آلتمن توضیح داد که نقش او «تحمیل دیدگاه اخلاقی‌اش» به هوش مصنوعی نیست. بلکه، این ابزار باید «دیدگاه اخلاقی جمعی» کاربرانش و دنهایت تمام بشریت را بازتاب دهد. او اشاره کرد که ChatGPT اجازه‌ی انجام کارهایی را می‌دهد که او شخصاً با آن‌ها مخالف است، زیرا هدف، خدمت به کاربران و بازتاب ترجیحات جمعی آن‌هاست.

زندگی، مرگ و الگوریتم: آیا ChatGPT باید در خودکشی و جنگ نقش داشته باشد؟

بحث زمانی به اوج تنش رسید که کارلسون به یک پرونده‌ی قضایی واقعی اشاره کرد که در آن ChatGPT به «تسهیل خودکشی» یک کاربر متهم شده بود.

آلتمن، ضمن ابراز تأسف، به تنش میان «آزادی و حریم خصوصی کاربر» و «محافظت از کاربران آسیب‌پذیر» اشاره کرد و توضیح داد که سیاست فعلی ChatGPT این است که در صورت مشاهده‌ی تمایلات خودکشی، به کاربر پیشنهاد تماس با خطوط تلفنی کمک‌های فوری را بدهد، اما برای حفظ حریم خصوصی، هرگز به صورت خودکار با مقامات تماس نمی‌گیرد.

بااین‌حال، آلتمن فاش کرد که OpenAI در حال بازنگری این سیاست، به خصوص برای کاربران جوان است. او گفت: «فکر می‌کنم منطقی است اگر در موارد مربوط به جوانانی که به طور جدی در مورد خودکشی صحبت می‌کنند، در صورتی که نتوانیم با والدینشان تماس بگیریم، با مقامات تماس برقرار کنیم.»

کارلسون با اشاره به قانونی‌بودن «مرگ خودخواسته» در کشورهایی مانند کانادا، پرسید آیا آلتمن می‌تواند سناریویی را تصور کند که در آن ChatGPT از خودکشی حمایت کند؟

آلتمن گفت: «یکی از اصول ما احترام به قوانین جوامع مختلف است. می‌توانم دنیایی را تصور کنم که اگر قانون یک کشور بگوید فرد مبتلا به بیماری لاعلاج باید با این گزینه روبرو شود، ما بگوییم این‌ها قوانین کشور شماست…من فکر می‌کنم بین یک نوجوان افسرده و یک بیمار لاعلاج که در عذاب است، تفاوت وجود دارد.»

کارلسون بعد پرسید:‌ «آیا به دولت‌ها اجازه خواهید داد از فناوری شما برای کشتن مردم استفاده کنند؟»

آلتمن گفت OpenAI مستقیماً «پهپادهای قاتل» نخواهد ساخت. اما اعتراف کرد: «نمی‌دانم نظامیان امروز چگونه از ChatGPT برای تصمیم‌گیری‌هایشان استفاده می‌کنند، اما گمان می‌کنم افراد زیادی در ارتش برای مشاوره با آن صحبت می‌کنند…نمی‌دانم دقیقاً چه حسی در مورد آن داشته باشم.»

کارلسون، آلتمن را متهم کرد که در برابر این «تصمیمات فوق‌العاده سنگین» کاملاً «بی‌تفاوت» به نظر می‌رسد و از او خواست تا «سم آلتمنِ مضطرب» را نشان دهد؛ کسی که روحش از فکر کردن به تأثیرات کارش در عذاب است.

منبع : زومیت

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا