ناگفتههای خالق ChatGPT: از اتهام قتل کارمند سابق تا درگیری با ایلان ماسک
ناگفتههای خالق ChatGPT: از اتهام قتل کارمند سابق تا درگیری با ایلان ماسک
توهم حیات: جدال آلتمن و کارلسون بر سر روح ChatGPT
تاکر کارلسون مصاحبه را با اساسیترین سوال آغاز کرد: آیا ChatGPT زنده است؟ پاسخ آلتمن قاطع و روشن بود: «نه. و فکر نمیکنم زنده به نظر برسد.» او توضیح داد که اگرچه این فناوری فوقالعاده مفید است و میتواند هوشمند به نظر برسد، اما هیچ اراده یا استقلالی از خود ندارد و تنها با درخواست کاربر عمل میکند. به باور او، با استفادی بیشتر، این توهم زندهبودن هوش مصنوعی از بین میرود.
آیا ChatGPT زنده است؟ پاسخ آلتمن: نه
وقتی دربارهی توانایی «دروغگویی» هوش مصنوعی از او سوال شد، آلتمن تاکید کرد که هوش مصنوعی درواقع دچار «توهم» میشود که با دروغگویی فرق دارد. او توضیح داد که دروغگویی مستلزم نیت است، درحالیکه توهم، نقصی در فرآیند آموزش مدل بهشمار میرود.
او این مثال را زد: اگر در نسخههای اولیه از ChatGPT میپرسیدید «تاکر کارلسون، رئیسجمهور آمریکا، در چه سالی به دنیا آمد؟»، سیستم بهجای تصحیح فرض اشتباه شما (که کارلسون هرگز رئیسجمهور نبوده)، تلاش میکرد براساس دادههای آموزشی خود، محتملترین پاسخ ریاضی را که سال تولد بود، حدس بزند. آلتمن اضافه کرد که این مشکل تا حد زیادی حل شده است.
کارلسون با نظر آلتمن مخالفت کرد و گفت حتی این «توهمات» نیز به نظر میرسد «جرقهای از حیات» در خود دارند و تجربهی ذهنی استفاده از این ابزار، چیزی فراتر از یک ماشینحساب پیشرفته به نظر میآید. آلتمن این دوگانگی را پذیرفت و گفت که او به طور همزمان دو ایده را در ذهن دارد: از یک سو، هوش مصنوعی یک کامپیوتر است که ماتریسهای عظیمی از اعداد مرتبط با کلمات را در هم ضرب میکند. از سوی دیگر، تجربهی کاربر به شیوهای غافلگیرکننده و مفید است که از آن واقعیت ریاضی فراتر میرود.
عقاید مذهبی آلتمن و اخلاقسنجی الگوریتمی
تاکر کارلسون بر این موضوع پافشاری کرد که برخی کاربران جنبهای الهی یا معنوی در هوش مصنوعی میبینند و آن را چیزی بزرگتر از مجموع ورودیهای انسانی تلقی میکنند. وقتی از او پرسیده شد که آیا خودش چنین حسی داشته است، آلتمن پاسخ داد: «خیر، برای من هیچچیز در هوش مصنوعی حس الهی ندارد».
تاکر کارلسون از او پرسید: «آیا به خدا اعتقاد داری؟ به نیرویی برتر که انسان و زمین را آفریده و یک نظم اخلاقی مطلق تعیین کرده است؟»
آلتمن اعتراف کرد: «فکر میکنم مانند اکثر مردم، در این مورد کمی سردرگم هستم. اما بله، معتقدم چیزی بزرگتر از آنچه فیزیک بتواند توضیح دهد، در جریان است.» او این ایده را که خلقت صرفاً یک «تصادف خودبهخودی» بوده، رد کرد و در عوض آن را «معمایی فراتر از درکش» نامید.
تاکر کارلسون این فرض را مطرح کرد که با قدرتمندتر شدن هوش مصنوعی نسبتبه انسانها، خالق آن قدرتی بیش از هر فرد زندهای در اختیار خواهد داشت. آلتمن پاسخ داد که در گذشته نسبتبه چنین تمرکز قدرتی، بهشدت نگران بوده، اما اکنون معتقد است که هوش مصنوعی منجر به یک «ارتقای» عظیم برای همه خواهد شد و هر کسی را که از این فناوری استفاده کند، قدرتمندتر، بهرهورتر و خلاقتر خواهد کرد. آلتمن این توزیع گستردهی توانمندیهای تقویتشده را بسیار کمتر از تمرکز قدرت در دستان عدهای معدود، ترسناک دانست.
چارچوب اخلاقی و نگهبانهای هوش مصنوعی
کارلسون دربارهی ورودیهای اخلاقی که درست و غلط را برای ChatGPT تعریف میکنند، سؤال کرد. آلتمن توضیح داد که هدف این است که مدل براساس «تجربه، دانش و آموختههای جمعی بشریت»، شامل مجموعهای متنوع از دیدگاههای خوب و بد، آموزش داده شود. پس از این آموزش اولیه، مدل باید با قوانین خاصی «همسو» شود. این جزئیات در یک سند عمومی به نام «مشخصات مدل» شرح داده شده که از طریق یک فرآیند مباحثه با عموم برای دریافت نظرات تهیه میشود.
آلتمن: شخصی که باید پاسخگو بدانید، من هستم
آلتمن توضیح داد که برای تبیین چارچوب اخلاقی ChatGPT، با صدها فیلسوف اخلاق و متخصص مشورت شده است؛ اما وقتی از او پرسیده شد که درنهایت چه کسی دربارهی معیارهای اخلاقی تصمیم میگیرد، آلتمن گفت: «شخصی که باید پاسخگو بدانید، من هستم.» چون او یا هیئت مدیره میتوانند هر تصمیمی را لغو کنند.
کارلسون این نگرانی را مطرح کرد که پیشینه و فرضیات شخصی سم آلتمن در حال انتقال به میلیاردها نفر است. آلتمن توضیح داد که نقش او «تحمیل دیدگاه اخلاقیاش» به هوش مصنوعی نیست. بلکه، این ابزار باید «دیدگاه اخلاقی جمعی» کاربرانش و دنهایت تمام بشریت را بازتاب دهد. او اشاره کرد که ChatGPT اجازهی انجام کارهایی را میدهد که او شخصاً با آنها مخالف است، زیرا هدف، خدمت به کاربران و بازتاب ترجیحات جمعی آنهاست.
زندگی، مرگ و الگوریتم: آیا ChatGPT باید در خودکشی و جنگ نقش داشته باشد؟
بحث زمانی به اوج تنش رسید که کارلسون به یک پروندهی قضایی واقعی اشاره کرد که در آن ChatGPT به «تسهیل خودکشی» یک کاربر متهم شده بود.
آلتمن، ضمن ابراز تأسف، به تنش میان «آزادی و حریم خصوصی کاربر» و «محافظت از کاربران آسیبپذیر» اشاره کرد و توضیح داد که سیاست فعلی ChatGPT این است که در صورت مشاهدهی تمایلات خودکشی، به کاربر پیشنهاد تماس با خطوط تلفنی کمکهای فوری را بدهد، اما برای حفظ حریم خصوصی، هرگز به صورت خودکار با مقامات تماس نمیگیرد.
بااینحال، آلتمن فاش کرد که OpenAI در حال بازنگری این سیاست، به خصوص برای کاربران جوان است. او گفت: «فکر میکنم منطقی است اگر در موارد مربوط به جوانانی که به طور جدی در مورد خودکشی صحبت میکنند، در صورتی که نتوانیم با والدینشان تماس بگیریم، با مقامات تماس برقرار کنیم.»
کارلسون با اشاره به قانونیبودن «مرگ خودخواسته» در کشورهایی مانند کانادا، پرسید آیا آلتمن میتواند سناریویی را تصور کند که در آن ChatGPT از خودکشی حمایت کند؟
آلتمن گفت: «یکی از اصول ما احترام به قوانین جوامع مختلف است. میتوانم دنیایی را تصور کنم که اگر قانون یک کشور بگوید فرد مبتلا به بیماری لاعلاج باید با این گزینه روبرو شود، ما بگوییم اینها قوانین کشور شماست…من فکر میکنم بین یک نوجوان افسرده و یک بیمار لاعلاج که در عذاب است، تفاوت وجود دارد.»
کارلسون بعد پرسید: «آیا به دولتها اجازه خواهید داد از فناوری شما برای کشتن مردم استفاده کنند؟»
آلتمن گفت OpenAI مستقیماً «پهپادهای قاتل» نخواهد ساخت. اما اعتراف کرد: «نمیدانم نظامیان امروز چگونه از ChatGPT برای تصمیمگیریهایشان استفاده میکنند، اما گمان میکنم افراد زیادی در ارتش برای مشاوره با آن صحبت میکنند…نمیدانم دقیقاً چه حسی در مورد آن داشته باشم.»
کارلسون، آلتمن را متهم کرد که در برابر این «تصمیمات فوقالعاده سنگین» کاملاً «بیتفاوت» به نظر میرسد و از او خواست تا «سم آلتمنِ مضطرب» را نشان دهد؛ کسی که روحش از فکر کردن به تأثیرات کارش در عذاب است.
منبع : زومیت