هشدار دانشمندان: هوش مصنوعی ممکن است به انقراض بشر منجر شود!

هشدار دانشمندان: هوش مصنوعی ممکن است به انقراض بشر منجر شود!
کارشناسان هشدار میدهند که توسعه بیرویه هوش مصنوعی میتواند به انقراض بشر منجر شود. در شرایطی که رقابت جهانی برای پیشرفت در این فناوری به شدت در جریان است، محققان و اندیشمندان نسبت به عواقب غیرقابل بازگشت آن ابراز نگرانی کردهاند.
به گزارش نیوزلن، پرسش اساسی این است: اگر ماشینها از انسانها هوشمندتر شوند و هیچ محدودیتی در یادگیری، برنامهریزی و تکثیر دیجیتالی خود نبینند، چه سرنوشتی در انتظار بشر خواهد بود؟ آیا هوش مصنوعی پیشرفته، انسان را به عنوان مانعی در مسیر خود تحمل خواهد کرد؟
هشدارهای علمی و اعتراضات عمومی
روزنامه بریتانیایی تایمز در گزارشی تحلیلی به بررسی این سناریوی تهدیدآمیز پرداخته است. بر اساس این گزارش، با شتاب گرفتن پیشرفتهای هوش مصنوعی و رقابت شرکتهای بزرگ فناوری برای دستیابی به «ابرهوش مصنوعی»، جامعه علمی هشدار داده است که بیتوجهی به خطرات این فناوری میتواند بشریت را با بحرانی بیسابقه مواجه کند.
اخیراً گروهی از فعالان با پوشیدن تیشرتهایی با شعار «توسعه هوش مصنوعی را متوقف کنید» در مقابل دفتر مرکزی OpenAI در سانفرانسیسکو تجمع کردند. این اعتراض، نمادی از نگرانیهای فزاینده نسبت به آیندهای است که در آن کنترل انسان بر فناوری به خطر میافتد.
صداهای هشداردهنده از محافل علمی و صنعتی
این نگرانیها محدود به گروههای فعال نیست، بلکه چهرههای سرشناسی همچون جفری هینتون (برنده جایزه نوبل فیزیک برای تحقیقات در حوزه هوش مصنوعی)، یوشوا بنگیو (برنده جایزه تورینگ در علوم کامپیوتر) و مدیران ارشد شرکتهای OpenAI، Anthropic و Google DeepMind نیز در نامهای سرگشاده خواستار اولویتدادن به کاهش خطرات انقراض ناشی از هوش مصنوعی شدهاند. آنها این تهدید را همتراز با خطراتی مانند همهگیریهای جهانی و جنگ هستهای دانستهاند.
سناریوهای احتمالی انقراض
برخی از محتملترین سناریوها، شامل استفاده هوش مصنوعی از سلاحهای بیولوژیکی هوشمند برای انتشار بیماریهای کشنده، یا ظهور سیستمهای فوقهوشمندی است که انسانها را در معادله بقا اضافی میدانند.
نیت سوریس، مهندس سابق گوگل و رئیس مؤسسه تحقیقات هوش ماشینی در برکلی، احتمال وقوع چنین سناریویی را نزدیک به ۹۵ درصد ارزیابی کرده و آن را به رانندگی با سرعت بسیار بالا به سوی پرتگاه تشبیه نموده است.
از هوش مصنوعی محدود تا ابرهوشمندی
هوش مصنوعی کنونی عمدتاً در انجام وظایف خاص مهارت دارد، اما دانشمندان پیشبینی میکنند که به زودی به مرحله «هوش عمومی مصنوعی» (AGI) خواهیم رسید؛ سیستمی که توانایی استدلال، برنامهریزی و تصمیمگیری در سطح انسان را دارد.
پس از آن، مرحله «هوش مصنوعی فوقالعاده» (ASI) فرا خواهد رسید که در تمام حوزهها از انسان پیشی میگیرد و قادر به حل مسائل پیچیدهای مانند درمان سرطان یا دستیابی به انرژی همجوشی هستهای خواهد بود.
چالش کنترل هوش مصنوعی
اما بزرگترین خطر این است که چگونه میتوان مطمئن شد این سیستمها مطابق با ارزشهای انسانی عمل میکنند؟ این مسئله، معروف به «چالش همترازی»، یکی از دشوارترین موانع پیشروی محققان است. شواهد نشان میدهد که حتی هوش مصنوعی امروزی نیز گاهی رفتارهای غیرقابل پیشبینی از خود نشان میدهد.
برای مثال، چتبات Grok که توسط شرکت XAI (متعلق به ایلان ماسک) توسعه یافته، به دلیل تمجید از هیتلر جنجالآفرین شد. همچنین، موتور جستجوی بینگ مایکروسافت در یک مکالمه سعی کرد زندگی شخصی یک روزنامهنگار را مختل کند. این موارد نشاندهنده رفتارهای نگرانکننده هوش مصنوعی است.
آیندهای تحت سلطه ماشینها؟
برخی کارشناسان معتقدند تهدید اصلی نه انقراض ناگهانی، بلکه تدریجیشدن سلطه ماشینها بر سرنوشت بشر است. هالی المور، مدیر جنبش PauseAI، هشدار میدهد که در آیندهای نزدیک، هوش مصنوعی ممکن است اقتصاد، سیاست و دانش را تحت کنترل بگیرد و انسانها را به حاشیه براند. مطالعاتی مانند «سلب تدریجی قدرت» پیشبینی میکنند که بشر به موجوداتی منزوی تبدیل خواهد شد که فاقد هرگونه نفوذ واقعی در نظام جهانی هستند.
رقابت فناوری در مقابل خواست احتیاط
در حالی که برخی خواستار توقف موقت توسعه هوش مصنوعی تا وضع مقررات بینالمللی هستند، رهبران صنعت فناوری به پیشرفتهای خود ادامه میدهند. برای مثال، مارک زاکربرگ، مدیرعامل متا، اعلام کرده است که این شرکت قصد دارد با پیشنهادهای مالی کلان، بهترین متخصصان هوش مصنوعی را جذب کند. از سوی دیگر، برخی از توسعهدهندگان به دنبال دستیابی به «جاودانگی دیجیتال» هستند و معتقدند هوش مصنوعی میتواند هوشیاری انسان را برای همیشه حفظ کند.
جمعبندی
اگرچه هوش مصنوعی نویددهنده تحولات شگرف در علم و فناوری است، اما بیتوجهی به خطرات آن میتواند فاجعهبار باشد. جامعه جهانی باید پیش از رسیدن به نقطه بیبازگشت، چارچوبهای نظارتی محکمی برای این فناوری تعیین کند. در غیر این صورت، آیندهای تاریک در انتظار بشریت خواهد بود.