یک حقوقدان: «هوش مصنوعی اصلاً هوشمند نیست»

یک حقوقدان: «هوش مصنوعی اصلاً هوشمند نیست»
پژوهشی تازه از دانشگاه «چارلز داروین» استرالیا هشدار میدهد که هوش مصنوعی در شکل کنونی خود تهدیدی جدی برای کرامت انسانی و حقوق بشر محسوب میشود.
به گزارش نیوزلن و به نقل از سایتکدیلی، دکتر «ماریا راندازو» از دانشکده حقوق این دانشگاه در مقالهای توضیح داده است که رشد سریع سامانههای هوش مصنوعی نهتنها ساختارهای حقوقی و اخلاقی غرب را تغییر داده بلکه اصول دموکراتیک را نیز تضعیف و نابرابریهای اجتماعی موجود را تشدید کرده است.
به گفته او، چارچوبهای نظارتی کنونی غالباً حقوق بنیادین افراد از جمله حریم خصوصی، حق خودمختاری، آزادی از تبعیض و مالکیت فکری را نادیده میگیرند. علت اصلی این مسئله ماهیت مبهم بسیاری از الگوریتمها است که بهعنوان «مسئله جعبه سیاه» شناخته میشود. در این شرایط تصمیمهای سیستمهای یادگیری عمیق و ماشین، غیرقابل ردیابی برای انسان هستند و همین باعث میشود افراد نتوانند بفهمند چه زمانی حقوق یا کرامتشان نقض شده و چگونه میتوانند عدالت را پیگیری کنند.
راندازو تأکید میکند: «هوش مصنوعی به هیچ وجه از نظر انسانی هوشمند نیست. این فناوری شاهکاری در مهندسی است، نه در رفتار شناختی. فاقد حافظه، همدلی یا خرد است و صرفاً الگوها را بدون درک یا هدف بازتولید میکند.» او هشدار میدهد که بدون مقررات کافی، این مشکل در آینده شدت خواهد گرفت.
در سطح جهانی، سه قدرت اصلی دیجیتال ـ ایالات متحده، چین و اتحادیه اروپا ـ رویکردهای متفاوتی نسبت به حاکمیت هوش مصنوعی اتخاذ کردهاند. آمریکا بیشتر بر بازار، چین بر کنترل دولتی و اتحادیه اروپا بر رویکرد انسانمحور تأکید دارد. راندازو رویکرد اروپا را برای حفظ کرامت انسانی مناسبتر میداند اما معتقد است بدون تعهد جهانی، حتی این مدل نیز کارآمد نخواهد بود.
او میگوید: «اگر توسعه هوش مصنوعی بر ویژگیهای انسانی مانند توانایی انتخاب، احساس، استدلال همراه با مراقبت، همدلی و شفقت استوار نشود، خطر آن وجود دارد که این فناوری انسان را به دادههای صرف فروبکاهد و بهجای بهبود شرایط انسانی، به تضعیف آن بینجامد.» به باور او، «انسان نباید به وسیلهای برای رسیدن به هدف تبدیل شود.»
این پژوهش بر ضرورت ایجاد همکاری جهانی برای تدوین قوانین و استانداردهای مشترک تأکید دارد؛ قوانینی که بتوانند نهفقط نوآوری فناوری بلکه کرامت و حقوق انسانها را نیز پاس بدارند. در غیر این صورت، گسترش سامانههای مبهم و غیرشفاف، خطر بیاعتنایی به اصول بنیادین انسانی را بیش از پیش افزایش خواهد داد.