فناوری

چرا دقت ۱۰۰٪ در هوش مصنوعی حقوقی ممکن نیست؟

چرا دقت ۱۰۰٪ در هوش مصنوعی حقوقی ممکن نیست؟

در فرآیند طراحی، آموزش و استقرار سامانه‌های هوش مصنوعی، شرکت‌ها معمولاً «دقت» را به‌عنوان اصلی‌ترین شاخص عملکرد در نظر می‌گیرند. تردیدی نیست که دقت اهمیت بنیادین دارد؛ با این حال، در صنایع پیچیده و حساس مانند حوزه حقوق، اتکا به دقت به‌تنهایی پاسخ‌گو نیست. هرچه سطح ریسک بالاتر باشد، استانداردهای ارزیابی نیز باید سخت‌گیرانه‌تر تعریف شوند. در چنین حوزه‌هایی، خروجی مدل‌ها باید نه‌تنها از منظر مرتبط بودن، بلکه از حیث اعتبار، صحت استنادها و میزان بروز «توهم» نیز به‌دقت سنجیده شوند.
 
عبور از RAG استاندارد؛ حرکت به‌سوی معماری‌های پیشرفته‌تر

به گزارش نیوزلن و به نقل از Venturebeat، شرکت LexisNexis برای پاسخ به این چالش، چارچوب‌های سنتی «تولید افزوده مبتنی بر بازیابی» (RAG) را توسعه داده و به سمت گراف‌های RAG و گراف‌های عامل‌محور حرکت کرده است. این شرکت همچنین عامل‌های هوش مصنوعی «برنامه‌ریز» و «بازتابی» را طراحی کرده که قادرند درخواست‌های کاربران را تجزیه‌وتحلیل کرده و خروجی‌های خود را به‌صورت انتقادی ارزیابی کنند.

«مین چن»، معاون ارشد و مدیر ارشد هوش مصنوعی لکسیس‌نکسیس، در پادکست VentureBeat Beyond the Pilot تصریح می‌کند: «چیزی به نام هوش مصنوعی بی‌نقص وجود ندارد؛ دستیابی به دقت ۱۰۰٪ یا ارتباط کامل، به‌ویژه در حوزه‌های پیچیده و پرمخاطره‌ای مانند حقوق، عملاً امکان‌پذیر نیست.»

به گفته او، هدف اصلی نه حذف کامل عدم قطعیت، بلکه مدیریت آن و تبدیل این عدم‌قطعیت به ارزشی پایدار برای مشتریان است. چن تأکید می‌کند: «در نهایت، آنچه برای ما بیشترین اهمیت را دارد، کیفیت خروجی هوش مصنوعی است؛ و این کیفیت، حاصل فرآیندی مستمر از آزمایش، تکرار و بهبود مداوم است.»

 

 

چالش پاسخ‌های «کامل» به پرسش‌های چندوجهی

تیم هوش مصنوعی لکسیس‌نکسیس برای ارزیابی مدل‌ها، بیش از ۶ معیار مشخص تعریف کرده است تا «مفید بودن» پاسخ‌ها را بر اساس شاخص‌هایی مانند اعتبار، دقت استناد، میزان توهم و همچنین «جامعیت» اندازه‌گیری کند. معیار جامعیت با هدف سنجش این موضوع طراحی شده است که آیا پاسخ ارائه‌شده تمامی ابعاد یک پرسش حقوقی را پوشش می‌دهد یا خیر.

به گفته چن، مسئله صرفاً مرتبط بودن پاسخ نیست؛ «کامل بودن» ارتباط مستقیمی با اعتبار حقوقی دارد.

برای نمونه، اگر کاربری پرسشی مطرح کند که مستلزم بررسی ۵ ملاحظه حقوقی مجزا باشد، ممکن است مدل هوش مصنوعی تنها به ۳ مورد از آن‌ها به‌درستی بپردازد. چنین پاسخی، هرچند از نظر فنی مرتبط و دقیق است، اما از منظر کاربر ناقص و ناکافی تلقی می‌شود. این نقص می‌تواند در عمل پیامدهای گمراه‌کننده و حتی پرریسک به همراه داشته باشد.

در مثالی دیگر، ممکن است برخی استنادها از نظر معنایی با پرسش کاربر هم‌راستا باشند، اما به آرایی اشاره کنند که در نهایت از سوی دادگاه رد شده‌اند. چن در این‌باره توضیح می‌دهد: «وکلای ما چنین منابعی را غیرقابل استناد می‌دانند. اگر استناد قابل اتکا نباشد، عملاً مفید نخواهد بود.»
 
از Lexis+ AI تا دستیار هوشمند حقوقی

LexisNexis نخستین محصول هوش مصنوعی نسل جدید خود با نام Lexis+ AI را در سال ۲۰۲۳ معرفی کرد. این ابزار برای پیش‌نویس‌نویسی، تحقیق و تحلیل حقوقی طراحی شده و بر پایه چارچوب استاندارد RAG و جست‌وجوی برداری ترکیبی توسعه یافته است؛ رویکردی که پاسخ‌ها را در پایگاه دانش معتبر و قابل اعتماد این شرکت مستقر می‌کند.

در ادامه، لکسیس‌نکسیس در سال ۲۰۲۴ دستیار حقوقی شخصی خود با نام Protégé را عرضه کرد. این عامل هوشمند با افزودن یک لایه «نمودار دانش» بر فراز جست‌وجوی برداری، تلاش می‌کند محدودیت‌های جست‌وجوی معنایی صرف را برطرف کند. چن معتقد است که جست‌وجوی معنایی اگرچه در بازیابی محتوای مرتبط عملکرد بسیار مطلوبی دارد، اما همواره معتبرترین پاسخ را تضمین نمی‌کند.

در این معماری، نتایج اولیه جست‌وجوی معنایی در قالب یک «نمودار نقطه قانون» پیمایش می‌شوند تا معتبرترین و قابل استنادترین اسناد انتخاب و پالایش شوند.
 

 

عامل‌های برنامه‌ریز و بازتابی؛ گام بعدی در اتوماسیون حقوقی

تیم هوش مصنوعی لکسیس‌نکسیس اکنون در حال توسعه گراف‌های عامل‌محور و تسریع فرآیندهای اتوماسیون است تا عامل‌ها بتوانند وظایف پیچیده و چندمرحله‌ای را به‌صورت مستقل برنامه‌ریزی و اجرا کنند.

به‌عنوان نمونه، «عامل‌های برنامه‌ریز» در سناریوهای پرسش‌وپاسخ تحقیقاتی، سؤال اصلی کاربر را به چند زیرسؤال تقسیم می‌کنند. کاربران انسانی می‌توانند این زیرسؤال‌ها را بازبینی و ویرایش کنند تا پاسخ نهایی دقیق‌تر و متناسب‌تر با نیازشان تنظیم شود.

در کنار آن، «عامل بازتابی» برای تهیه پیش‌نویس اسناد تراکنشی طراحی شده است. این عامل قادر است پیش‌نویس اولیه خود را به‌صورت پویا و خودکار نقد کند، بازخورد حاصل را لحاظ کرده و نسخه اصلاح‌شده را در همان لحظه ارائه دهد.

با این حال، چن تأکید می‌کند که این تحولات به معنای حذف نقش انسان نیست. به اعتقاد او، متخصصان انسانی و عامل‌های هوش مصنوعی می‌توانند در یک تعامل سازنده «با یکدیگر بیاموزند، استدلال کنند و رشد یابند». او آینده این حوزه را در «همکاری عمیق‌تر میان انسان و هوش مصنوعی» می‌بیند؛ مدلی که در آن فناوری، جایگزین تخصص انسانی نمی‌شود، بلکه آن را تقویت می‌کند.

مشاهده بیشتر
دانلود نرم افزار

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا