سانسور دیپسیک چطور کار میکند و چطور میتوان آن را دور زد؟
![سانسور دیپسیک چطور کار میکند و چطور میتوان آن را دور زد؟](https://newslan.ir/wp-content/uploads/2025/02/d8b3d8a7d986d8b3d988d8b1-d8afdb8cd9bed8b3db8cdaa9-da86d8b7d988d8b1-daa9d8a7d8b1-d985db8cdaa9d986d8af-d988-da86d8b7d988d8b1_67a37a6f14048-780x470.jpeg)
سانسور دیپسیک چطور کار میکند و چطور میتوان آن را دور زد؟
این نوع سانسور به یک مشکل گستردهتر در حوزهی هوش مصنوعی اشاره دارد: هر مدل بهنوعی دچار سوگیری است، چرا که دادهها و مراحل آموزش آنها از پیش تعیین شدهاند.
سوگیری در مرحلهی پیشآموزش زمانی رخ میدهد که مدل با دادههای جهتدار یا ناقص آموزش دیده باشد. بهعنوان مثال، مدلی که فقط براساس پروپاگاندا آموزش دیده، نمیتواند پاسخهای واقعی ارائه کند. این نوع سوگیری بهراحتی قابلشناسایی نیست، چراکه مدلهای زبانی بزرگ از دیتاسنترهای عظیم استفاده میکنند و شرکتها تمایلی به افشای جزئیات مجموعهدادههای آموزشی خود ندارند.
سانسور در مرحلهی پسآموزش انجام میشود
بهگفتهی کوین ژو، سرمایهگذار و بنیانگذار خبرنامهی Interconnected، مدلهای چینی معمولاً با حداکثر دادههای ممکن آموزش میبینند و به همین دلیل، سوگیری در مرحلهی پیشآموزش بعید بهنظر میرسد. او میگوید: «همهی این مدلها در ابتدا با همان دیتاسنترهای عمومی در اینترنت آموزش دیدهاند؛ اما برای عرضه در چین، شرکتها باید اطلاعات حساس را فیلتر کنند.»
درنتیجه، سانسور در مرحلهی پسآموزش انجام میشود. در این فرایند، مدل برای ارائهی پاسخهای روانتر، مختصرتر و شبیهتر به انسان بهینهسازی میشود و همچنین خروجیهایش را با مجموعهای از دستورالعملهای اخلاقی یا قانونی منطبق میکند. در مورد دیپسیک، این مسئله بهوضوح در پاسخهایی دیده میشود که روایتهای موردنظر دولت چین را بازتاب میدهند.
چطور میتوان سانسور را از مدلهای چینی حذف کرد؟
با توجه به متنباز بودن دیپسیک، امکان تغییر مدل برای حذف محدودیتهای مرحلهی پسآموزش وجود دارد، اما این فرایند پیچیدگیهای خاص خودش را دارد.
اریک هارتفورد، دانشمند هوش مصنوعی و خالق مدل زبانی Dolphin که به طور ویژه برای حذف محدودیتهای مرحلهی پسآموزش توسعه یافته، پیشنهاد میکند که برای مقابله با این مشکل، میتوان وزنهای مدل را تغییر داد یا با ایجاد دیتاسنتری از موضوعات سانسورشده، مدل را دوباره آموزش داد.
به اعتقاد هارتفورد، بهتر است کار را با نسخهی پایهی مدل، مثلا DeepSeek-V3-Base شروع کرد. نسخههای پایه به دلیل کمبود مراحل پسآموزش، برای بیشتر کاربران چندان کاربردی نیستند، اما از نظر هارتفورد، حذف سانسور این مدلها بهخاطر کمتر بودن فیلترهای پسآموزش، آسانتر است.
پلتفرم پرپلکسیتی، موتور جستوجوی مبتنی بر هوش مصنوعی، اخیراً مدل R1 را به سرویس جستوجوی پولی خود اضافه کرده و به کاربران اجازه میدهد بدون نیاز به استفاده از اپلیکیشن دیپسیک، با این مدل کار کنند.
بهگفتهی دمیتری شِوِلِنکو، مدیر ارشد تجاری Perplexity، پیش از اضافهکردن R1 به این سرویس، تیم توسعه سوگیریهای مدل را شناسایی کرده و آنها را اصلاح کرده است. او توضیح داد: «ما از R1 صرفاً برای خلاصهسازی، زنجیرهی استدلال و نمایش نتایج استفاده میکنیم.»
بااینحال، همچنان تأثیر سوگیری پسآموزشی R1 در نتایج جستوجوی پرپلکسیتی دیده میشود. شولنکو تأکید کرد که تیم توسعه در حال اعمال تغییراتی روی مدل R1 است تا از انتشار هرگونه پروپاگاندا یا محتوای سانسورشده جلوگیری کند. البته او جزئیات مربوط به نحوهی شناسایی و حذف تعصبات در R1 را فاش نکرد، چرا که ممکن بود دیپسیک، راههایی برای مقابله با آنها پیدا کند.
پلتفرم Hugging Face نیز در حال کار روی پروژهای بهنام Open R1 برمبنای مدل دیپسیک است. یاکفو، یکی از پژوهشگران این پروژه، توضیح داد که هدف اصلی، ارائهی چارچوبی کاملاً متنباز است. بهگفتهی او، انتشار R1 بهعنوان مدلی متنباز، این امکان را فراهم میکند که فراتر از محدودیتهای اولیهی خود گسترش پیدا کند و متناسب با نیازها و ارزشهای مختلف سفارشیسازی شود.
چین ممکن است در قبال شرکتهای هوش مصنوعی متنباز، رویکردی منعطفتر در پیش بگیرد
احتمال حذف سانسور از مدلهای چینی ممکن است برای شرکتهایی مانند دیپسیک، بهویژه در داخل چین، چالشهایی بههمراه داشته باشد. بااینحال، متیو شیهان، پژوهشگر سیاستهای هوش مصنوعی چین در بنیاد کارنگی، معتقد است که قوانین اخیر این کشور نشان میدهند دولت چین ممکن است در قبال شرکتهای هوش مصنوعی متنباز، رویکردی منعطفتر در پیش بگیرد.
شیهان اشاره کرد که اگر چین ناگهان تصمیم بگیرد انتشار وزنهای مدلهای متنباز را جرمانگاری کند، این اقدام همچنان در چارچوب مقررات کنونی خواهد بود، «اما فعلا تصمیمی استراتژیک برای اجرا نکردن چنین محدودیتی گرفته شده است و احتمالاً موفقیت دیپسیک باعث تقویت این سیاست خواهد شد.»
چقدر وجود سانسور در مدلهای چینی اهمیت دارد؟
هرچند مسئلهی سانسور در مدلهای چینی هوش مصنوعی جنجالی به نظر میرسد، اما این موضوع لزوماً باعث نمیشود که کاربران سازمانی از این مدلها استفاده نکنند.
ژو، یکی از کارشناسان این حوزه، بر این باور است که بسیاری از شرکتهای غیرچینی احتمالاً رویکردی عملگرایانه در پیش میگیرند و ملاحظات تجاری را بر ملاحظات اخلاقی ترجیح دهند. او اشاره کرد که همهی کاربران مدلهای زبانی بزرگ بهدنبال بحث دربارهی موضوعاتی مانند تایوان و تیانآنمن نیستند. بهگفتهی او، «مسائل حساسی که در زمینهی سیاست داخلی چین اهمیت دارند، کاملاً بیارتباط با کاربردهایی مانند بهبود کدنویسی، حل مسائل ریاضی یا خلاصهسازی مکالمات مراکز تماس هستند.»
تمام مدلهای زبانی بهنوعی سوگیری دارند
لئونارد لین، همبنیانگذار استارتاپی ژاپنی Shisa.AI، نیز تأکید کرد که مدلهای چینی مانند Qwen و دیپسیک عملکرد بسیار خوبی در پردازش زبان ژاپنی دارند. او بهجای کنار گذاشتن این مدلها بهدلیل مسئلهی سانسور، آزمایشهایی روی Qwen-2 انجام داده تا بتواند گرایش این مدل را به خودداری از پاسخگویی به پرسشهای سیاسی دربارهی چین کاهش دهد.
لین توضیح داد که دلیل سانسور در این مدلها را درک میکند و معتقد است که «تمام مدلهای زبانی بهنوعی سوگیری دارند و همین مسئله مبنای سفارشیسازی آنها محسوب میشود.» او همچنین اشاره کرد که مدلهای غربی نیز بههمان اندازه دارای سوگیری هستند، اما دربارهی موضوعاتی متفاوت.
درنهایت، بحث سانسور در مدل زبانی دیپسیک، پیامدهای مهمی برای این استارتاپ و دیگر شرکتهای چینی فعال در حوزهی هوش مصنوعی خواهد داشت. اگر فیلترهای سانسور در مدلهای زبانی بزرگ بهسادگی قابل دورزدن باشند، مدلهای متنباز چینی احتمالاً محبوبتر خواهند شد؛ چراکه پژوهشگران میتوانند آنها را مطابق نیازهای خود تغییر دهند. اما اگر این فیلترها سختگیرانه باشند، کارایی مدلها کاهش مییابد و توان رقابت آنها در بازار جهانی کمتر خواهد شد.
منبع : زومیت