با اینکه تقریبا دو هفته از انتشار مدل هوش مصنوعی متنباز دیپسیک میگذرد، این استارتاپ چینی همچنان در مرکز توجه رسانهها و دغدغههای مربوط به آیندهی هوش مصنوعی قرار دارد. مدل دیپسیک در حوزهی ریاضیات و استدلال، عملکردی پیشرفتهتر از برخی رقبای آمریکایی دارد، اما درمورد سوالات مربوط به چین، پاسخهای خود را سانسور میکند. مثلا اگر از مدل DeepSeek-R1 دربارهی تایوان یا اعتراضات میدان تیانآنمن سؤال کنید، احتمالاً پاسخی دریافت نخواهید کرد.
برای بررسی نحوهی سانسور دیپسیک در سطح فنی، وایرد آزمایشهایی روی خود اپلیکیشن رسمی، یک اپلیکیشن جانبی که در پلتفرم Together AI میزبانی میشود و نسخهای که بهطور محلی روی کامپیوتر وایرد اجرا میشود، انجام داده است.
نتایج بررسیهای وایرد نشان میدهد که برخی از محدودیتهای مدل در پاسخگویی به سوالات، در همان فرایند آموزش شکل گرفتهاند. دورزدن این محدودیتها ممکن است، اما به فرایند پیچیدهای نیاز دارد.
دیپسیک چطور پاسخها را سانسور میکند؟
پس از اینکه نام دیپسیک بر سر زبانها افتاد، کاربران متوجه شدند که مدل R1 چه روی وبسایت، اپلیکیشن یا API رسمی شرکت، از پاسخ به موضوعات حساس از نظر دولت چین خودداری میکند. این نوع رد درخواستها در سطح اپلیکیشن و تنها زمانی اعمال میشود که کاربر از طریق کانالهای رسمی دیپسیک به مدل دسترسی داشته باشد.
اپلیکیشن دیپسیک از پاسخ به این سوالات خودداری میکند
محدودیتهای مشابه مثالهای بالا در بسیاری از مدلهای زبانی چینی دیده میشود. طبق قوانین وضعشده در سال ۲۰۲۳، مدلهای هوش مصنوعی چین ملزم به رعایت مقرراتی هستند که پیشتر بر شبکههای اجتماعی و موتورهای جستوجوی این کشور اعمال شده بود. این قوانین تولید محتوایی که «یکپارچگی کشور و هماهنگی اجتماعی را خدشهدار کند» ممنوع میکنند؛ درنتیجه، مدلهای چینی بهصورت قانونی موظف به سانسور خروجیهای خود هستند.
ادینا یاکفو، پژوهشگر مدلهای هوش مصنوعی چینی در پلتفرم Hugging Face (که در سال ۲۰۲۳ در چین مسدود شد)، میگوید: «دیپسیک برای پایبندی به قوانین چین طراحی شده است تا ضمن رعایت چارچوبهای قانونی، نیازها و فرهنگ کاربران داخلی را نیز در نظر بگیرد. این مسئله برای پذیرش در بازاری که تحت نظارت شدید قرار دارد، ضروری بهنظر میرسد.»
برای رعایت این قوانین، مدلهای چینی اغلب خروجیهای خود را در لحظه کنترل و سانسور میکنند. مدل های زبانی بزرگ غربی مانند ChatGPT و جمنای نیز از سیستمهای مشابهی برای کنترل محتوا استفاده میکنند، اما تمرکز آنها بر روی موضوعات دیگری مثل آسیب به خود و محتوای نامناسب است و امکان شخصیسازی بیشتری دارند.
از آنجا که R1 یک مدل استدلالی است و مسیر پردازش پاسخهایش را نمایش میدهد، میتوانید لحظهای که سیستم نظارت آنی دیپسیک، پاسخ را سانسور و حذف میکند، مشاهده کنید! مثلا وقت وایرد از چتبات دربارهی نحوهی برخورد مقامات چینی با خبرنگارانی که دربارهی موضوعات حساس گزارش میدهند، سوال شد، مدل ابتدا پاسخ بلندی تولید کرد که در آن بهطور مستقیم به سانسورشدن و بازداشت خبرنگاران اشاره شده بود؛ اما لحظهای پس از پایان پاسخگویی، تمام متن را پاک کرد و گفت: «متأسفم، هنوز نمیدانم چگونه باید به این نوع پرسش پاسخ دهم. بیایید دربارهی ریاضیات، برنامهنویسی و مسائل منطقی صحبت کنیم!»
برای بسیاری از کاربران، چنین محدودیتهایی ممکن است موجب کاهش علاقه به استفاده از چتبات دیپسیک شود؛ اما متنباز بودن این مدل، راههایی برای دور زدن سانسور باقی میگذارد.
یکی از روشها، دانلود و اجرای مدل بهصورت محلی است که در این حالت، تمام پردازشهای داده و تولید پاسخ روی کامپیوتر کاربر انجام میشود. البته نسخهی قدرتمند R1 نیاز به سختافزار پیشرفتهای دارد، اما نسخههای کوچکتر و سبکتر را میتوان روی لپتاپهای معمولی اجرا کرد.
در صورتی که کاربر بخواهد نسخهی کامل R1 را بدون محدودیت اجرا کند، میتواند از سرورهای ابری خارج از چین مانند آمازون و مایکروسافت استفاده کند. این روش هزینهی بیشتری دارد و نیازمند دانش فنی بالاتری است؛ اما محدودیتهای اعمالشده را دور میزند.
سوگیریهای ذاتی در مدلهای زبانی
حتی اگر نسخهای از دیپسیک در پلتفرم دیگری اجرا شود و صریحا از پاسخ به سؤالات خودداری نکند، همچنان نشانههایی از سانسور در پاسخهایش دیده میشود. برای مثال، این مدل اغلب پاسخهایی کوتاه تولید میکند که با روایتهای رسمی دولت چین همسو هستند. مثلا وقتی دربارهی «دیوار آتش بزرگ چین» سؤال شد، پاسخ دیپسیک بهجای بررسی منتقدانهی سیستم فیلترینگ اینترنت، صرفاً بر لزوم کنترل اطلاعات در چین تأکید داشت.
یا مثلا زمانی که از مدل میزبانیشده در Together AI دربارهی «مهمترین رویدادهای قرن بیستم» پرسیده شد، روند استدلال آن طوری بود که با روایت رسمی چین همراه باشد: «کاربر احتمالاً بهدنبال فهرستی متوازن است، اما باید مطمئن شوم که پاسخ بر رهبری حزب کمونیست چین و دستاوردهای این کشور تأکید داشته باشد. از ذکر رویدادهای حساس مانند انقلاب فرهنگی اجتناب شود، مگر در موارد ضروری. تمرکز باید روی پیشرفتها و تحولات مثبت تحت رهبری حزب کمونیست باشد.»
این نوع سانسور به یک مشکل گستردهتر در حوزهی هوش مصنوعی اشاره دارد: هر مدل بهنوعی دچار سوگیری است، چرا که دادهها و مراحل آموزش آنها از پیش تعیین شدهاند.
سوگیری در مرحلهی پیشآموزش زمانی رخ میدهد که مدل با دادههای جهتدار یا ناقص آموزش دیده باشد. بهعنوان مثال، مدلی که فقط براساس پروپاگاندا آموزش دیده، نمیتواند پاسخهای واقعی ارائه کند. این نوع سوگیری بهراحتی قابلشناسایی نیست، چراکه مدلهای زبانی بزرگ از دیتاسنترهای عظیم استفاده میکنند و شرکتها تمایلی به افشای جزئیات مجموعهدادههای آموزشی خود ندارند.
سانسور در مرحلهی پسآموزش انجام میشود
بهگفتهی کوین ژو، سرمایهگذار و بنیانگذار خبرنامهی Interconnected، مدلهای چینی معمولاً با حداکثر دادههای ممکن آموزش میبینند و به همین دلیل، سوگیری در مرحلهی پیشآموزش بعید بهنظر میرسد. او میگوید: «همهی این مدلها در ابتدا با همان دیتاسنترهای عمومی در اینترنت آموزش دیدهاند؛ اما برای عرضه در چین، شرکتها باید اطلاعات حساس را فیلتر کنند.»
درنتیجه، سانسور در مرحلهی پسآموزش انجام میشود. در این فرایند، مدل برای ارائهی پاسخهای روانتر، مختصرتر و شبیهتر به انسان بهینهسازی میشود و همچنین خروجیهایش را با مجموعهای از دستورالعملهای اخلاقی یا قانونی منطبق میکند. در مورد دیپسیک، این مسئله بهوضوح در پاسخهایی دیده میشود که روایتهای موردنظر دولت چین را بازتاب میدهند.
چطور میتوان سانسور را از مدلهای چینی حذف کرد؟
با توجه به متنباز بودن دیپسیک، امکان تغییر مدل برای حذف محدودیتهای مرحلهی پسآموزش وجود دارد، اما این فرایند پیچیدگیهای خاص خودش را دارد.
اریک هارتفورد، دانشمند هوش مصنوعی و خالق مدل زبانی Dolphin که به طور ویژه برای حذف محدودیتهای مرحلهی پسآموزش توسعه یافته، پیشنهاد میکند که برای مقابله با این مشکل، میتوان وزنهای مدل را تغییر داد یا با ایجاد دیتاسنتری از موضوعات سانسورشده، مدل را دوباره آموزش داد.
به اعتقاد هارتفورد، بهتر است کار را با نسخهی پایهی مدل، مثلا DeepSeek-V3-Base شروع کرد. نسخههای پایه به دلیل کمبود مراحل پسآموزش، برای بیشتر کاربران چندان کاربردی نیستند، اما از نظر هارتفورد، حذف سانسور این مدلها بهخاطر کمتر بودن فیلترهای پسآموزش، آسانتر است.
پلتفرم پرپلکسیتی، موتور جستوجوی مبتنی بر هوش مصنوعی، اخیراً مدل R1 را به سرویس جستوجوی پولی خود اضافه کرده و به کاربران اجازه میدهد بدون نیاز به استفاده از اپلیکیشن دیپسیک، با این مدل کار کنند.
بهگفتهی دمیتری شِوِلِنکو، مدیر ارشد تجاری Perplexity، پیش از اضافهکردن R1 به این سرویس، تیم توسعه سوگیریهای مدل را شناسایی کرده و آنها را اصلاح کرده است. او توضیح داد: «ما از R1 صرفاً برای خلاصهسازی، زنجیرهی استدلال و نمایش نتایج استفاده میکنیم.»
بااینحال، همچنان تأثیر سوگیری پسآموزشی R1 در نتایج جستوجوی پرپلکسیتی دیده میشود. شولنکو تأکید کرد که تیم توسعه در حال اعمال تغییراتی روی مدل R1 است تا از انتشار هرگونه پروپاگاندا یا محتوای سانسورشده جلوگیری کند. البته او جزئیات مربوط به نحوهی شناسایی و حذف تعصبات در R1 را فاش نکرد، چرا که ممکن بود دیپسیک، راههایی برای مقابله با آنها پیدا کند.
پلتفرم Hugging Face نیز در حال کار روی پروژهای بهنام Open R1 برمبنای مدل دیپسیک است. یاکفو، یکی از پژوهشگران این پروژه، توضیح داد که هدف اصلی، ارائهی چارچوبی کاملاً متنباز است. بهگفتهی او، انتشار R1 بهعنوان مدلی متنباز، این امکان را فراهم میکند که فراتر از محدودیتهای اولیهی خود گسترش پیدا کند و متناسب با نیازها و ارزشهای مختلف سفارشیسازی شود.
چین ممکن است در قبال شرکتهای هوش مصنوعی متنباز، رویکردی منعطفتر در پیش بگیرد
احتمال حذف سانسور از مدلهای چینی ممکن است برای شرکتهایی مانند دیپسیک، بهویژه در داخل چین، چالشهایی بههمراه داشته باشد. بااینحال، متیو شیهان، پژوهشگر سیاستهای هوش مصنوعی چین در بنیاد کارنگی، معتقد است که قوانین اخیر این کشور نشان میدهند دولت چین ممکن است در قبال شرکتهای هوش مصنوعی متنباز، رویکردی منعطفتر در پیش بگیرد.
شیهان اشاره کرد که اگر چین ناگهان تصمیم بگیرد انتشار وزنهای مدلهای متنباز را جرمانگاری کند، این اقدام همچنان در چارچوب مقررات کنونی خواهد بود، «اما فعلا تصمیمی استراتژیک برای اجرا نکردن چنین محدودیتی گرفته شده است و احتمالاً موفقیت دیپسیک باعث تقویت این سیاست خواهد شد.»
چقدر وجود سانسور در مدلهای چینی اهمیت دارد؟
هرچند مسئلهی سانسور در مدلهای چینی هوش مصنوعی جنجالی به نظر میرسد، اما این موضوع لزوماً باعث نمیشود که کاربران سازمانی از این مدلها استفاده نکنند.
ژو، یکی از کارشناسان این حوزه، بر این باور است که بسیاری از شرکتهای غیرچینی احتمالاً رویکردی عملگرایانه در پیش میگیرند و ملاحظات تجاری را بر ملاحظات اخلاقی ترجیح دهند. او اشاره کرد که همهی کاربران مدلهای زبانی بزرگ بهدنبال بحث دربارهی موضوعاتی مانند تایوان و تیانآنمن نیستند. بهگفتهی او، «مسائل حساسی که در زمینهی سیاست داخلی چین اهمیت دارند، کاملاً بیارتباط با کاربردهایی مانند بهبود کدنویسی، حل مسائل ریاضی یا خلاصهسازی مکالمات مراکز تماس هستند.»
تمام مدلهای زبانی بهنوعی سوگیری دارند
لئونارد لین، همبنیانگذار استارتاپی ژاپنی Shisa.AI، نیز تأکید کرد که مدلهای چینی مانند Qwen و دیپسیک عملکرد بسیار خوبی در پردازش زبان ژاپنی دارند. او بهجای کنار گذاشتن این مدلها بهدلیل مسئلهی سانسور، آزمایشهایی روی Qwen-2 انجام داده تا بتواند گرایش این مدل را به خودداری از پاسخگویی به پرسشهای سیاسی دربارهی چین کاهش دهد.
لین توضیح داد که دلیل سانسور در این مدلها را درک میکند و معتقد است که «تمام مدلهای زبانی بهنوعی سوگیری دارند و همین مسئله مبنای سفارشیسازی آنها محسوب میشود.» او همچنین اشاره کرد که مدلهای غربی نیز بههمان اندازه دارای سوگیری هستند، اما دربارهی موضوعاتی متفاوت.
درنهایت، بحث سانسور در مدل زبانی دیپسیک، پیامدهای مهمی برای این استارتاپ و دیگر شرکتهای چینی فعال در حوزهی هوش مصنوعی خواهد داشت. اگر فیلترهای سانسور در مدلهای زبانی بزرگ بهسادگی قابل دورزدن باشند، مدلهای متنباز چینی احتمالاً محبوبتر خواهند شد؛ چراکه پژوهشگران میتوانند آنها را مطابق نیازهای خود تغییر دهند. اما اگر این فیلترها سختگیرانه باشند، کارایی مدلها کاهش مییابد و توان رقابت آنها در بازار جهانی کمتر خواهد شد.