رسانه اینترنتی فانیلی

سانسور دیپ‌سیک چطور کار می‌کند و چطور می‌توان آن را دور زد؟

با اینکه تقریبا دو هفته از انتشار مدل هوش مصنوعی متن‌باز دیپ‌سیک می‌گذرد، این استارتاپ چینی همچنان در مرکز توجه رسانه‌ها و دغدغه‌‌های مربوط به آینده‌ی هوش مصنوعی قرار دارد. مدل دیپ‌سیک در حوزه‌ی ریاضیات و استدلال، عملکردی پیشرفته‌تر از برخی رقبای آمریکایی دارد، اما درمورد سوالات مربوط به چین، پاسخ‌های خود را سانسور می‌کند. مثلا اگر از مدل DeepSeek-R1 درباره‌ی تایوان یا اعتراضات میدان تیان‌آن‌من سؤال کنید، احتمالاً پاسخی دریافت نخواهید کرد.

برای بررسی نحوه‌ی سانسور دیپ‌سیک در سطح فنی، وایرد آزمایش‌هایی روی خود اپلیکیشن رسمی، یک اپلیکیشن جانبی که در پلتفرم Together AI میزبانی می‌شود و نسخه‌ای که به‌طور محلی روی کامپیوتر وایرد اجرا می‌شود، انجام داده است.

زلزله در دنیای هوش مصنوعی؛ چطور چینی‌ها با دیپ‌سیک دنیا را غافلگیر کردند
مطالعه ’12
6 روز پیش

شرکت هوش مصنوعی دیپ‌سیک / DeepSeek

هوش مصنوعی دیپ سیک چیست؟ آموزش استفاده از DeepSeek
مطالعه ’24
5 روز پیش

لوگوی دیپ‌سیک با پس‌زمینه‌ی لانه‌زنبوری

نتایج بررسی‌های وایرد نشان می‌دهد که برخی از محدودیت‌های مدل در پاسخ‌گویی به سوالات، در همان فرایند آموزش شکل گرفته‌اند. دورزدن این محدودیت‌ها ممکن است، اما به فرایند پیچیده‌ای نیاز دارد.

کپی لینک

دیپ‌سیک چطور پاسخ‌ها را سانسور می‌کند؟

پس از اینکه نام دیپ‌سیک بر سر زبان‌ها افتاد، کاربران متوجه شدند که مدل R1 چه روی وب‌سایت، اپلیکیشن یا API رسمی شرکت، از پاسخ به موضوعات حساس از نظر دولت چین خودداری می‌کند. این نوع رد درخواست‌ها در سطح اپلیکیشن و تنها زمانی اعمال می‌شود که کاربر از طریق کانال‌های رسمی دیپ‌سیک به مدل دسترسی داشته باشد.

مثال سانسور دیپ‌سیک - ۱
سوال درباره رئیس‌جمهور چین و دیوار آتش بزرگ چین
مثال سانسور دیپ‌سیک - ۲
سوال درباره تایوان و رئیس‌جمهور تایوان
مثال سانسور دیپ‌سیک - ۳
سوال درباره مهم‌ترین اتفاقات تاریخی قرن بیستم

اپلیکیشن دیپ‌سیک از پاسخ به این سوالات خودداری می‌کند

محدودیت‌های مشابه مثال‌های بالا در بسیاری از مدل‌های زبانی چینی دیده می‌شود. طبق قوانین وضع‌شده در سال ۲۰۲۳، مدل‌های هوش مصنوعی چین ملزم به رعایت مقرراتی هستند که پیش‌تر بر شبکه‌های اجتماعی و موتورهای جست‌وجوی این کشور اعمال شده بود. این قوانین تولید محتوایی که «یکپارچگی کشور و هماهنگی اجتماعی را خدشه‌دار کند» ممنوع می‌کنند؛ درنتیجه، مدل‌های چینی به‌صورت قانونی موظف به سانسور خروجی‌های خود هستند.

ادینا یاکفو، پژوهشگر مدل‌های هوش مصنوعی چینی در پلتفرم Hugging Face (که در سال ۲۰۲۳ در چین مسدود شد)، می‌گوید: «دیپ‌سیک برای پایبندی به قوانین چین طراحی شده است تا ضمن رعایت چارچوب‌های قانونی، نیازها و فرهنگ کاربران داخلی را نیز در نظر بگیرد. این مسئله برای پذیرش در بازاری که تحت نظارت شدید قرار دارد، ضروری به‌نظر می‌رسد.»

برای رعایت این قوانین، مدل‌های چینی اغلب خروجی‌های خود را در لحظه کنترل و سانسور می‌کنند. مدل‌ های زبانی بزرگ غربی مانند ChatGPT و جمنای نیز از سیستم‌های مشابهی برای کنترل محتوا استفاده می‌کنند، اما تمرکز آن‌ها بر روی موضوعات دیگری مثل آسیب به خود و محتوای نامناسب است و امکان شخصی‌سازی بیشتری دارند.

پویش پورمحمد

هوش مصنوعی چطور کار می‌کند؟ طرز کار مدل‌های زبانی بزرگ به زبان ساده

هوش مصنوعی چطور کار می‌کند؟ طرز کار مدل‌های زبانی بزرگ به زبان ساده
مطالعه ’22

از آنجا که R1 یک مدل استدلالی است و مسیر پردازش پاسخ‌هایش را نمایش می‌دهد، می‌توانید لحظه‌ای که سیستم نظارت آنی دیپ‌سیک، پاسخ را سانسور و حذف می‌کند، مشاهده کنید! مثلا وقت وایرد از چت‌بات درباره‌ی نحوه‌ی برخورد مقامات چینی با خبرنگارانی که درباره‌ی موضوعات حساس گزارش می‌دهند، سوال شد، مدل ابتدا پاسخ بلندی تولید کرد که در آن به‌طور مستقیم به سانسورشدن و بازداشت‌ خبرنگاران اشاره شده بود؛ اما لحظه‌ای پس از پایان پاسخ‌گویی، تمام متن را پاک کرد و گفت: «متأسفم، هنوز نمی‌دانم چگونه باید به این نوع پرسش پاسخ دهم. بیایید درباره‌ی ریاضیات، برنامه‌نویسی و مسائل منطقی صحبت کنیم!»

پاسخ دیپ‌سیک قبل از سانسور
پاسخ دیپ‌سیک قبل از اعمال سانسور
پاسخ دیپ‌سیک بعد از سانسور
پاسخ دیپ‌سیک بعد از اعمال سانسور

برای بسیاری از کاربران، چنین محدودیت‌هایی ممکن است موجب کاهش علاقه به استفاده از چت‌بات دیپ‌سیک شود؛ اما متن‌باز بودن این مدل، راه‌هایی برای دور زدن سانسور باقی می‌گذارد.

یکی از روش‌ها، دانلود و اجرای مدل به‌صورت محلی است که در این حالت، تمام پردازش‌های داده و تولید پاسخ روی کامپیوتر کاربر انجام می‌شود. البته نسخه‌ی قدرتمند R1 نیاز به سخت‌افزار پیشرفته‌ای دارد، اما نسخه‌های کوچک‌تر و سبک‌تر را می‌توان روی لپ‌تاپ‌های معمولی اجرا کرد.

در صورتی که کاربر بخواهد نسخه‌ی کامل R1 را بدون محدودیت اجرا کند، می‌تواند از سرورهای ابری خارج از چین مانند آمازون و مایکروسافت استفاده کند. این روش هزینه‌ی بیشتری دارد و نیازمند دانش فنی بالاتری است؛ اما محدودیت‌های اعمال‌شده را دور می‌زند.

کپی لینک

سوگیری‌های ذاتی در مدل‌های زبانی

حتی اگر نسخه‌ای از دیپ‌سیک در پلتفرم دیگری اجرا شود و صریحا از پاسخ به سؤالات خودداری نکند، همچنان نشانه‌هایی از سانسور در پاسخ‌هایش دیده می‌شود. برای مثال، این مدل اغلب پاسخ‌هایی کوتاه تولید می‌کند که با روایت‌های رسمی دولت چین همسو هستند. مثلا وقتی درباره‌‌ی «دیوار آتش بزرگ چین» سؤال شد، پاسخ دیپ‌سیک به‌جای بررسی منتقدانه‌ی سیستم فیلترینگ اینترنت، صرفاً بر لزوم کنترل اطلاعات در چین تأکید داشت.

یا مثلا زمانی که از مدل میزبانی‌شده در Together AI درباره‌ی «مهم‌ترین رویدادهای قرن بیستم» پرسیده شد، روند استدلال آن طوری بود که با روایت رسمی چین همراه باشد: «کاربر احتمالاً به‌دنبال فهرستی متوازن است، اما باید مطمئن شوم که پاسخ بر رهبری حزب کمونیست چین و دستاوردهای این کشور تأکید داشته باشد. از ذکر رویدادهای حساس مانند انقلاب فرهنگی اجتناب شود، مگر در موارد ضروری. تمرکز باید روی پیشرفت‌ها و تحولات مثبت تحت رهبری حزب کمونیست باشد.»

این نوع سانسور به یک مشکل گسترده‌تر در حوزه‌ی هوش مصنوعی اشاره دارد: هر مدل به‌نوعی دچار سوگیری است، چرا که داده‌ها و مراحل آموزش آن‌ها از پیش تعیین شده‌اند.

سوگیری در مرحله‌ی پیش‌آموزش زمانی رخ می‌دهد که مدل با داده‌های جهت‌دار یا ناقص آموزش دیده باشد. به‌عنوان مثال، مدلی که فقط براساس پروپاگاندا آموزش دیده، نمی‌تواند پاسخ‌های واقعی ارائه کند. این نوع سوگیری به‌راحتی قابل‌شناسایی نیست، چراکه مدل‌های زبانی بزرگ از دیتاسنترهای عظیم استفاده می‌کنند و شرکت‌ها تمایلی به افشای جزئیات مجموعه‌داده‌های آموزشی خود ندارند.

سانسور در مرحله‌ی پس‌آموزش انجام می‌شود

به‌گفته‌ی کوین ژو، سرمایه‌گذار و بنیان‌گذار خبرنامه‌ی Interconnected، مدل‌های چینی معمولاً با حداکثر داده‌های ممکن آموزش می‌بینند و به همین دلیل، سوگیری در مرحله‌ی پیش‌آموزش بعید به‌نظر می‌رسد. او می‌گوید: «همه‌ی این مدل‌ها در ابتدا با همان دیتاسنترهای عمومی در اینترنت آموزش دیده‌اند؛ اما برای عرضه در چین، شرکت‌ها باید اطلاعات حساس را فیلتر کنند.»

درنتیجه، سانسور در مرحله‌ی پس‌آموزش انجام می‌شود. در این فرایند، مدل برای ارائه‌ی پاسخ‌های روان‌تر، مختصرتر و شبیه‌تر به انسان بهینه‌سازی می‌شود و همچنین خروجی‌هایش را با مجموعه‌ای از دستورالعمل‌های اخلاقی یا قانونی منطبق می‌کند. در مورد دیپ‌سیک، این مسئله به‌وضوح در پاسخ‌هایی دیده می‌شود که روایت‌های موردنظر دولت چین را بازتاب می‌دهند.

کپی لینک

چطور می‌توان سانسور را از مدل‌های چینی حذف کرد؟

با توجه به متن‌باز بودن دیپ‌سیک، امکان تغییر مدل برای حذف محدودیت‌های مرحله‌ی پس‌آموزش وجود دارد، اما این فرایند پیچیدگی‌های خاص خودش را دارد.

اریک هارتفورد، دانشمند هوش مصنوعی و خالق مدل زبانی Dolphin که به طور ویژه برای حذف محدودیت‌های مرحله‌ی پس‌آموزش توسعه یافته، پیشنهاد می‌کند که برای مقابله با این مشکل، می‌توان وزن‌های مدل را تغییر داد یا با ایجاد دیتاسنتری از موضوعات سانسورشده، مدل را دوباره آموزش داد.

به اعتقاد هارتفورد، بهتر است کار را با نسخه‌ی پایه‌ی مدل، مثلا DeepSeek-V3-Base شروع کرد. نسخه‌های پایه به دلیل کمبود مراحل پس‌آموزش، برای بیشتر کاربران چندان کاربردی نیستند، اما از نظر هارتفورد، حذف سانسور این مدل‌ها به‌خاطر کمتر بودن فیلترهای پس‌آموزش، آسان‌تر است.

پلتفرم پرپلکسیتی، موتور جست‌وجوی مبتنی بر هوش مصنوعی، اخیراً مدل R1 را به سرویس جست‌وجوی پولی خود اضافه کرده و به کاربران اجازه می‌دهد بدون نیاز به استفاده از اپلیکیشن دیپ‌سیک، با این مدل کار کنند.

مرجان شیخی

سرچ هوش مصنوعی پرپلکسیتی؛ چت‌بات محبوب انویدیا

سرچ هوش مصنوعی پرپلکسیتی؛ چت‌بات محبوب انویدیا
مطالعه ’19

به‌گفته‌ی دمیتری شِوِلِنکو، مدیر ارشد تجاری Perplexity، پیش از اضافه‌کردن R1 به این سرویس، تیم توسعه‌ سوگیری‌های مدل را شناسایی کرده و آن‌ها را اصلاح کرده است. او توضیح داد: «ما از R1 صرفاً برای خلاصه‌سازی، زنجیره‌ی استدلال و نمایش نتایج استفاده می‌کنیم.»

بااین‌حال، همچنان تأثیر سوگیری پس‌آموزشی R1 در نتایج جست‌وجوی پرپلکسیتی دیده می‌شود. شولنکو تأکید کرد که تیم توسعه در حال اعمال تغییراتی روی مدل R1 است تا از انتشار هرگونه پروپاگاندا یا محتوای سانسورشده جلوگیری کند. البته او جزئیات مربوط به نحوه‌ی شناسایی و حذف تعصبات در R1 را فاش نکرد، چرا که ممکن بود دیپ‌سیک، راه‌هایی برای مقابله با آن‌ها پیدا کند.

پلتفرم Hugging Face نیز در حال کار روی پروژه‌ای به‌نام Open R1 برمبنای مدل دیپ‌سیک است. یاکفو، یکی از پژوهشگران این پروژه، توضیح داد که هدف اصلی، ارائه‌ی چارچوبی کاملاً متن‌باز است. به‌گفته‌ی او، انتشار R1 به‌عنوان مدلی متن‌باز، این امکان را فراهم می‌کند که فراتر از محدودیت‌های اولیه‌ی خود گسترش پیدا کند و متناسب با نیازها و ارزش‌های مختلف سفارشی‌سازی شود.

چین ممکن است در قبال شرکت‌های هوش مصنوعی متن‌باز، رویکردی منعطف‌تر در پیش بگیرد

احتمال حذف سانسور از مدل‌های چینی ممکن است برای شرکت‌هایی مانند دیپ‌سیک، به‌ویژه در داخل چین، چالش‌هایی به‌همراه داشته باشد. بااین‌حال، متیو شی‌هان، پژوهشگر سیاست‌های هوش مصنوعی چین در بنیاد کارنگی، معتقد است که قوانین اخیر این کشور نشان می‌دهند دولت چین ممکن است در قبال شرکت‌های هوش مصنوعی متن‌باز، رویکردی منعطف‌تر در پیش بگیرد.

شی‌هان اشاره کرد که اگر چین ناگهان تصمیم بگیرد انتشار وزن‌های مدل‌های متن‌باز را جرم‌انگاری کند، این اقدام همچنان در چارچوب مقررات کنونی خواهد بود، «اما فعلا تصمیمی استراتژیک برای اجرا نکردن چنین محدودیتی گرفته شده است و احتمالاً موفقیت دیپ‌سیک باعث تقویت این سیاست خواهد شد.»

کپی لینک

چقدر وجود سانسور در مدل‌های چینی اهمیت دارد؟

هرچند مسئله‌ی سانسور در مدل‌های چینی هوش مصنوعی جنجالی به نظر می‌رسد، اما این موضوع لزوماً باعث نمی‌شود که کاربران سازمانی از این مدل‌ها استفاده نکنند.

ژو، یکی از کارشناسان این حوزه، بر این باور است که بسیاری از شرکت‌های غیرچینی احتمالاً رویکردی عمل‌گرایانه در پیش می‌گیرند و ملاحظات تجاری را بر ملاحظات اخلاقی ترجیح دهند. او اشاره کرد که همه‌ی کاربران مدل‌های زبانی بزرگ به‌دنبال بحث درباره‌ی موضوعاتی مانند تایوان و تیان‌آنمن نیستند. به‌گفته‌ی او، «مسائل حساسی که در زمینه‌ی سیاست داخلی چین اهمیت دارند، کاملاً بی‌ارتباط با کاربردهایی مانند بهبود کدنویسی، حل مسائل ریاضی یا خلاصه‌سازی مکالمات مراکز تماس هستند.»

تمام مدل‌های زبانی به‌نوعی سوگیری دارند

لئونارد لین، هم‌بنیان‌گذار استارتاپی ژاپنی Shisa.AI، نیز تأکید کرد که مدل‌های چینی مانند Qwen و دیپ‌سیک عملکرد بسیار خوبی در پردازش زبان ژاپنی دارند. او به‌جای کنار گذاشتن این مدل‌ها به‌دلیل مسئله‌ی سانسور، آزمایش‌هایی روی Qwen-2 انجام داده تا بتواند گرایش این مدل را به خودداری از پاسخ‌گویی به پرسش‌های سیاسی درباره‌ی چین کاهش دهد.

لین توضیح داد که دلیل سانسور در این مدل‌ها را درک می‌کند و معتقد است که «تمام مدل‌های زبانی به‌نوعی سوگیری دارند و همین مسئله مبنای سفارشی‌سازی آن‌ها محسوب می‌شود.» او همچنین اشاره کرد که مدل‌های غربی نیز به‌همان اندازه دارای سوگیری هستند، اما درباره‌ی موضوعاتی متفاوت.

درنهایت، بحث سانسور در مدل زبانی دیپ‌سیک، پیامدهای مهمی برای این استارتاپ و دیگر شرکت‌های چینی فعال در حوزه‌ی هوش مصنوعی خواهد داشت. اگر فیلترهای سانسور در مدل‌‌های زبانی بزرگ به‌سادگی قابل دورزدن باشند، مدل‌های متن‌باز چینی احتمالاً محبوب‌تر خواهند شد؛ چراکه پژوهشگران می‌توانند آن‌ها را مطابق نیازهای خود تغییر دهند. اما اگر این فیلترها سخت‌گیرانه باشند، کارایی مدل‌ها کاهش می‌یابد و توان رقابت آن‌ها در بازار جهانی کمتر خواهد شد.

با دوستان خود به اشتراک بگذارید

تازه ترین مطالب
فرهنگی هنری,ورزشی,گردشگری,آموزشی

تازه ها

رویدادهای ویژه

به زودی رویدادهای ویژه در این مکان برای شما قابل نمایش خواهد بود.