DeepSeek-R1-Safe هواوی با هدف هماهنگی با مقررات چین طراحی شده است و بهطور چشمگیری از گفتار مضر و محتوای حساس جلوگیری میکند.
به گزارش تکناک به نقل از رویترز، نسخه تازهای از مدل زبانی بزرگ دیپسیک در چین رونمایی شده است که با نام DeepSeek-R1-Safe شناخته میشود و بهطور ویژه برای دوری از موضوعات سیاسی حساس و بحثبرانگیز طراحی شده است.
هواوی DeepSeek-R1-Safe را با همکاری پژوهشگران دانشگاه Zhejiang توسعه داده است و جالب آنکه شرکت دیپسیک بهصورت مستقیم در توسعه آن دخالت نکرده است. براساس این گزارش، نسخه جدید با استفاده از ۱,۰۰۰ تراشه هواوی Ascend AI آموزش داده شده و توانایی آن در پرهیز از محتوای بحثبرانگیز افزایش چشمگیری یافته است.
گیزمودو مینویسد که هواوی اعلام کرده است این نسخه فقط حدود یک درصد از سرعت و توانایی نسخه اصلی را از دست داده و در عوض بهتر میتواند از ورود به گفتار مضر و سمی و محتوای سیاسی حساس و تحریک به فعالیتهای غیرقانونی» جلوگیری کند.
بااینحال، کارشناسان میگویند که مدل DeepSeek-R1-Safe هواوی هنوز بینقص نیست. اگرچه موفقیت آن در استفادههای عادی نزدیک به ۱۰۰ درصد گزارش شده، در شرایطی که کاربران خواستههای خود را پشت چالشها یا نقشآفرینی پنهان میکنند، توانایی اجتناب از موضوعات حساس به ۴۰ درصد کاهش مییابد.
هدف اصلی توسعه DeepSeek-R1-Safe همراستایی با الزامات نهادهای ناظر در چین بوده است. براساس مقررات، تمامی مدلهای هوش مصنوعی داخلی که در دسترس عموم قرار میگیرند، باید بازتابدهنده ارزشهای کشور باشند و با محدودیتهای گفتاری مطابقت داشته باشند. نمونه بارز آن، چتبات Ernie متعلق به شرکت بایدو است که طبق گزارشها، از پاسخ به پرسشهای مربوط به سیاست داخلی چین یا حزب کمونیست حاکم خودداری میکند.

این روند به چین محدود نیست. اوایل امسال، شرکت فناوری Humain در عربستانسعودی چتبات بومی عربی معرفی کرد که علاوهبر تسلط کامل به زبان عربی، برپایه فرهنگ و ارزشها و میراث اسلامی آموزش دیده است. در آمریکا نیز، OpenAI اذعان کرده است که ChatGPT تمایل بیشتری به بازتاب دیدگاههای غربی دارد.
دولت ترامپ طرحی با عنوان America’s AI Action Plan ارائه داده است که براساس آن، مدلهای هوش مصنوعی استفادهشده در نهادهای دولتی باید بیطرف و خنثی باشند. طبق دستور اجرایی ترامپ، این مدلها موظفاند از پذیرش مفاهیمی همچون ایدئولوژی اقلیمی افراطی، تنوع و برابری و شمول، نظریه نژادی انتقادی، تراجنسیتی و نژادپرستی نظاممند خودداری کنند.
کارشناسان معتقدند آنچه در چین و عربستان و آمریکا مشاهده میشود، نشاندهنده روندی جهانی است که در آن دولتها تلاش میکنند تا مدلهای هوش مصنوعی را بیشتر مدیریت و این فناوری را مطابق با ارزشها و قوانین و سیاستهای خود هدایت کنند.