
Image Credits:Anton Petrus / Getty ImagesSand AI’s online platform throws an error message when it detects a likely prohibited image.Image Credits:Sand AI
استارتاپ چینی Sand AI تصاویر حساس سیاسی را در مدل هوش مصنوعی خود مسدود میکند
استارتاپ Sand AI مستقر در چین ظاهراً برخی تصاویر حساس سیاسی را در ابزار آنلاین تولید ویدئوی خود مسدود میکند.
۱۴۰۴/۰۲/۰۲
بررسیها نشان میدهد که استارتاپ Sand AI در چین تصاویر مرتبط با چهرههای سیاسی و رویدادهای حساس را در مدل هوش مصنوعی تولید ویدئوی خود مسدود کرده است.
استارتاپ چینی Sand AI که در زمینه هوش مصنوعی فعالیت میکند، به تازگی مدل هوش مصنوعی تولید ویدیوی Magi-1 را با مجوز باز منتشر کرده است. این مدل مورد تحسین کارآفرینانی مانند کای-فو لی (Kai-Fu Lee)، مدیر موسس مایکروسافت ریسرچ آسیا، قرار گرفته است. با این حال، بر اساس آزمایشهای انجام شده توسط TechCrunch، به نظر میرسد Sand AI در نسخه میزبانی شده این مدل، تصاویری را که ممکن است باعث خشم رگولاتورهای چینی شود، سانسور میکند.
مدل Magi-1 که اوایل هفته جاری معرفی شد، با پیشبینی خودکار دنبالهای از فریمها، ویدیو تولید میکند. این شرکت ادعا میکند که مدل میتواند ویدیوهای با کیفیت و قابل کنترل تولید کند که فیزیک را دقیقتر از مدلهای باز رقیب ثبت میکنند.
مدل Magi-1 به دلیل حجم ۲۴ میلیارد پارامتری (parameters) و نیاز به ۴ تا ۸ واحد پردازش گرافیکی Nvidia H100 (GPU)، برای اجرا روی بیشتر سختافزارهای مصرفکننده غیرعملی است. به همین دلیل، پلتفرم Sand AI تنها مکانی است که بسیاری از کاربران میتوانند Magi-1 را آزمایش کنند.
این پلتفرم برای شروع تولید ویدیو به یک تصویر "prompt" نیاز دارد. اما TechCrunch به سرعت دریافت که همه تصاویر مجاز نیستند. Sand AI آپلود تصاویری از شی جینپینگ (Xi Jinping)، میدان تیانآنمن (Tiananmen Square) و مرد تانک (Tank Man)، پرچم تایوان، و نمادهای حامی آزادی هنگکنگ را مسدود میکند. به نظر میرسد فیلترینگ در سطح تصویر اتفاق میافتد و تغییر نام فایلهای تصویر این مسدودسازی را دور نمیزند.
Sand AI تنها استارتاپ چینی نیست که از آپلود تصاویر حساس سیاسی در ابزار تولید ویدیوی خود جلوگیری میکند. پلتفرم رسانهای مولد Hailuo AI از MiniMax مستقر در شانگهای نیز عکسهای شی جینپینگ را مسدود میکند. اما فیلترینگ Sand AI تهاجمیتر به نظر میرسد؛ Hailuo تصاویر میدان تیانآنمن را مجاز میداند.
همانطور که Wired در مقالهای در ژانویه توضیح داد، مدلهای هوش مصنوعی در چین موظف به رعایت کنترلهای اطلاعاتی سختگیرانه هستند. یک قانون مصوب ۲۰۲۳ مدلها را از تولید محتوایی که "وحدت کشور و هماهنگی اجتماعی را تضعیف میکند" منع میکند؛ یعنی محتوایی که با روایتهای تاریخی و سیاسی دولت در تضاد است. برای انطباق با این مقررات، استارتاپهای چینی اغلب مدلهای خود را سانسور میکنند، چه از طریق فیلترهای سطح "prompt" و چه از طریق تنظیمات دقیقتر (fine-tuning).
جالب توجه است که در حالی که مدلهای چینی تمایل به مسدود کردن گفتمان سیاسی دارند، اغلب فیلترهای کمتری نسبت به همتایان آمریکایی خود برای محتوای پورنوگرافی دارند. گزارش اخیر ۴۰۴ نشان داد که تعدادی از تولیدکنندگان ویدیوی منتشر شده توسط شرکتهای چینی فاقد محافظهای اولیه هستند که از تولید محتوای برهنگی غیرقانونی جلوگیری کنند.
منبع: تککرانچ