چین به سرقت از هوش مصنوعی کلود متهم شد! سئو سی: هم زمان با بحث های آمریکا بر سر صادرات تراشه های هوش مصنوعی، «آنتروپیک» شرکت های هوش مصنوعی چین را به استخراج از مدل هوش مصنوعی «کلود» متهم می کند. به گزارش سئو سی به نقل از ایسنا، شرکت «آنتروپیک»(Anthropic) سه شرکت هوش مصنوعی چینی را متهم کرده است که با بهره گیری از مدل هوش مصنوعی «کلود»(Claude) آن بیشتر از ۲۴ هزار حساب کاربری جعلی راه اندازی کرده اند تا مدلهای خویش را بهبود ببخشند. به نقل از تک کرانچ، ظاهراً این شرکت ها شامل «دیپ سیک»(DeepSeek)، «مونشات ای آی»(Moonshot AI) و «مینی مکس»(MiniMax) با بهره گیری از روشی به نام «تقطیر دانش» بیشتر از ۱۶ میلیون تبادل با کلود را از راه آن حساب ها انجام داده اند. شرکت آنتروپیک اعلام نمود که این لابراتوار ها متمایزترین قابلیت های کلود را همچون استدلال عاملی، استفاده از فناوری و کدنویسی هدف قرار داده اند. این اتهامات در بحبوحه بحث هایی پیرامون چگونگی اعمال دقیق کنترل بر صادرات تراشه های پیشرفته هوش مصنوعی مطرح شده اند که با هدف مهار توسعه هوش مصنوعی چین شکل گرفته اند. تقطیر دانش یک روش رایج است که لابراتوار های هوش مصنوعی از آن روی مدلهای خود برای ایجاد نسخه های کوچک تر و ارزان تر استفاده می نمایند، اما رقبا می توانند از آن برای کپی کردن کار سایر لابراتوار ها بهره گیرند. شرکت «اوپن ای آی»(OpenAI) اوایل ماه جاری میلادی یادداشتی را به قانون گذاران مجلس نمایندگان آمریکا فرستاد و شرکت دیپ سیک را به استفاده از تقطیر برای تقلید از محصولاتش متهم کرد. دیپ سیک نخستین بار یک سال پیش با انتشار مدل استدلالی متن باز «R1» خود سروصدای زیادی راه انداخت که از نظر عملکرد با صرف کسری از هزینه تقریبا با لابراتوار های پیشرو آمریکا برابری می کرد. انتظار می رود دیپ سیک بزودی تازه ترین مدل خود موسوم به «دیپ سیک وی۴»(DeepSeek V4) را عرضه نماید که از نظر کدنویسی می تواند عملکرد بهتری را نسبت به مدل کلود شرکت آنتروپیک و «چت جی پی تی»(ChatGPT) شرکت اوپن ای آی داشته باشد. مقیاس هر حمله از نظر دامنه متفاوت بود. آنتروپیک بیشتر از ۱۵۰ هزار تبادل دیپ سیک را ردیابی کرد که به نظر می رسید با هدف بهبود منطق و هم ترازی بنیادین بخصوص پیرامون جایگزین های ایمن از سانسور برای پرس وجوهای حساس به سیاست انجام شده اند. شرکت مونشات ای آی بیشتر از ۳.۴ میلیون تبادل داشت که استدلال عاملی و استفاده از فناوری، کدنویسی و تحلیل داده ها، توسعه عامل استفاده از کامپیوتر و بینش کامپیوتری را هدف قرار می داد. ماه گذشته، این شرکت یک مدل متن باز جدید موسوم به «کیمی کی۲.۵»(Kimi K2.5) و یک عامل کدنویسی را عرضه نمود. ۱۳ میلیون تبادل مینی مکس، کدگذاری عاملی و استفاده از فناوری و هماهنگی را هدف قرار داده بودند. آنتروپیک اعلام نمود که توانسته عملکرد مینی مکس را ببیند و دریافته این شرکت تقریبا نیمی از ترافیک خویش را به قابلیت های تازه ترین مدل کلود هدایت کرده است. شرکت آنتروپیک می گوید به سرمایه گذاری در حوزه های دفاعی که اجرای حملات تقطیر را دشوارتر و شناسایی آنها را آسان تر می کند، ادامه خواهد داد، اما خواهان واکنش هماهنگ در سراسر صنعت هوش مصنوعی، ارایه دهندگان خدمات فضای ابری و سیاست گذاران است. حملات تقطیر در زمانی رخ می دهند که صادرات تراشه های آمریکایی به چین هنوز مبحث داغی برای بحث است. ماه گذشته، دولت ترامپ بطور رسمی به شرکت های آمریکایی مانند انویدیا اجازه داد تراشه های پیشرفته هوش مصنوعی مانند H200 را به چین صادر کنند. استدلال منتقدان اینست که کاهش کنترل صادرات، ظرفیت محاسبات هوش مصنوعی چین را در مقطعی حساس از رقابت جهانی برای تسلط بر هوش مصنوعی می افزاید. آنتروپیک می گوید مقیاس استخراجی که دیپ سیک، مینی مکس و مونشات انجام می دهند، نیازمند دسترسی به تراشه های پیشرفته است. در وبلاگ آنتروپیک آمده است: حملات تقطیر، منطق کنترل صادرات را تقویت می کند. دسترسی محدود به تراشه هم آموزش مستقیم مدل و هم مقیاس تقطیر غیرقانونی را محدود می کند. «دیمیتری آلپروویچ»(Dmitri Alperovitch)، رییس اندیشکده «Silverado Policy Accelerator» و از بنیانگذاران شرکت «کراوداسترایک»(CrowdStrike) اظهار داشت که از دیدن این حملات تعجب نکرده است. آلپروویچ اظهار داشت: مدتی است که مشخص شده بخشی از دلیل پیشرفت سریع مدلهای هوش مصنوعی چینی، سرقت از راه تقطیر مدلهای پیشگام آمریکایی بوده است. حال ما این مساله را به صورت قطعی می دانیم. این باید دلیلهای قانع کننده تری را برای خودداری از فروش هرگونه تراشه هوش مصنوعی به هر یک از این (شرکت ها) به ما بدهد. مقامات آنتروپیک نیز گفتند که تقطیر نه فقط سلطه هوش مصنوعی آمریکا را تهدید می کند، بلکه می تواند خطرات امنیت ملی را نیز پدید آورد. در پست وبلاگ آنتروپیک آمده است: آنتروپیک و دیگر شرکت های آمریکایی سیستم هایی را می سازند که مانع استفاده بازیگران دولتی و غیردولتی از هوش مصنوعی برای کارهایی مانند توسعه سلاح های زیستی یا انجام دادن کارهای سایبری مخرب می شوند. مدل هایی که از راه تقطیر غیرقانونی ساخته می شوند، بعید است که این ضمانت ها را حفظ کنند و این بدان معناست که قابلیت های خطرناک با حذف کامل خیلی از محافظت ها می توانند تکثیر شوند.به اجمال، تقطیر دانش یک روش رایج است که آزمایشگاه های هوش مصنوعی از آن روی مدل های خود برای ایجاد نسخه های کوچک تر و ارزان تر استفاده می نمایند، اما رقبا می توانند از آن برای کپی کردن کار سایر آزمایشگاه ها بهره گیرند. مقیاس هر حمله از نظر دامنه متفاوت بود. مدل هایی که از راه تقطیر غیرقانونی ساخته می شوند، بعید است که این ضمانت ها را حفظ کنند و این بدان معناست که قابلیت های خطرناک با حذف کامل بسیاری از محافظت ها می توانند تکثیر شوند. منبع: seoc.ir 1404/12/07 13:47:25 5.0 / 5 3 تگهای خبر: آموزش , بازی , توسعه , خدمات این مطلب سئوسی را می پسندید؟ (1) (0) تازه ترین مطالب مرتبط برنامه های جدید دفتر مشاوره وزارت علوم برای دفاع از دانشجویان ردپای چت جی پی تی در تیراندازی دسته جمعی کانادا! دشمن می خواهد دانشگاه مجازی باشد چرا حذف مدل GPT 4o خشم کاربران را برانگیخت؟ نظرات بینندگان در مورد این مطلب نظر شما در مورد این مطلب نام: ایمیل: نظر: سوال: = ۴ بعلاوه ۱