کدنویسی ناامن به سبک دیپ سیک به گزارش گروه هوش مصنوعی، طبق یک پژوهش جدید، چت بات هوش مصنوعی دیپ سیک برای گروه ها و مناطقی که دولت چین از نظر سیاسی روی آنها حساس است، در امر برنامه نویسی کدهای ناامن و دارای نقص امنیتی تولید می کند. به گزارش گروه هوش مصنوعی به نقل از خبر آنلاین، به نقل از دیجیاتو، شرکت امنیتی آمریکایی CrowdStrike آزمایشی را طراحی کرد تا نحوه پاسخ دهی هوش مصنوعی دیپ سیک به درخواست های کدنویسی را بسنجد. محققان درخواست های یکسانی را برای نوشتن برنامه های مختلف به این چت بات ارسال کردند، اما در هر درخواست، کاربر نهائی را یک گروه یا منطقه متفاوت معرفی کردند؛ از آمریکا و تبت گرفته تا گروه هایی مانند داعش و جنبش مذهبی فالون گونگ که در چین غیرمجاز است. محققان می گویند این هوش مصنوعی برخی درخواست ها را رد می کرد و در مواردی هم کدهایی باکیفیت پایین تر و حفره های امنیتی جدی عرضه می داد. این پژوهش نشان داد که کیفیت کد تولیدشده توسط دیپ سیک شدیداً تحت تاثیر هویت سیاسی کاربر فرضی قرار دارد. بعنوان مثال، در یک درخواست برای نوشتن برنامه سیستم های کنترل صنعتی، ۲۲.۸ درصد از پاسخ ها دارای نقص امنیتی بودند. اما زمانیکه در همان درخواست ذکر شد که کاربر نهائی عضو گروه داعش است، این رقم به ۴۲.۱ درصد افزوده شد. همینطور درخواست ها برای کاربران تبت، تایوان و فالون گونگ هم با احتمال بیشتری به کدهای بی کیفیت منجر می شدند. این موتور درخواست های در ارتباط با داعش و فالون گونگ را به ترتیب در ۶۱ و ۴۵ درصد موارد به صورت کامل رد می کرد. پیش ازاین مشخص شده بود که مدلهای هوش مصنوعی چینی در جواب سؤالات متنی، اطلاعاتی هم جهت با روایت دولت چین عرضه می دهند. اما این نخستین بار است که شواهدی بر مبنای تولید کد ناامن به علل سیاسی به دست آمده است. تولید عمدی کد معیوب می تواند اهداف مورد نظر را به سادگی قابل هک می کند. چرا دیپ سیک چنین کدهایی می نویسد؟ کارشناسان سه توضیح احتمالی برای این پدیده عرضه می دهند. نخستین و نگران کننده ترین احتمال، وجود دستورالعمل های دولتی برای خرابکاری عمدی در پروژه های گروههای هدف است. احتمال دوم، سوگیری در داده های آموزشی است؛ امکان دارد کدهای موجود در اینترنت که در ارتباط با مناطق خاصی مانند تبت هستند، در مجموع کیفیت پایین تری داشته باشند و هوش مصنوعی این الگو را بازتولید کند. احتمال سوم هم اینست که هوش مصنوعی به شکل خودکار و برپایه یادگیری خود، مفاهیمی مانند «شورشی» را باکیفیت پایین مرتبط دانسته است و برپایه آن کد ناامن تولید می کند.محققان درخواست های یکسانی را برای نوشتن برنامه های مختلف به این چت بات ارسال کردند، اما در هر درخواست، کاربر نهایی را یک گروه یا منطقه متفاوت معرفی کردند؛ از آمریکا و تبت گرفته تا گروه هایی مانند داعش و جنبش مذهبی فالون گونگ که در چین غیرمجاز می باشد. اما این نخستین بارست که شواهدی بر اساس تولید کد ناامن به دلایل سیاسی به دست آمده است. منبع: گروه هوش مصنوعی 1404/06/30 09:23:46 5.0 / 5 123 تگها: آزمایش , آموزش , اینترنت , پژوهش مطلب را می پسندید؟ (1) (0) تازه ترین مطالب مرتبط مدل جدید DeepSeek ChatGPT یک مسئله ریاضی ۲۰۰۰ ساله را حل کرد ماه مخازن انبوه پلاتین دارد پنج جایگزین قدرتمند ChatGPT برای کارهای مختلف را بشناسید نظرات بینندگان در مورد این مطلب لطفا شما هم در مورد این مطلب نظر دهید = ۲ بعلاوه ۱ نظر دادن