پشت پرده نفوذ هکرها به خطرناک ترین هوش مصنوعی جهان گروه هوش مصنوعی: در سال 2026، امنیت سایبری فقط به مفهوم ممانعت از نفوذ به سرورها نیست. هوش مصنوعی ابعاد جدیدی از حملات را ممکن ساخته که مستقیماً روان و اعتماد انسان را هدف قرار می دهند. غزال زیاری- در سالیان اخیر شاهد ظهور مدلهای زبانی بزرگی بوده ایم و همین اتفاق، چشم انداز فناوری اطلاعات را به شدت تغییر داده؛ اما معرفی مدل «کلود میتوس» (Claude Mythos) توسط شرکت آنتروپیک در آوریل ۲۰۲۶، در واقع در حکم نقطه عطفی است که فراتر از یک پیشرفت فنی ساده، به عنوان یک تعریف مجدد ساختاری در مفهوم امنیت دیجیتال شناخته می شود.این مدل که در قالب پروژه گلس ویینگ توسعه یافت، برای بار اول قابلیت هایی را به نمایش گذاشت که مرزهای بین تحلیل انسانی و محاسبات ماشین در عرصه کشف لطمه پذیری های نرم افزاری را جابجا کرد؛ اما تناقض بزرگ زمانی به چشم آمد که این مدل که به سبب بیش ازحد خطرناک بودن، بصورت عمومی منتشرنشده بود، تنها چند هفته پس از معرفی، با گزارش هایی بر اساس دسترسی بدون مجوز یک گروه از کاربران پلت فرم دیسکورد روبرو شد.این اتفاق موجب شد که نه تنها بحث قابلیتهای خیره کننده هوش مصنوعی در شناسایی حفره های امنیتی مطرح شود، بلکه از ضعف های بنیادین در لایه های حفاظتی شرکتهای پیشرو و زنجیره تامین آنها آگاهی داد. معمای میتوس؛ جهشی فراتر از استدلال های مرسومکلود میتوس فقط نسخه بهبودیافته مدلهای قبلی مثل کلود ۴.۶ اپوس نیست؛ بلکه طبق ارزیابی های فنی، نشان دهنده ورود به عصر «هوش مصنوعی عامل محور» (Agentic AI) در عرصه امنیت است.این مدل با تأکید بر کدهای برنامه نویسی و استدلال های منطقی پیچیده، توانسته تا در بنچمارک هایی که تا پیش از این برای ماشین ها غیرقابل دسترس بود، نمره های حیرت آوری کسب کند. توانایی میتوس در شناسایی لطمه پذیری های «روز صفر» که دهه ها از چشم لایه های دفاعی پنهان مانده بود، حالا صنعت نرم افزار را حیرت زده کرده است. طبق بررسی های مقایسه ای انجام شده، میتوس در حل چالش های مهندسی نرم افزار، ۱۳ درصد از نزدیک ترین رقیبش موفق تر بوده؛ این بدان معناست که هوش مصنوعی حالا نه تنها می تواند تا کدهای معیوب را پیدا کند، بلکه بصورت خودمختار، زنجیره ای از حملات چندمرحله ای را برای نفوذ به سیستم های پیچیده طراحی و اجرا می کند.امنیت سایبری در عصر هوش مصنوعی: تعریف و لایه هابرای درک عمیق تر ماجرای میتوس، اول باید به این مورد پرداخت که امنیت سایبری در پیوند با هوش مصنوعی دقیقا به چه معناست. این مفهوم را می توان در سه لایه کلیدی بررسی کرد: امنیت برای هوش مصنوعی، هوش مصنوعی مقابل امنیت و هوش مصنوعی در خدمت دفاع. لایه اول: امنیتِ خودِ مدل (Security of AI)این لایه به صیانت از زیرساخت های هوش مصنوعی در مقابل حملات فیزیکی و منطقی اشاره دارد. حملاتی مثل «تزریق دستور» که در آن مهاجم می کوشد که با دستورات متنی، لایه های حفاظتی مدل را دور بزند، یا «مسموم سازی داده ها» که هدف آن انحراف مدل در زمان آموزش است.ماجرای کلود میتوس نشان داد که حتی اگر لایه های منطقی مدل نفوذناپذیر باشند، ضعف در دسترسی های انسانی و پیمانکاران می تواند تمام زحمات امنیتی را به باد دهد. لایه دوم: هوش مصنوعی به مثابه سلاح تهاجمیدر این بخش، هوش مصنوعی برای خودکار سازی حملات سنتی به کار می رود. میتوس ثابت کرده که می تواند با هزینه ای ناچیز (حدود ۲۸ دلار برای یک عملیات نفوذ کامل به شبکه سازمانی)، کاری را انجام دهد که پیش ازاین تیم های انسانی خبره با هزینه ای در حدود ۵۰ هزار دلار و در طول چندین هفته انجام می دادند.توانایی تولید بدافزارهای چندشکلی که با هر بار اجرا ساختار خویش را تغییر می دهند تا از دید آنتی ویروس ها پنهان بمانند، از دیگر تهدیدات این حوزه است. لایه سوم: هوش مصنوعی به عنوان سنگر دفاعیاز سوی دیگر، سیستم های دفاعی مبتنی بر هوش مصنوعی قادرند تا ترافیک شبکه را در مقیاس پتا بایت تحلیل کرده و الگوهای مشکوک را در میلی ثانیه شناسایی کنند. مدل هایی مثل کلود میتوس با اسکن کدهای منبع، می توانند باگ های امنیتی را قبل از انتشار نرم افزار پیدا کنند؛ این مزیتی است که شرکت موزیلا در آزمایش مرورگر فایرفاکس به آن دست پیداکرد و توانست ۲۷۱ حفره امنیتی را به کمک میتوس شناسایی و برطرف کند.رخنه در کلود میتوس: شکست در لایه انسانیحادثه ای که در آوریل ۲۰۲۶ اعتبار آنتروپیک را به دردسر انداخت، نه یک هک پیچیده، بلکه ناشی از تلفیقی از خطاهای انسانی و ضعف در پروتکلهای دسترسی بود.ماجرا از این قرار بود که گروهی از کاربران در یک کانال خصوصی دیسکورد توفیق یافتند تا به پیش نمایش کلود میتوس دسترسی پیدا کنند. بررسی های بلومبرگ نشان داد که این گروه بوسیله دو نقص اصلی موفق به انجام این کار شدند: حدس زدن URL: این گروه با استفاده از الگوهای نام گذاری قبلی آنتروپیک و اطلاعات لو رفته از یک استارت آپ دیگر (Mercor)، توانستند آدرس محل قرارگیری مدل روی سرور را حدس بزنند. اعتبارنامه های مشترک: یکی از اعضاء گروه، کارمند یک شرکت پیمانکار آنتروپیک بود و از دسترسی های خودش برای ورود به سیستم استفاده کرد. این اتفاق نشان داد که حتی اگر مدل هوش مصنوعی قوانینی برای امتناع از کمک به هکرها هم داشته باشد، امنیت محیطی که مدل در آن میزبانی می شود هنوز هم در حکم پاشنه آشیل است. طبق اعلام آنتروپیک، هیچ نشانه ای از نفوذ به سیستم های مرکزی اش دیده نشده، اما حقیقت این است که خطرناک ترین سلاح سایبری جهان برای دو هفته در اختیار اشخاصی قرار داشت که هیچ نظارتی بر آنها نبود. نبرد غول ها: مقایسه هوش مصنوعی ها در ترازوی امنیتدر نیمه نخست سال ۲۰۲۶، سه قطب اصلی هوش مصنوعی یعنی آنتروپیک، اوپن ای آی و گوگل، هرکدام با استراتژی های متفاوتی در میدان امنیت حضور دارند. ۱. خانواده کلود (Anthropic): استدلال عمیق و احتیاط ساختاریکلود میتوس در صدر تمام بنچمارک های امنیت سایبری قرار دارد. دقت این مدل در تحلیل کدهای پیچیده و رعایت دستورالعمل های امنیتی، سبب شده تا انتخاب اول پروژه های حساس باشد. بااین وجود دسترسی خیلی مشکل گیرانه و قیمت بالای توکن ها (صدها دلار به ازای هر میلیون توکن) از محدودیت های آنست. ۲. خانواده GPT (OpenAI): سرعت و نفوذ در بازارOpenAI با معرفی GPT-۵.۵ و نسخه امنیتی GPT-۵.۴-Cyber، تلاش نموده تا عقب ماندگی اش در قسمت استدلال امنیتی را جبران کند. گرچه GPT در کارهای روزمره و تعامل با ابزارها سریع تر است، اما در شناسایی باگ های منطقی عمیق هنوز پشت سر میتوس قرار می گیرد. یکی از اشکالات گزارش شده برای GPT، تولید کدهای «تنبلی» است که بخش های مهم امنیتی را حذف می کند. ۳. خانواده Gemini Google: سلطان داده های حجیممزیت بی رقیب گوگل، پنجره Context دو میلیون توکنی است. این توانایی به مدافعان اجازه می دهد تا کل معماری یک شبکه یا تمام کدهای یک سازمان را به مدل بخورانند تا روابط پنهان میان اجزا کشف شود. بااین وجود، Gemini در رعایت دقیق دستورالعمل های طولانی گاهی گرفتار توهم می شود. ویژگی امنیتیکلود میتوسGPT-۵.۵Gemini ۱.۵ ProLlama ۳.۳ظرفیت حافظه (Context)۲۰۰K Tokens۱۲۸K Tokens۲M Tokens۱۲۸K Tokensدقت در کشف Zero-dayبسیار بالامتوسط رو به بالامتوسطپایین (بدون تنظیم)خودمختاری (Agentic)کامل (۳۲ مرحله)پیشرفتهمتوسطمحدودامنیت در مقابل جیل بریکبسیار قویقویمتوسطضعیفنوع دسترسیانحصاری (Glasswing)اشتراکی (Plus/Pro)سازمانی (Vertex)متن باز (Open)سونامی لطمه پذیری و پارادوکس دفاع سایبرییکی از مفاهیم کلیدی که در گزارش های سال ۲۰۲۶ تکرار شده، اصطلاح سونامی لطمه پذیری است. هوش مصنوعی با توانایی اسکن انبوه، تعداد باگ های کشف شده را بطور تصاعدی افزایش داده است. مثلاً مشتریان مایکروسافت گزارش داده اند که پس از عرضه آزمایشی میتوس، با موجی از ۱۵۰ آپدیت امنیتی در یک بازه زمانی کوتاه روبرو شده اند. این وضعیت، تیم های IT را در موقعیت دشواری قرار می دهد؛ چونکه این حجم از تغییرات پایداری سیستم ها را به خطر می اندازد و از طرفی نادیده گرفتن آنها به مفهوم باز گذاشتن در برای هکرهایی است که آنها هم به ابزارهای مشابه دسترسی دارند. اگرچه مدل هایی مثل میتوس در کشف عالی هستند؛ اما در ترمیم به مشکل برمی خورند. هوش مصنوعی به طور معمول نمی تواند context تجاری را درک کند؛ یعنی نمی داند که آیا یک باگ در یک سرور غیرحیاتی به اندازه یک باگ در پایگاه داده اصلی بانک اهمیت دارد یا نه و اینجاست که احتیاج به پلت فرم های واسط برای اولویت بندی ریسک ها بیش ازپیش احساس می شود. تهدیدات نوظهور: فراتر از کدهای برنامه نویسیدر سال ۲۰۲۶، امنیت سایبری فقط به مفهوم ممانعت از نفوذ به سرورها نیست. هوش مصنوعی ابعاد جدیدی از حملات را ممکن ساخته که مستقیماً روان و اعتماد انسان را هدف قرار می دهند. ازجمله آنها می توان به این موارد اشاره کرد: ۱. کلاه برداری های مبتنی بر جعل هویتاستفاده از هوش مصنوعی برای شبیه سازی صدا و تصویر مدیران، به یکی از ابزارهای اصلی برای افراد خلاف کار تبدیل گشته است. در جولای ۲۰۲۵، گزارش هایی از جعل صدای مقامات دولتی برای عبور از پروتکلهای امنیتی منتشر گردید که نشان دهنده اثربخشی بالای این تکنیک در مهندسی اجتماعی است. ۲. کمپین های نفوذ و ضداطلاعاتبه دلیل لایه های حفاظتی ضعیف تر مدلهای متن باز، از این مدلها برای تولید انبوه محتوای گمراه کننده و کدهای مخرب استفاده می شود. بنچمارک SocialHarmBench نشان میدهد که برخی مدلها تا ۹۸٪ در مقابل درخواست های در ارتباط با تولید پروپاگاندا و دست کاری تاریخی لطمه پذیر هستند. ۳. شکار خودکار اهداف ارزشمندهوش مصنوعی حالا می تواند شبکه های اجتماعی و کارهای آنلاین کارمندان را تحلیل کرده و شخصی سازی شده ترین ایمیل های فیشینگ را طراحی کند. این حملات که «Vibe Hacking» نامیده می شوند، آن قدر متقاعدکننده هستند که حتی متخصصان باسابقه را نیز به اشتباه می اندازند. ژئوپلیتیک امنیت هوش مصنوعی: نبرد برای برتری جهانیکنترل مدل هایی مثل کلود میتوس حالا به یک مبحث امنیتی تبدیل شده؛ نبرد بین دولت ها و شرکتهای فناوری برای تعیین استانداردهای امنیتی، جغرافیای اینترنت را تغییر می دهد. موسسه امنیت هوش مصنوعی بریتانیا (AISI) نخستین نهادی بود که نسبت به توانایی میتوس در اجرای حملات خودمختار اخطار داد. این نهاد تاکید کرد که پنجره زمانی بین کشف یک حفره و بهره برداری از آن توسط هوش مصنوعی به کمتر از ۷۲ ساعت کم شده است.از سوی دیگر، اتحادیه اروپا با اجرای «قانون هوش مصنوعی»، شرکتها را مکلف به اثبات ایمنی مدلهای خود قبل از استقرار در قسمت های حساس کرده است. اگر دسترسی به ابزارهای دفاعی برتر فقط در اختیار بلوک های خاصی از قدرت باشد، به زودی شاهد ظهور «اینترنت های چندگانه» خواهیم بود. در این سناریو، کشورهایی که به فناوری هایی مثل میتوس دسترسی ندارند، به اهداف دائمی باج افزارها و حملات دولتی تبدیل می شوند و عملا از اقتصاد دیجیتال جهانی حذف خواهند شد. توصیه های راهبردی در عصر میتوسارزیابی های سال ۲۰۲۶ نشان میدهد که استراتژی های سنتی دیگر کارساز نیستند و برای بقا در این محیط، سازمان ها باید تغییرات زیر را مدنظر قرار دهند: پذیرش مدل اعتماد صفر: با عنایت به توانایی هوش مصنوعی در سرقت اعتبارنامه ها، هیچ دسترسی نباید دائمی باشد. بومی سازی مدلهای دفاعی: سازمان ها باید از هوش مصنوعی برای نظارت بر هوش مصنوعی بهره گیرند تا الگوهای غیرعادی در پرامپت ها و خروجی ها شناسایی شود. تقویت زنجیره تأمین: حادثه آنتروپیک ثابت کرد که امنیت یک شرکت تنها به اندازه ضعیف ترین پیمانکار آنست. نتیجه گیری: عبور از مرزهای ترس و فرصتکلود میتوس نمادی از پارادوکس پیشرفت در قرن بیست و یکم است؛ ابزاری که می تواند اینترنت را امن تر از همیشه کند، اما درعین حال توانایی فروپاشی زیرساخت های حیاتی را هم دارد. رخنه در محیط پیمانکاری آنتروپیک یادآور این حقیقت تلخ بود که در نبرد امنیت، تکنولوژی تنها قسمتی از ماجراست و انسان همچنان متغیری غیرقابل پیش بینی است. ما در آستانه دورانی هستیم که در آن امنیت سایبری دیگر یک فعالیت دوره ای یا واکنشی نیست، بلکه به یک فرایند مداوم و هوشمند تبدیل گشته. موفقیت در این دوران نه با پنهان کردن ابزارهای قدرتمند در پشت دیوارهای بسته، بلکه با همکاری بین المللی، شفافیت در ارزیابی ریسک و ارتقاء سواد دیجیتال عمومی ممکن خواهد بود. هوش مصنوعی شمشیر دو لبه ای است که هم هکرها و هم مدافعان را مسلح کرده؛ اما برنده نهائی کسی است که بتواند سرعت ماشین را با خرد و نظارت انسانی پیوند بزند. منابع: businesstoday، aisi، theguardian، pcmag منبع: iagrp.ir 1405/02/12 19:29:01 5.0 / 5 6 تگها: آزمایش , آموزش , آنتی ویروس , استاندارد مطلب را می پسندید؟ (1) (0) تازه ترین مطالب مرتبط هوش مصنوعی در اورژانس از پزشکان متخصص دقیق تر است ChatGPT در آزمون ورودی بالاترین دانشگاه های ژاپن نمره ای بیشتر از انسان ها گرفت سازنده حلقه اورا، هوش مصنوعی سلامت زنان راه اندازی می نماید هوش مصنوعی در آموزش فرصت رشد شناختی یا تهدیدی برای تفکر مستقل؟ نظرات بینندگان در مورد این مطلب لطفا شما هم در مورد این مطلب نظر دهید = ۸ بعلاوه ۱ نظر دادن