
اخطار در رابطه با نقش آفرینی هوش مصنوعی در حملات سایبری جدید
به گزارش وبو، کارشناسان امنیت سایبری اخطار می دهند عامل هایی که حالا بعنوان دستیاران هوشمند در خدمت کاربران هستند، می توانند در سناریویی معکوس، نقش عاملان نفوذگر و بازیگران مخرب سایبری را ایفا کنند.
به گزارش وبو به نقل از مهر؛ در حالیکه جوامع فناورانه با شتاب روز افزون درحال بهره برداری از عامل های هوش مصنوعی برای تسهیل امور روزمره، ساماندهی کارها، افزایش کارآمدی فردی و سازمانی و بهینه سازی فرآیندهای تصمیم گیری هستند، در آن سوی این تحولات امیدبخش، تهدیدی نگران کننده درحال شکل دهی است که می تواند امنیت دیجیتال جهانی را به چالش بکشد. کارشناسان امنیت سایبری اخطار می دهند عامل هایی که حالا بعنوان دستیاران هوشمند در خدمت کاربران قرار گرفته اند، می توانند در سناریویی معکوس، نقش عاملان نفوذگر و بازیگران مخرب سایبری را بازی کرده و با بهره بردن از قدرت تحلیل، استدلال و خودگردانی، حملات پیچیده، هدفمند و مقیاس پذیر سایبری را اجرایی کنند. تفاوت عامل ها با ابزارهای خودکار پیشین در سطح عملکرد آن هاست. بات ها صرفا دستورات تکراری و اسکریپت محور اجرا می کردند اما عامل های امروزی می توانند متناسب با هدف، روش حمله را طراحی و به صورتی پویا مسیر خویش را تغییر دهند. این قابلیت ها، تهدید کیفی جدیدی برای زیست بوم دیجیتال ایجاد کرده اند. هدف این نوشتار کوتاه، عرضه تصویری جامع و مستند از این تهدید نوظهور است؛ تهدیدی که با استناد به شواهد تجربی، تحلیل کارشناسان و داده های پروژه های پژوهشی معتبر، مورد واکاوی قرار خواهد گرفت. عامل های هوش مصنوعی: گامی فراتر از بات ها عامل های هوش مصنوعی برخلاف بات های سنتی، تنها مجموعه ای از دستورات خطی نیستند که در جواب ورودی های مشخص، خروجی های معین تولید کنند. آنها سیستم هایی پیچیده و پویا هستند که به واسطه برخورداری از توانایی هایی چون برنامه ریزی، استدلال، تصمیم گیری مستقل و یادگیری از محیط، می توانند وظایف پیچیده ای را بدون دخالت مستقیم انسان انجام دهند. این توانایی ها، آنها را به ابزارهایی چندمنظوره و بالقوه خطرناک در حوزه امنیت سایبری تبدیل میکند. در چشم انداز تهدیدات سایبری، عامل ها قادرند با تحلیل پیشرفته ساختار شبکه ها، شناسایی صدمه پذیری های فنی، بهره برداری از ضعف های رفتاری کاربران و به کارگیری روشهای فنی پیشرفته مهندسی اجتماعی، حملاتی هدفمند، خودگردان و تطبیق پذیر را اجرا کنند. این حملات شامل نفوذ به سیستم ها، استخراج داده های حساس، تخریب یا تغییر اطلاعات و حتی تسلط بر سیستم های کنترل صنعتی می شوند. طبق گزارش سال ۲۰۲۵ شرکت «Malwarebytes»، ظهور «عامل های مهاجم» بعنوان یکی از مهم ترین تهدیدات نوظهور امنیتی شناسایی شده است. این عامل ها، برخلاف بات های رایج که به واسطه اسکریپت های ایستا عمل می کنند از انعطاف پذیری بالا و توانایی سازگاری با محیط برخوردار می باشند. آنها می توانند در صورت مواجهه با موانع پیشبینی نشده، مسیر حمله خویش را تغییر دهند یا استراتژی جدیدی اتخاذ کنند. دیمیتری وولکوف، پژوهشگر ارشد مؤسسه «Palisade Research»، در این حوزه اظهار داشت: «عامل ها نه تنها قادر به تحلیل معماری هدف و انتخاب مؤثرترین روش نفوذ هستند، بلکه می توانند با شبیه سازی رفتار انسانی، شناسایی به وسیله سیستم های امنیتی را دور بزنند؛ قابلیتی که فراتر از توانایی های بات های اسکریپت محور سنتی است.» شواهد تجربی از قدرت عامل های هوش مصنوعی محققان شرکت آنتروپیک در آزمایشی به این نتیجه رسیدند که مدل زبانی کلاد، یکی از پیشرفته ترین مدلهای زبان طبیعی، توانسته است بشکل موفقیت آمیزی یک حمله سایبری طراحی شده برای سرقت اطلاعات حساس را شبیه سازی و بازتولید کند. این حمله شامل شناسایی اطلاعات هدف، استخراج داده های خاص و اجرای دستوراتی برای انتقال اطلاعات بدون جلب توجه سیستم های نظارتی بود. آنچه این آزمایش را مهم می سازد، توان کلاد در تحلیل مراحل حمله، درک هدف نهائی و پیاده سازی زنجیره حمله بدون راهنمائی مستقیم انسان بود؛ قابلیتی که عامل ها را به ابزارهایی بالقوه خطرناک در دست مهاجمان سایبری تبدیل میکند. همینطور در نمونه ای دیگر، تیم تحقیقاتی مؤسسه «Palisade Research» پروژه ای نوآورانه با عنوان «LLM Agent Honeypot» راه اندازی کرده اند که بعنوان یک محیط آزمایشی واقعی برای شناسایی و تحلیل فعالیتهای عامل های مهاجم عمل می کند. در این پروژه، سرورهایی با ظاهر و ساختار جذاب برای مهاجمان، نظیر داده های نظامی، دولتی و اطلاعات طبقه بندی شده، به شکل جعلی و هدفمند طراحی شده اند تا عامل های هوش مصنوعی را به خود جذب کنند. این سیستم از زمان راه اندازی تابحال بیشتر از ۱۱ میلیون کوشش برای دسترسی را ثبت کرده است. روش شناسایی عامل های هوش مصنوعی در این پروژه بر مبنای تکنیکی نوآورانه و دقیق طراحی شده بود که بخصوص توانمندی های شناختی و سرعت پاسخ دهی عامل ها را هدف قرار می داد. این شیوه مبتنی بر تزریق دستورات خاص (Prompt Injection) به سیستم بود؛ روشی که در آن، ورودی هایی خاص به بازدیدکنندگان سرورهای هانی پات داده می شود تا بر مبنای واکنش آنها، ماهیت بازدیدکننده مشخص شود. فلسفه پشت این سنجش، تمایز میان عملکرد انسان ها و مدلهای زبانی پیشرفته است. در حالیکه کاربران انسانی معمولا برای خواندن دستور، تحلیل آن و پاسخ گویی حداقل چند ثانیه زمان نیاز دارند، مدلهای زبانی مانند «GPT» یا کلاد قادرند طی کمتر از یک و نیم ثانیه کل فرآیند را انجام دهند. این اختلاف زمانی، بعنوان معیاری دقیق برای جداسازی عامل های انسانی از عامل های هوش مصنوعی مورد استفاده قرار گرفت و نقش برجسته ی در ارزیابی اثربخشی روش های تشخیص تهدیدات نوین ایفا کرد. از شناسایی تا مواجهه با تهدیدات سایبری محققان پروژه مذکور در تلاش اند تا دامنه آزمایش و پایش فعالیتهای عامل های هوش مصنوعی را از محیط های کنترل شده و محدود سروری به حوزه های بازتر و گسترده تری مانند رسانه های اجتماعی، وبسایت های عمومی و پایگاه های داده قابل دسترسی عمومی گسترش دهند. این گسترش نه تنها دامنه تحلیل تهدیدات را بیشتر می کند، بلکه به کشف الگوهای رفتاری عامل ها در محیط هایی با تعامل انسانی واقعی و ساختارهای پیچیده تر کمک می نماید. در همین جهت، تیمی از دانشگاه ایلینوی به رهبری دکتر دانیل کانگ، مبادرت به توسعه یک معیار استاندارد برای ارزیابی توان عامل ها در شناسایی و بهره برداری از صدمه پذیری های واقعی کرده اند. این معیار، شامل مجموعه ای از سناریوهای آزمون شده و واقع گرایانه است که در آن عامل ها باید بدون برخورداری از اطلاعات پیشین یا دانش تخصصی، صدمه پذیری های امنیتی را کشف و از آنها بهره برداری کنند. این چارچوب با هدف ایجاد یک معیار سنجش پذیر برای مقایسه عملکرد عامل های مختلف طراحی شده است. یافته های اولیه این پروژه هم حاکی از آنست که عامل ها توانسته اند در حدود ۱۳ درصد موارد، بدون هیچ گونه داده آموزشی یا راهنمائی پیشین، صدمه پذیری های واقعی را شناسایی و از آنها سوءاستفاده کنند. جالب تر آن که وقتی به این عامل ها تنها یک توصیف کوتاه از ماهیت صدمه پذیری عرضه شد، نرخ موفقیت آنها تا ۲۵ درصد افزایش پیدا کرد. این نتایج نه تنها قدرت تحلیلی و تطبیقی بالای عامل های هوش مصنوعی را نشان می دهد، بلکه زنگ خطری برای جامعه امنیت سایبری بشمار می رود و اخطار می دهد عامل های هوشمند، حتی بدون آموزش صریح، می توانند در مقیاسی گسترده به تهدیدات بالفعل تبدیل شوند. سناریوی آینده: جرم بعنوان سرویس مارک استاکلی، کارشناس امنیت شرکت «Malwarebytes»، اخطار می دهد که در آینده ای نه چندان دور، «اکثر حملات سایبری توسط عامل های هوش مصنوعی اجرا خواهند شد». استفاده از عامل ها برای انتخاب اهداف، می تواند باعث افزایش مقیاس حملات با صرف هزینه و نیروی انسانی کمتر شود. بعنوان نمونه، حملات باج افزاری که تابحال نیازمند تخصص بالای انسانی بوده اند، امکان دارد در آینده به سادگی به عامل ها واگذار شوند؛ موضوعی که چشم انداز امنیت سایبری را دگرگون می سازد. به قول استاکلی، «اگر بتوان یک حمله موفق را با یک عامل پیاده سازی کرد، بازتولید آن در مقیاس ۱۰۰ برابر تنها به منابع مالی بستگی دارد.» بعبارت دیگر، استفاده مجرمانه از عامل ها می تواند مفهوم «جرم بعنوان سرویس» را به صورت کامل متحول سازد. ابهام و فوریت در سیاست گذاری کارشناسانی مانند وینچنزو چیانچاگلینی از شرکت «Trend Micro»، در واکنش به نگرانی فزاینده از توسعه عامل های هوش مصنوعی، اعتقاد دارند که ما در آغاز دورانی مشابه دوران ابتدایی عرضه «ChatGPT» در حوزه هوش مصنوعی هستیم، با این تفاوت که تهدیدات عامل ها می توانند بشکلی ناگهانی و بدون اخطار قبلی بروز یابند. به قول او، «شاید در ابتدا از عامل ها فقط جهت جمع آوری اطلاعات استفاده شود، اما این امکان وجود دارد که آنها یک شبه وارد مرحله اجرای کامل زنجیره حمله شوند.» کریس بتز، مدیر ارشد امنیت اطلاعات در شرکت خدمات وب آمازون، تأکید می کند که باآنکه عامل ها روند اجرای حملات را تسریع می کنند، اما ماهیت اصلی حملات همچنان مشابه باقی می ماند. او می گوید: «برخی حملات امکان دارد ساده تر و در نتیجه فراوان تر شوند، اما اصول شناسایی و پاسخ به آنها همچنان پابرجا می باشد.» این نگاه می تواند نقطه اتکایی برای توسعه راهکارهای دفاعی مبتنی بر اصول فعلی باشد. ماهیت دوگانه عوامل هوش مصنوعی در حمله و دفاع سایبری در کنار نگرانی های موجود در رابطه با تهدیدات ناشی از عامل های هوش مصنوعی، برخی محققان چشم انداز متفاوتی را مطرح می کنند که ناظر بر استفاده از همین فناوری برای دفاع از سیستم ها و تقویت امنیت سایبری است. ادواردو دبندتی، پژوهشگر دکترای دانشگاه «ETH» زوریخ، اعتقاد دارد همان خصوصیت هایی که عامل ها را برای مهاجمان جذاب کرده اند، می توانند در خدمت افزایش تاب آوری و ایمن سازی زیرساخت های دیجیتال قرار گیرند. وی به یک اصل کلیدی در امنیت اشاره می کند: «اگر یک عامل دفاعی با سطح قابلیت بالا نتواند هیچ گونه صدمه پذیری را در سامانه مشخصی بیابد، به احتمال زیاد عامل مهاجم با قابلیت مشابه هم نخواهد توانست.» این نگاه، اساس طراحی ابزارهای جدید پیشگیرانه را شکل می دهد که در آن عامل های مدافع به صورت مستمر سامانه ها را بررسی کرده، رفتارهای غیرعادی را شناسایی نموده و با اتخاذ راهبردهای پیش دستانه، از وقوع حملات جلوگیری می کنند. این رویکرد نه تنها به توسعه سامانه های هوشمند واکنشی کمک می نماید، بلکه می تواند مبنایی برای طراحی سامانه های ایمن به شکل پیش فرض (secure by design) فراهم آورد. عامل های دفاعی می توانند مانند یک تیم بازرسی خودکار عمل کرده و به شکل شبانه روزی محیط سیستم را برای نشانه های نفوذ، پویش یا سوءاستفاده بررسی نمایند. این مدل از دفاع فعال، می تواند توازن قوا را در میدان نبرد دیجیتال به نفع مدافعان تغییر دهد. سخن پایانی به زعم قشر بزرگی از متخصصان، عامل های هوش مصنوعی درحال تبدیل شدن به بازیگران جدید و پرقدرت در زمینه امنیت سایبری هستند. در حالیکه بعضی از کاربردهای آنها در مراحل آزمایشی قرار دارد، شواهد نشان داده است که توانایی آنها در اجرای حملات پیچیده و خودگردان واقعی و درحال رشد است. نهادهای سیاست گذار، محققان و شرکتهای امنیت سایبری در چنین شرایطی باید با درک عمیق از این تحولات، به سرعت به توسعه معیارهای نظارتی، ابزارهای دفاعی پیشرفته و چارچوب های اخلاقی اقدام نمایند. غفلت در این حوزه می تواند به فجایع امنیتی منجر شود که مواجهه با آنها نیازمند منابع و زمانی چندبرابر خواهد بود. در نهایت، میتوان نتیجه گرفت که توسعه فناوری باید هم زمان با گسترش مسئولانه سازوکارهای نظارت، دفاع و آموزش کاربران همراه باشد. عصر جدیدی در امنیت سایبری شروع شده است؛ عصری که عامل های هوشمند، هم می توانند مدافع باشند و هم مهاجم. تصمیم این که کدام یک از این نقش ها غالب شود، در گروی انتخاب های امروز جامعه جهانی است.
منبع: وبو