هوش مصنوعی GPT-4 فقط با خواندن توصیه‌های امنیتی هر سیستمی را هک می‌کند!


هوش مصنوعی GPT-4 فقط با خواندن توصیه‌های امنیتی هر سیستمی را هک می‌کند!

تحقیقات جدید انجام شده نشان می‌دهد که مدل زبانی بزرگGPT-4 که توسط شرکت OpenAI توسعه یافته می‌تواند با موفقیت از آسیب‌پذیری‌های امنیت سایبری سوء استفاده می‌کند؛ حتی بهتر و سریع‌تر از برترین متخصصان انسانی. ظاهراً این ویژگی به تازگی به انبوه...

تحقیقات جدید انجام شده نشان می‌دهد که مدل زبانی بزرگGPT-4 که توسط شرکت OpenAI توسعه یافته می‌تواند با موفقیت از آسیب‌پذیری‌های امنیت سایبری سوء استفاده می‌کند؛ حتی بهتر و سریع‌تر از برترین متخصصان انسانی. ظاهراً این ویژگی به تازگی به انبوه قابلیت‌های این مدل اضافه شده و به مرور حتی از بهتر از عملکرد بسیار خوب فعل نیز خواهد شد.

هوش مصنوعی بار دیگر با قابلیت‌های شگفت‌انگیز خود، دنیای فناوری را متحیر کرده است. این بار، GPT-4، جدیدترین مدل زبانی توسعه یافته توسط OpenAI، در کانون توجهات قرار گرفته است.

بنابر گزارش The Register، محققان دانشگاه ایلینوی Urbana-Champaign (UIUC) اخیراً مقاله‌ای را در خصوص توانایی‌های چندین مدل زبان بزرگ (LLM) در زمینه شناسایی و استفاده از آسیب‌پذیری‌های امنیتی تراشه‌های پردازشی مورد استفاده در دستگاه‌ها مختلف منتشر کرده‌اند که به نتایج عجیبی منجر شده است.

چرا GPT-4 می‌تواند بهتر از بهترین هکرها باشد؟

بنابر داده‌ها به دست آمده، در این آزمون‌ها، مدل زبانی بزرگ GPT-4 تنها با شرحی که توسط اطلاعات مندرج در پایگاه داده عمومی مسائل امنیتی رایج یا همان CVE استخراج شده، با موفقیتی 87 درصدی آسیب‌پذیری‌های مورد هدف را شناسایی کرده و با تنظیم حملات موفق، از آنها برای رسیدن به اهداف امنیتی مد نظر، استفاده کند.

این درصد موفقیت بسیار چشم‌گیر و قابل توجه است و طبق اعلام گروه پژوهشی مذکور، هیچ مدل دیگری از جمله GPT-3.5، OpenHermes-2.5-Mistral-7B، Llama-2 Chat (70B)، و ... تا به این حد عملکرد دقیق و موفقیت‌آمیزی در استفاده از آسیب‌پذیری‌ها را به ثبت نرسانده است. جالب است که طبق اعلام این تیم، برخی از برنامه‌هایی اسکنر آسیب پذیری هدفمند، حتی یک بار هم نتوانستند با موفقیت از آسیب پذیری های ارائه شده سوء استفاده کنند ولی GPT-4 و بسیاری از مدل‌های زبانی به مراتب ساده‌تر در اکثر تست‌ها، به راحتی موفق به اکسپلویت آسیب‌پذیری‌ها شده‌اند.

این قابلیت، زنگ خطری را برای امنیت سایبری به صدا درآورده و نگرانی‌هایی را در مورد سوءاستفاده از این هوش مصنوعی قدرتمند توسط مجرمان سایبری به وجود آورده است.

در بخش دیگری از این مقاله، تیم بررسی، دلیل این موفقیت GPT-4 را توانایی منحصر به فرد آن در درک و پردازش حجم عظیمی از داده‌ها و اطلاعات فنی مربوط به تراشه‌ها و آسیب‌پذیری‌های آنها استنباط کرده‌ است. ظاهراً مدل زبانی بزرگ GPT-4 با تجزیه و تحلیل داده‌ها CVE، الگوهایی را شناسایی می‌کند که نشان‌دهنده وجود نقاط ضعف در طراحی یا عملکرد تراشه‌ها هستند و در مرحله بعدی، با بررسی دقیق الگوریتم‌های نفوذ و تطابق آنها با محدودیت‌های آسیب‌پذیری، راه استفاده از آنها را با درصد صحت بالایی حدس می‌زند.

هوش مصنوعی با هزینه بسیار کمتر از انسان، دست به کاری می‌زند که انسان‌ها حتی قادر به انجام آن نیستند.

با فرض اینکه یک کارشناس امنیت سایبری ساعتی 50 دلار (در آمریکا) دستمزد می‌گیرد، این مقاله بیان می‌کند که هوش مصنوعی همین حالا هم بسیار ارزان‌تر از انسان عمل می‌کند:

استفاده از یک عامل LLM (برای بهره برداری از آسیب‌پذیری‌های امنیتی) در حال حاضر 2.8 برابر ارزان‌تر از نیروی کار انسانی است. علاوه بر این عوامل LLM بر خلاف نیروی کار انسانی، می‌توانند ساعت‌ها بدون استراحت کار کرده و تا به جواب نرسند، دست از کار نکشند!

این مقاله همچنین تخمین می‌زند که LLM‌های آینده مانند GPT-5 در این توانایی‌ها و شاید در مهارت‌های کشف قوی‌تر خواهند شد. با توجه به پیامدهای عظیم آسیب پذیری های گذشته، مانند Spectre و Meltdown، که هنوز در ذهن دنیای فناوری وجود دارد، نیاز به توجه ویژه به خطرات امنیت مدل‌های هوش مصنوعی توسط شرکت‌های توسعه دهنده و همزمان، هوش مصنوعی مقابله کننده با آن بیشتر از پیش احساس می‌شود.

مزایا و معایب این روح شیطانی GPT-4 چیست؟

با وجود این که این قابلیت GPT-4 می‌تواند تهدیدی جدی برای امنیت سایبری به شمار آید، اما پتانسیل‌های مثبتی نیز برای آن متصور است. متخصصان امنیت سایبری می‌توانند از این هوش مصنوعی برای شناسایی و رفع سریع‌تر آسیب‌پذیری‌های تراشه‌ها قبل از سوءاستفاده توسط مجرمان سایبری استفاده کنند.

علاوه بر این،GPT-4 می‌تواند برای طراحی تراشه‌های امن‌تر و مقاوم‌تر در برابر حملات سایبری به کار گرفته شود.

با این حال، چالش‌های مهمی نیز در رابطه با استفاده از GPT-4 برای ارتقای امنیت سایبری وجود دارد. یکی از این چالش‌ها، امکان سوءاستفاده از این هوش مصنوعی توسط هکرها برای طراحی و اجرای حملات سایبری پیچیده‌تر و مخرب‌تر است.

چالش دیگر، تضمین شفافیت و قابل اعتماد بودن عملکرد GPT-4 است. با توجه به ماهیت پیچیده این هوش مصنوعی، درک نحوه عملکرد دقیق آن و اطمینان از عدم وجود سوگیری یا خطا در نتایج آن دشوار است.

در نهایت، استفاده از GPT-4 برای ارتقای امنیت سایبری نیازمند قوانین و مقررات مدون و نظارت دقیق برای جلوگیری از سوءاستفاده از آن است.

در مجموع،GPT-4 یک ابزار قدرتمند با پتانسیل‌های مثبت و منفی در حوزه امنیت سایبری است. استفاده مسئولانه و اخلاقی از این هوش مصنوعی و تدوین چارچوب‌های قانونی مناسب برای نظارت بر آن، ضروری است تا از به کارگیری آن برای مقاصد مخرب جلوگیری شود

حتما بخوانید: سایر مطالب گروه فناوری

برای مشاهده فوری اخبار و مطالب در کانال تلگرام ما عضو شوید!


منتخب امروز

بیشترین بازدید یک ساعت گذشته


دانلود آهنگ خاص و بی نظیر اجتماعی سارینا از شاهین نجفی