خط فقر امنیت سایبری جابهجا میشود؟
اجلاس سالانه امنیت سایبری با عنوان Aspen Cyber Summit ۲۰۲۳ چهارشنبه هفته گذشته در نیویورک برگزار شد. در این رویداد که یکی از مهمترین گردهماییها برای بررسی موضوعات مرتبط با امنیت فضای سایبری به حساب میآید، کارشناسان و مدیرانی از...
اجلاس سالانه امنیت سایبری با عنوان Aspen Cyber Summit ۲۰۲۳ چهارشنبه هفته گذشته در نیویورک برگزار شد.
در این رویداد که یکی از مهمترین گردهماییها برای بررسی موضوعات مرتبط با امنیت فضای سایبری به حساب میآید، کارشناسان و مدیرانی از شاخصترین شرکتهای فناوری جهان، نهادهای دولتی و دانشگاهی حضور پیدا کردند و در قالب سخنرانیها و پنلهای تخصصی، به بحث درباره مهمترین چالشهای این حوزه پرداختند. هوش مصنوعی که این روزها یکی از داغترین موضوعات در دنیای فناوری به حساب میآید نیز محور بسیاری از گفتوگوهای این رویداد قرار گرفت. در یکی از پنلهای برگزار شده در این رویداد که بر آینده امنیت سایبری شرکتها با ظهور فناوریهای جدید تمرکز داشت، پیشبینی شد که احتمالا هوش مصنوعی تعریف خط فقر امنیت سایبری در شرکتها را تغییر دهد و سازمانهایی که توان مالی و فنی لازم برای همگام شدن با آخرین پیشرفتهای هوش مصنوعی را نداشته باشند، با بحرانهایی جدی در زمینه حفاظت از دادهها در برابر هکرها مواجه شوند.
پیشیگرفتن خطرات از مزیتها
بر اساس گزارش والاستریتژورنال از این رویداد، کارشناسان ارشد و سرویسدهندگان خدمات دیجیتال معتقدند که سیستمهای مبتنی بر هوش مصنوعی-به خصوص هوش مصنوعی مولد- به توانایی ویژهای در حفاظت از سیستمهای سازمانها در برابر هکرها دست پیدا خواهند کرد. این مساله هم میتواند در یافتن آسیبپذیریها و برجسته کردن فایلهای خطرناک در میان خیل عظیم دادهها موثر باشد و هم به ارائه ابزارهای مناسب برای تحلیل بهتر سیستمها در برابر خطرات بالقوه کمک کند. با اینحال مساله این است که اساسا همه شرکتها به چنین سیستمهای پیشرفتهای دسترسی ندارند و این ابزارها صرفا در اختیار سازمانهای ثروتمندی قرار خواهد داشت که هر ساله بودجههای قابلتوجهی را به مساله امنیت سایبری شرکت و کاربرانش تخصیص میدهند.
شان جویس، از مدیران سرشناس در حوزه امنیت سایبری و حفاظت از حریم خصوصی که در قامت رگولاتور ارشد شرکت خدمات مشاورهای PricewaterhouseCoopers نیز فعال است، در یکی از پنلهای تخصصی این رویداد که به همت موسسه غیرانتفاعی Aspen برگزار شده بود، تصریح کرد: «با شرایط موجود، اکنون این نگرانی وجود دارد که در اختیار داشتن یا نداشتن سیستمهای مبتنی بر هوش مصنوعی مولد، امنیت سایبری شرکتها را گرفتار یک دوقطبی کند.» وی در تشریح دلیل نگرانی خود از روند پیشرو گفت: «در حالی که سیستمهای مبتنی بر هوش مصنوعی میتوانند در بهبود سیستمهای امنیتی شرکتها به متخصصان این حوزه کمک شایانی کنند، اما در عین حال امکانات مشابهی نیز در اختیار هکرها میگذارند که دست آنها را در ایجاد ایمیلهای فیشینگ شخصیسازی شده باز میگذارد. از آنجا که این پیامها به لطف هوش مصنوعی، عاری از هر خطای گرامری و نوشتاری شاخصی هستند که معمولا به مخاطب ایمیلها در شناخت این پیامهای جعلی کمک میکنند، شانس هکرها برای به دام انداختن قربانیان احتمالی را به میزان قابلتوجهی بالا میبرد.»
به عبارتی، هر دسترسی همزمان هکرها و کارشناسان امنیتی شرکتها به فناوریهای خاصی که به تشخیص دقیقتر آسیبپذیریها میانجامد، راه را برای ایجاد مزیت ویژه در بهبود سیستمهای امنیتی شرکتها میبندد. هیثر ادکینز، نایب رئیس بخش مهندسی امنیتی شرکت گوگل، در بخشی از سخنان خود در این پنل تاکید کرد: «در واقع پیشرفتی که اخیرا در بهرهبرداری هکرها از آسیبپذیریهای روز صفر ایجاد شده، مستقیما متاثر از همین پیشرفتهایی است که در پلتفرمهای هوش مصنوعی ایجاد شده است.» آسیبپذیری روز صفر یا همانZero-Day، به ریسکهای امنیتی موجود در سیستمهای نرمافزاری سازمانها اشاره دارد که به صورت عمومی شناخته شده نیستند و شرکت سازنده از آنها آگاهی ندارد؛ در نتیجه، مهاجم از این آسیبپذیریها برای دسترسی به سیستم آسیبپذیر استفاده میکند. ادکینز معتقد است: «بسیاری از سازمانهای کوچک - مثلا یک کلینیک دندانپرشکی- از کامپیوترهایی استفاده میکنند که سیستمعامل آنها مرتبا بهروزرسانی نمیشود. در چنین شرایطی، ریسکهای حاصل از توسعه هوش مصنوعی، از پیشرفت فناورانه آن سازمان کوچک پیشی میگیرد و راه برای ظهور و بروز خطرات جدی در امنیت دادههای آن مجموعه باز میشود.»
بیم و امید موجود برای حوزه هوش مصنوعی به حدی است که آژانس امنیت زیرساختی و سایبری روز دوشنبه هفته گذشته با انتشار یک مجموعه استراتژی، به تشریح چگونگی بهکارگیری هوش مصنوعی و بهرهبرداری از آن برای دستیابی به راهکاری برای حفاظت از زیرساختهای حیاتی در برابر هکهایی پرداخت که بر مبنای هوش مصنوعی توسعه یافتهاند. این آژانس - که بخشی از دپارتمان امنیت ملی آمریکاست- در اطلاعیه خود تصریح کرده است که به همکاری با دیگر آژانسهای دولتی و بخشهای خصوصی برای توسعه، تست و ارزیابی ابزارهای مناسب ادامه خواهد داد.
با این حال، طبیعت دوگانه کاربردهای فناورانه کار را به جایی میرساند که در نهایت سازمانهایی که منابع مالی و مهارتهای فنی کافی برای درک ساختارهای مبتنی بر هوش مصنوعی و بهرهبرداری از آنها برای مقابله با خطرات برخاسته از همین پیشرفتهای فناورانه را در اختیار ندارند، محکوم به مواجهه با چالشها و بحرانهای جدی باشند. حتی سخنرانان حاضر در این پنل معتقدند که این مساله، حتی برای شرکتهایی که توانمندی کافی برای مدیریت چنین مسائلی را دارند نیز چالشی جدی به حساب خواهد آمد.
با این حال جامیکا گرین آرون، افسر ارشد امنیت اطلاعات شرکت مدیریت هویت اوکتا، همچنان به توانمندیهای حاصل از توسعه هوش مصنوعی امیدوار است و میگوید: با قابلیتهایی که توسعه هوش مصنوعی در زمینه بازبینی و رفع اشکال کدها و حتی کدنویسی در اختیارمان قرار میدهد، دفاع از سازمانها در برابر ناشناختهها به امری جذاب و هیجانانگیز برای ما تبدیل میشود.
آسیبهای انتخاباتی هوش مصنوعی
در کنار این رویداد که با تمرکز بر تاثیرات امنیتی توسعه هوش مصنوعی برگزار شد، روز چهارشنبه رویداد دیگری نیز با عنوان اجلاس همکاریهای اقتصادی آسیا-اقیانوسیه (Asia-Pacific Economic Cooperation Summit) در شهر سانفرانسیسکو در جریان بود که برخی از مدیران شرکتهای مطرح فناوری، با حضور در پنلهایی به بررسی موضوع سلامت انتخابات پیشروی آمریکا در سایه تاثیرات هوش مصنوعی بر فضای مجازی پرداختند. در همین راستا، سم آلتمن، مدیرعامل شرکت Open AI - که مالک سرویس چت جیپیتی است- در حاشیه صحبتهای خود در یکی از پنلهای این رویداد، به تشریح اهمیت هوش مصنوعی برای آینده بشریت پرداخت و گفت: «اکنون بشر در مسیر خودتخریبی قرار دارد و اگر بنا باشد برای دهها، صدها یا میلیونها سال به شکوفایی ادامه دهد، هوش مصنوعی میتواند به عنوان یکی از راهکارهای جدی در نظر گرفته شود.» آلتمن که در این پنل در همراهی با کریس کاکس از شرکت متا و جیمز ماینکا از گوگل صحبت میکرد، در حاشیه صحبتهایی که معطوف به ستایش آینده هوش مصنوعی بود، نیمنگاهی به خطرات این فناوری داشت و از تاثیرات آن بر انتخابات پیشرو در آمریکا سخن گفت.
آلتمن معتقد است: «وقتی صحبت از انتخابات و برگزاری سالم آن به میان میآید، خطرات ناشی از فناوریهای هوش مصنوعی، با آنچه تا امروز در قالب عکسها و ویدئوهای جعلی مشاهده کرده و آن چیزی که میتوانیم تصور کنیم بسیار متفاوت است و باید انتظار بروز آسیبهای جدی در ژانری کاملا متفاوت را داشته باشیم.» مدیرعاملOpen AI افزود: «یکی از خطرات هوش مصنوعی که هنوز نسبتا برای ما ناشناخته است و به درستی نمیدانیم چگونه عمل خواهد کرد، تاثیراتی است که این فناوری میتواند در متقاعدسازی افراد و پیادهسازی شخصیسازی شده تکنیکهای آن ایجاد کند.»
کاکس نیز در صحبتهای خود با اشاره به اینکه شرکت متا برنامه متمرکزی را برای مدیریت فضای رسانه در دوره انتخابات پیشرو تدارک دیده است، تاکید کرد: «باید توجه داشته باشیم که همانطور که فناوریهای هوش مصنوعی میتوانند به تشدید ظهور مسائلی در زمینه اطلاعرسانی غلط و شایعه کمک کند، میتواند در کشف محتوای مضر و مشکوک پیش از انتشار در سطح وسیع نیز کارآیی داشته باشد.» با اینحال وی توضیح بیشتری درباره اینکه رویکرد این شرکت در کنترل فضای رسانه در برابر سوءاستفاده از فناوری در زمان برگزاری این رخداد مهم چه خواهد بود ارائه نداد و فقط گفت: «به ما اعتماد کنید».
آلتمن که در مدت اخیر اظهاراتی پیرامون ضرورت بهکارگیری برخی نظارتهای دولتی برای کنترل فناوریهای مرتبط با هوش مصنوعی داشته است، در جمعبندی صحبتهای خود در این پنل تاکید کرد: «در شرایط حاضر، هنوز نیاز به اعمال تغییراتی جدی در بحث رگولاتوری این حوزه در حضور نسخههای فعلی سیستمهای مبتنی بر این فناوری نیست. اما بدون شک در آینده نه چندان دور، این نیاز شکل جدیتری به خود خواهد گرفت.»
به نظر میرسد اکنون میان بزرگترین فعالان حوزه تکنولوژی، این اتفاق نظر وجود دارد که هوش مصنوعی فضای مجازی را به کلی دستخوش تغییر خواهد کرد و باید پیش از آنکه با خطرات توسعه این فناوری غافلگیر شویم، نسبت به بروز و مواجهه با آنها آگاه باشیم.