هشدار دیدبان تروریسم: هوش مصنوعی تهدیدی برای امنیت ملی کشورها است


هشدار دیدبان تروریسم: هوش مصنوعی تهدیدی برای امنیت ملی کشورها است

ایتنا - هوش مصنوعی می‌تواند به تروریست‌ها در انتخاب اهداف خود کمک کند.


گاردین به نقل از جاناتان هال کی‌سی، مدیر این نهاد مستقر در بریتانیا، نوشت که تهدید‌های امنیتی هوش مصنوعی روز‌ به ‌روز آشکارتر می‌شود و در پیش‌برد این فناوری باید ملاحظات و نیات تروریست‌ها را در نظر داشت.

به گزارش ایتنا و به نقل از ایندیپندنت، به گفته جاناتان هال کی‌سی، در توسعه بیش از اندازه هوش مصنوعی عمدتا بر نکات بالقوه مثبت این فناوری تمرکز شده و در این مسیر از چگونگی استفاده احتمالی تروریست‌ها از آن برای حملات غفلت شده است.

گاردین در ادامه به نقل از هال نوشت که سازندگان هوش مصنوعی باید در کنار خود یک نئو‌نازی ۱۵ ساله دو آتشه داشته باشند تا تهدیدهای بالقوه این فناوری را بهتر درک کنند.

دیدبان تروریسم که به‌طور مستقل به بازبینی قوانین دولت بریتانیا در زمینه تروریسم می‌پردازد، نگرانی فزاینده خود را از دامنه ربات‌های چت هوش مصنوعی برای متقاعد کردن افراد آسیب‌پذیر و یا افراد دارای طیف متنوعی از عملکردهای عصبی برای انجام حملات تروریستی ابراز کرده است.

جاناتان هال در ادامه می‌افزاید: «تلقین‌پذیری انسان‌های غوطه‌ور در دنیای دیجیتال و فناوری‌های نوین نگران کننده است. این فناوری‌ها به کمک زبان مخاطبان خود را به اقداماتی ترغیب می‌کنند. از همین رو، امنیت جامعه می‌تواند به شدت به خطر بیفتد.»

به گفته دیدبان تروریسم، برای مقابله با نوع تازه‌ای از تهدیدهای تروریستی مرتبط با هوش مصنوعی نیاز به تدوین قوانین تازه‌ای است. از آنجایی که هوش مصنوعی می‌تواند در انتخاب اهداف تروریست‌ها به‌غایت کاربردی باشد، مقررات موثر و دارای ضمانت اجرا می‌تواند تا اندازه‌ای خطر فزاینده سلاح‌های مرگبار خودکار را مهار کند.

فاصله میان پیشرفت فناوری‌های جدید و قوانین ناظر بر آن همواره محل بحث و نگرانی‌های سازمان‌های مدافع صلح و امنیت بوده است. با رشد فزاینده فناوری‌ها در حوزه ربات‌ها از یک‌سو و از فناوری‌های ارتباطی از سوی دیگر، نوع تازه‌ای از تهدید‌های تروریستی ظهور یافته که به شدت مایه نگرانی شده است.



برای مثال دور از ذهن نیست که یک پهپاد کوچک کاملا خودکار از مکانی نامعلوم برای حمله به هدفی مشخص به پرواز درآید و با کمک فناوری هوش مصنوعی در لحظه‌ای مناسب هدف را شناسایی و حمله انجام شود، و هیچ اثری از خود باقی نگذارد. این حمله می‌تواند در روز روشن و در میان جمعیتی در میدان شهر روی دهد، طوری که هیچ کس نتواند حدس بزند هوش مصنوعی قرار است در لحظه چه تصمیمی بگیرد و چه کسی یا کسانی را هدف قرار دهد.

واقعیت این است که قوانین بازدارنده در این زمینه و دستگاه‌های ناظر بر چنین فناوری‌هایی تاخیر نسبتا زیادی دارند.

پیش از این، تسلیحات مرگبار خودکار در نبرد اوکراین عرض اندام کرده‌ بود و سوال‌های جدی اخلاقی در مورد پیامدهای ماشین کشتار خودکار مطرح شده است.

در بریتانیا، سازمان اطلاعات داخلی (ام‌آی۵) و موسسه آلن تورینگ، نهاد ملی علم داده‌ها و هوش مصنوعی در حال انجام اقداماتی برای مقابله با چالش‌های امنیتی ناشی از هوش مصنوعی هستند.

همان‌طور که الکساندر بلانچارد، محقق اخلاق دیجیتال در برنامه دفاعی و امنیتی این مؤسسه می‌گوید، هوش مصنوعی در تعامل با محیط می‌تواند یاد بگیرد و خود را سازگار کند.

توجه به هم‌بودگی این سه عامل یعنی تعامل، یادگیری و سازگاری با محیط، ویژگی حیرت‌انگیز هوش مصنوعی نشان می‌دهد که بشر با چه تهدید جدی روبه‌روست. در کنار مزایای هوش مصنوعی، به نظر می‌رسد اتخاذ تدابیر نظارتی بر هوش مصنوعی از ضرورتی انکارناپذیر برخوردار است، تا این تازه‌ترین فناروی بشری به ماری در آستین، و بلای عصر نوین تبدیل نشود.


روی کلید واژه مرتبط کلیک کنید

بیشترین بازدید یک ساعت گذشته

دیدن پورن توسط بچه ها، چگونه برخورد کنیم؟