
ار اف ای
کارشناسان امنیتی و نهادهای اطلاعاتی آمریکا هشدار دادهاند که هوش مصنوعی میتواند برای سازمانهای افراطی ابزاری قدرتمند برای جذب نیرو، تولید تصاویر دیپفیک واقعگرایانه و بهبود حملات سایبری باشد. نگرانکنندهتر، احتمال استفاده گروههای ستیزهجو از هوش مصنوعی برای جبران کمبود تخصص فنی و کمک به تولید سلاحهای شیمیایی یا بیولوژیکی است.
خبرگزاری آسوشیتدپرس، امروز دوشنبه ۱۵ دسامبر، در گزارشی نوشت که در حالی که بخشهای مختلف جهان با شتاب بهدنبال بهرهگیری از قدرت هوش مصنوعی هستند، گروههای ستیزهجو نیز در حال آزمایش این فناوریاند؛ حتی اگر دقیقاً مطمئن نباشند که با آن چه کنند.
به گفته کارشناسان امنیت ملی و نهادهای اطلاعاتی آمریکا، داعش -که سالها پیش بخشهایی از عراق و سوریه را در اختیار داشت اما اکنون به شبکهای غیرمتمرکز از گروههای شبهنظامی با ایدئولوژی خشونتطلبانه تبدیل شده- از مدتها قبل دریافته بود که شبکههای اجتماعی میتوانند ابزاری قدرتمند برای جذب نیرو و انتشار اطلاعات نادرست باشند. بنابراین، جای تعجب نیست که این گروه اکنون در حال آزمودن هوش مصنوعی است.
گروههای افراطی کمدرآمد و پراکنده یا حتی یک عامل منفرد با دسترسی به اینترنت، میتوانند هوش مصنوعی را برای تولید انبوهی از تبلیغات یا تصاویر جعلی به کار گیرند؛ امری که دامنه دسترسی و نفوذ را بهطور چشمگیری افزایش میدهد.
ماه گذشته، فردی در یکی از وبسایتهای طرفدار داعش از دیگر هواداران این گروه خواست هوش مصنوعی را به بخشی از عملیات خود تبدیل کنند. این کاربر به زبان انگلیسی نوشت: «یکی از بهترین ویژگیهای هوش مصنوعی، سهولت استفاده از آن است… برخی از سازمانهای اطلاعاتی نگراناند که هوش مصنوعی به جذب نیرو کمک کند. پس کابوسهایشان را به واقعیت تبدیل کنید.»
جان لالیبرته، پژوهشگر سابق آژانس امنیت ملی آمریکا و مدیرعامل کنونی شرکت امنیت سایبری کلیر وکتور، میگوید: «برای هر دشمنی، هوش مصنوعی انجام کارها را بسیار آسانتر میکند. با هوش مصنوعی، حتی یک گروه کوچک که پول زیادی ندارد هم میتواند تأثیرگذار باشد.»
گروههای افراطی از هوش مصنوعی چه استفادهای میکنند؟
گروههای ستیزهجو از زمانی که برنامههایی مانند چتجیپیتی بهطور گسترده در دسترس قرار گرفت، شروع به استفاده از هوش مصنوعی کرده و در سالهای بعد، بهطور فزاینده، از برنامههای هوش مصنوعی مولد برای ساخت تصاویر و ویدئوهای جعلی واقعگرایانه استفاده کردهاند.
زمانی که این محتواهای جعلی با الگوریتمهای شبکههای اجتماعی ترکیب میشود، میتواند به جذب پیروان جدید، سردرگم کردن یا ترساندن دشمنان و انتشار تبلیغات در مقیاسی کمک کند که تا پیش از این حتی قابل تصور نبود.
چنین گروههایی دو سال پیش تصاویری جعلی از جنگ اسرائیل و حماس را منتشر کردند که نوزادان خونآلود و رها شده را در ساختمانهای بمباران شده نشان میداد. گروههای خشونتطلب در خاورمیانه و همچنین گروههای یهودستیز در آمریکا و سایر کشورها از این تصاویر برای جذب نیرو استفاده کردند. این تصاویر باعث خشم و دوقطبی شدن افکار عمومی شد و در عین حال واقعیتهای هولناک جنگ را پنهان کرد.
سال گذشته نیز پس از حمله یکی از شاخههای داعش که نزدیک به ۱۴۰ نفر را در یک سالن کنسرت در روسیه کشت، اتفاق مشابهی رخ داد. در روزهای پس از تیراندازی، ویدیوهای تبلیغاتی گروههای افراطی که توسط هوش مصنوعی با هدف جذب نیرو ساخته شده بود به طور گسترده در تالارهای گفتگو و رسانههای اجتماعی پخش شد.
به گفته پژوهشگران گروه اطلاعاتی سایت، شرکتی که فعالیتهای افراطگرایانه را رصد میکند و در مورد استفاده روزافزون داعش از هوش مصنوعی تحقیق کرده است، داعش علاوه بر این، فایلهای صوتی جعلی دیپفیکی از رهبران خود در حال تلاوت متون دینی تولید کرده و از هوش مصنوعی برای ترجمه سریع پیامهای خود به زبانهای مختلف نیز استفاده کرده است.
با گسترش هوش مصنوعی ارزان و قدرتمند، خطرات افزایش خواهد یافت
به گفته مارکوس فاولر، مأمور سابق سیا و مدیرعامل کنونی دارکتریس، شرکت امنیت سایبری که با دولت آمریکا همکاری میکند، گروههای افراطی هنوز از نظر استفاده از هوش مصنوعی از کشورهایی مانند چین، روسیه یا ایران عقبترند و کاربردهای پیچیدهتر هوش مصنوعی برایشان «الهام بخش» است.
با این حال، او تأکید میکند که خطرات آنقدر جدی است که نمیتوان آنها را نادیده گرفت و احتمالاً با گسترش استفاده از هوش مصنوعی ارزان و قدرتمند، افزایش نیز خواهد یافت.
هکرها هماکنون از صدا و تصاویر جعلی برای حملات فیشینگ استفاده میکنند؛ حملاتی که در آن تلاش میکنند با جعل هویت یک مقام ارشد دولتی یا تجاری، به شبکههای حساس دسترسی پیدا کنند. آنها همچنین میتوانند از هوش مصنوعی برای نوشتن کدهای مخرب یا خودکارسازی بخشهایی از حملات سایبری استفاده کنند. نگرانکنندهتر، احتمال استفاده گروههای ستیزهجو از هوش مصنوعی برای جبران کمبود تخصص فنی و کمک به تولید سلاحهای شیمیایی یا بیولوژیکی است؛ خطری که در ارزیابی بهروزشده تهدیدات داخلی وزارت امنیت داخلی آمریکا که اوایل امسال منتشر شد، ذکر شده است.
مقابله با یک تهدید رو به رشد
قانونی که ماه گذشته در مجلس نمایندگان تصویب شد، وزارت امنیت داخلی آمریکا را ملزم میکند که هر سال خطرات ناشی از استفاده چنین گروههایی از هوش مصنوعی را ارزیابی کند.
در جلسه استماع اخیر مجلس نمایندگان آمریکا در مورد تهدیدهای افراطگرایان، قانونگذاران این کشور مطلع شدند که گروههای داعش و القاعده برای کمک به هواداران خود در یادگیری استفاده از هوش مصنوعی، کارگاههای آموزشی برگزار کردهاند.
قانونگذاران آمریکا چندین پیشنهاد مطرح کرده و میگویند نیاز به اقدام فوری وجود دارد.
به گفته سناتور مارک وارنر از ایالت ویرجینیا، دموکرات ارشد کمیته اطلاعات سنا، آمریکا باید به توسعهدهندگان هوش مصنوعی کمک کند تا اطلاعات مربوط به سوءاستفاده از محصولاتشان توسط عوامل مخرب -چه افراطگرایان، چه هکرها و چه جاسوسان خارجی- را بهراحتی به اشتراک بگذارند. او میگوید: «از اواخر سال ۲۰۲۲ و با انتشار عمومی چتجیپیتی، کاملاً مشخص بود که همان علاقه و آزمایشی که عموم مردم نسبت به هوش مصنوعی مولد نشان دادهاند، در میان طیفی از عوامل مخرب هم وجود خواهد داشت.»