با گسترش هوش مصنوعی ارزان و قدرتمند، خطر گروه‌های ستیزه‌جو افزایش می‌یابد

دوشنبه, 24ام آذر, 1404
اندازه قلم متن

ار اف ای

کارشناسان امنیتی و نهادهای اطلاعاتی آمریکا هشدار داده‌اند که هوش مصنوعی می‌تواند برای سازمان‌های افراطی ابزاری قدرتمند برای جذب نیرو، تولید تصاویر دیپ‌فیک واقع‌گرایانه و بهبود حملات سایبری باشد. نگران‌کننده‌تر، احتمال استفاده گروه‌های ستیزه‌جو از هوش مصنوعی برای جبران کمبود تخصص فنی و کمک به تولید سلاح‌های شیمیایی یا بیولوژیکی است.

خبرگزاری آسوشیتدپرس، امروز دوشنبه ۱۵ دسامبر، در گزارشی نوشت که در حالی که بخش‌های مختلف جهان با شتاب به‌دنبال بهره‌گیری از قدرت هوش مصنوعی هستند، گروه‌های ستیزه‌جو نیز در حال آزمایش این فناوری‌اند؛ حتی اگر دقیقاً مطمئن نباشند که با آن چه کنند.

به گفته کارشناسان امنیت ملی و نهادهای اطلاعاتی آمریکا، داعش -که سال‌ها پیش بخش‌هایی از عراق و سوریه را در اختیار داشت اما اکنون به شبکه‌ای غیرمتمرکز از گروه‌های شبه‌نظامی با ایدئولوژی خشونت‌طلبانه تبدیل شده- از مدت‌ها قبل دریافته بود که شبکه‌های اجتماعی می‌توانند ابزاری قدرتمند برای جذب نیرو و انتشار اطلاعات نادرست باشند. بنابراین، جای تعجب نیست که این گروه اکنون در حال آزمودن هوش مصنوعی است.

گروه‌های افراطی کم‌درآمد و پراکنده یا حتی یک عامل منفرد با دسترسی به اینترنت، می‌توانند هوش مصنوعی را برای تولید انبوهی از تبلیغات یا تصاویر جعلی به کار گیرند؛ امری که دامنه دسترسی و نفوذ را به‌طور چشمگیری افزایش می‌دهد.

ماه گذشته، فردی در یکی از وب‌سایت‌های طرفدار داعش از دیگر هواداران این گروه خواست هوش مصنوعی را به بخشی از عملیات خود تبدیل کنند. این کاربر به زبان انگلیسی نوشت: «یکی از بهترین ویژگی‌های هوش مصنوعی، سهولت استفاده از آن است… برخی از سازمان‌های اطلاعاتی نگران‌اند که هوش مصنوعی به جذب نیرو کمک کند. پس کابوس‌هایشان را به واقعیت تبدیل کنید.»

جان لالیبرته، پژوهشگر سابق آژانس امنیت ملی آمریکا و مدیرعامل کنونی شرکت امنیت سایبری کلیر وکتور، می‌گوید: «برای هر دشمنی، هوش مصنوعی انجام کارها را بسیار آسان‌تر می‌کند. با هوش مصنوعی، حتی یک گروه کوچک که پول زیادی ندارد هم می‌تواند تأثیرگذار باشد.»

گروه‌های افراطی از هوش مصنوعی چه استفاده‌ای می‌کنند؟

گروه‌های ستیزه‌جو از زمانی که برنامه‌هایی مانند چت‌جی‌پی‌تی به‌طور گسترده در دسترس قرار گرفت، شروع به استفاده از هوش مصنوعی کرده و در سال‌های بعد، به‌طور فزاینده‌، از برنامه‌های هوش مصنوعی مولد برای ساخت تصاویر و ویدئوهای جعلی واقع‌گرایانه استفاده کرده‌اند.

زمانی که این محتواهای جعلی با الگوریتم‌های شبکه‌های اجتماعی ترکیب می‌شود، می‌تواند به جذب پیروان جدید، سردرگم کردن یا ترساندن دشمنان و انتشار تبلیغات در مقیاسی کمک کند که تا پیش از این حتی قابل تصور نبود.

چنین گروه‌هایی دو سال پیش تصاویری جعلی از جنگ اسرائیل و حماس را منتشر کردند که نوزادان خون‌آلود و رها شده را در ساختمان‌های بمباران شده نشان می‌داد. گروه‌های خشونت‌طلب در خاورمیانه و همچنین گروه‌های یهودستیز در آمریکا و سایر کشورها از این تصاویر برای جذب نیرو استفاده کردند. این تصاویر باعث خشم و دوقطبی شدن افکار عمومی شد و در عین حال واقعیت‌های هولناک جنگ را پنهان کرد.

سال گذشته نیز پس از حمله‌ یکی از شاخه‌های داعش که نزدیک به ۱۴۰ نفر را در یک سالن کنسرت در روسیه کشت، اتفاق مشابهی رخ داد. در روزهای پس از تیراندازی، ویدیوهای تبلیغاتی گروه‌های افراطی که‌ توسط هوش مصنوعی با هدف جذب نیرو ساخته شده بود به طور گسترده در تالارهای گفتگو و رسانه‌های اجتماعی پخش شد.

به گفته پژوهشگران گروه اطلاعاتی سایت، شرکتی که فعالیت‌های افراط‌گرایانه را رصد می‌کند و در مورد استفاده روزافزون داعش از هوش مصنوعی تحقیق کرده است، داعش علاوه بر این، فایل‌های صوتی جعلی دیپ‌فیکی از رهبران خود در حال تلاوت متون دینی تولید کرده و از هوش مصنوعی برای ترجمه سریع پیام‌های خود به زبان‌های مختلف نیز استفاده کرده است.

با گسترش هوش مصنوعی ارزان و قدرتمند، خطرات افزایش خواهد یافت

به گفته مارکوس فاولر، مأمور سابق سیا و مدیرعامل کنونی دارک‌تریس، شرکت امنیت سایبری که با دولت آمریکا همکاری می‌کند، گروه‌های افراطی هنوز از نظر استفاده از هوش مصنوعی از کشورهایی مانند چین، روسیه یا ایران عقب‌ترند و کاربردهای پیچیده‌تر هوش مصنوعی برایشان «الهام بخش» است.

با این حال، او تأکید می‌کند که خطرات آن‌قدر جدی است که نمی‌توان آنها را نادیده گرفت و احتمالاً با گسترش استفاده از هوش مصنوعی ارزان و قدرتمند، افزایش نیز خواهد یافت.

هکرها هم‌اکنون از صدا و تصاویر جعلی برای حملات فیشینگ استفاده می‌کنند؛ حملاتی که در آن تلاش می‌کنند با جعل هویت یک مقام ارشد دولتی یا تجاری، به شبکه‌های حساس دسترسی پیدا کنند. آن‌ها همچنین می‌توانند از هوش مصنوعی برای نوشتن کدهای مخرب یا خودکارسازی بخش‌هایی از حملات سایبری استفاده کنند. نگران‌کننده‌تر، احتمال استفاده گروه‌های ستیزه‌جو از هوش مصنوعی برای جبران کمبود تخصص فنی و کمک به تولید سلاح‌های شیمیایی یا بیولوژیکی است؛ خطری که‌ در ارزیابی به‌روزشده تهدیدات داخلی وزارت امنیت داخلی آمریکا که اوایل امسال منتشر شد، ذکر شده است.

مقابله با یک تهدید رو به رشد

قانونی که ماه گذشته در مجلس نمایندگان تصویب شد، وزارت امنیت داخلی آمریکا را ملزم می‌کند که هر سال خطرات ناشی از استفاده چنین گروه‌هایی از هوش مصنوعی را ارزیابی کند.

در جلسه استماع اخیر مجلس نمایندگان آمریکا در مورد تهدیدهای افراط‌گرایان، قانونگذاران این کشور مطلع شدند که گروه‌های داعش و القاعده برای کمک به هواداران خود در یادگیری استفاده از هوش مصنوعی، کارگاه‌های آموزشی برگزار کرده‌اند.

قانون‌گذاران آمریکا چندین پیشنهاد مطرح کرده‌ و می‌گویند نیاز به اقدام فوری وجود دارد.

به گفته سناتور مارک وارنر از ایالت ویرجینیا، دموکرات ارشد کمیته اطلاعات سنا، آمریکا باید به توسعه‌دهندگان هوش مصنوعی کمک کند تا اطلاعات مربوط به سوءاستفاده از محصولاتشان توسط عوامل مخرب -چه افراط‌گرایان، چه هکرها و چه جاسوسان خارجی- را به‌راحتی به اشتراک بگذارند. او می‌گوید: «از اواخر سال ۲۰۲۲ و با انتشار عمومی چت‌جی‌پی‌تی، کاملاً مشخص بود که همان علاقه و آزمایشی که عموم مردم نسبت به هوش مصنوعی مولد نشان داده‌اند، در میان طیفی از عوامل مخرب هم وجود خواهد داشت.»


به کانال تلگرام سایت ملیون ایران بپیوندید

برچسب‌ها:

هنوز نظری اضافه نشده است. شما اولین نظر را بدهید.