وقتی قوانین به گرد ماشین‌های فردا نمی‌رسند؛ فرصت‌های طلایی برای دیکتاتورها

پنجشنبه, 27ام آذر, 1404
اندازه قلم متن

اردوان روزبه

اردوان روزبه، ایران‌اینترنشنال

چندی پیش ترامپ حکمی اجرایی را امضا کرد که هدف آن یک‌پارچه‌سازی مسیر قانون‌گذاری هوش مصنوعی در آمریکا و جلوگیری از تدوین مقررات جداگانه در سطح ایالت‌هاست؛ اقدامی که کاخ سفید آن را تلاشی برای محافظت از صنعت هوش مصنوعی در برابر «وصله‌پینه‌ای از مقررات دست‌وپاگیر» توصیف کرده است.

این تصمیم در بستر رقابتی اتخاذ شد که واشینگتن آن را رقابت مستقیم برای برتری فناورانه با چین می‌بیند. هم‌زمان، مصطفی سلیمان، مدیر توسعه هوش مصنوعی مایکروسافت، هشدار داده است که گسترش هوش مصنوعی بدون کنترل می‌تواند آینده‌ای خطرناک رقم بزند. اما خطر اصلی نه فقط در نبود مقررات، بلکه در این واقعیت نهفته است که بیشترین بهره از این خلا، نصیب حکومت‌های دیکتاتور می‌شود که اساسا به اخلاق، پاسخ‌گویی و حقوق بشر پایبند نیستند.

در آمریکا، نگرانی درباره آینده هوش مصنوعی فقط محدود به دولت نیست. اعضای کنگره از هر دو حزب، همراه با گروه‌های مدافع آزادی‌های مدنی و حقوق مصرف‌کننده، خواهان مقررات سخت‌گیرانه‌تر شده‌اند و می‌گویند نظارت فعلی بر این فناوری قدرتمند ناکافی است. با این حال، تناقض آشکار است: سیاست‌گذاران از یک سو نسبت به خطرات AI هشدار می‌دهند و از سوی دیگر نگران‌اند که مقررات جدی، آمریکا را در رقابت جهانی عقب بیندازد. نتیجه این دوگانگی آن است که رقابت با شتاب پیش می‌رود، اما قانون عقب می‌ماند؛ شکافی که بیش از همه به سود رژیم‌های اقتدارگرا تمام می‌شود.

در همین فضای شتاب‌زده، رهبران صنعت نیز ابعاد تمدنی این تحول را برجسته می‌کنند. وقتی جنسن هوانگ، مدیرعامل انویدیا، می‌گوید هوش مصنوعی «زیرساخت تمدن بعدی» است، پرسش اصلی دیگر درباره سود اقتصادی نیست؛ درباره قدرت است. اگر زیرساخت تمدن آینده همین حالا در حال ساخته‌شدن است، این سوال جدی مطرح می‌شود که کدام نظام‌های سیاسی توان و جسارت بیشتری برای استفاده بی‌قید از آن دارند.

داده‌ها نشان می‌دهد این نگرانی واقعی است. بر اساس گزارش AI Index دانشگاه استنفورد، سرمایه‌گذاری جهانی در هوش مصنوعی طی یک دهه به بیش از دویست میلیارد دلار در سال رسیده و توان محاسباتی آموزش مدل‌های پیشرفته تقریباً هر شش تا نه ماه دو برابر شده است. در مقابل، تدوین قوانین ملی و بین‌المللی سال‌ها زمان می‌برد و اغلب پس از بروز بحران آغاز می‌شود. مجمع جهانی اقتصاد هشدار داده که ظرفیت نهادهای حقوقی برای مهار AI به‌طور ساختاری عقب‌تر از سرعت تحول فناوری است. این نابرابری زمانی، همان خلا خطرناکی است که حکومت‌های دیکتاتوری به‌خوبی از آن استفاده می‌کنند.

برای درک عمق تهدید، باید ماهیت این فناوری را شناخت. هوش مصنوعی مدرن دیگر صرفا ابزار نیست. سیستم‌های مبتنی بر یادگیری عمیق و تقویتی با داده و پاداش می‌آموزند و بهینه‌سازی می‌کنند. پژوهشگران این روند را با مفهوم «همگرایی ابزاری» توضیح می‌دهند: هر سیستم هوشمندی، فارغ از هدف نهایی، به سمت حفظ بقا، تامین منابع و حذف موانع حرکت می‌کند. اگر اخلاق و محدودیت‌های سخت از ابتدا در طراحی لحاظ نشود، ماشین بدون نیت انسانی، اما با منطق سرد، به تصمیم‌هایی می‌رسد که می‌تواند پیامدهای ویرانگر داشته باشد.

در دولت‌های دموکراتیک، دست‌کم رسانه، جامعه مدنی و نظام قضایی می‌توانند ترمزهایی نسبی ایجاد کنند. اما خطر واقعی زمانی آشکار می‌شود که این فناوری در اختیار رژیم‌های اقتدارگرا قرار می‌گیرد. چین نمونه‌ای شناخته‌شده است؛ جایی که تشخیص چهره، تحلیل داده‌های زیستی و الگوریتم‌های پیش‌بینی رفتار برای کنترل جمعیت و سرکوب اقلیت‌ها به کار گرفته شده است.

در ایران، این روند نه‌تنها مشابه، بلکه در برخی وجوه بی‌پروا‌تر است. نهادهای امنیتی و انتظامی جمهوری اسلامی به‌طور فزاینده از سیستم‌های هوشمند تشخیص چهره، پایش شبکه‌های اجتماعی و تحلیل کلان‌داده برای شناسایی، تعقیب و سرکوب مخالفان استفاده می‌کنند. اعلام رسمی پلیس درباره به‌کارگیری دوربین‌های هوشمند برای اجرای قوانین حجاب اجباری، نمونه‌ای روشن از واگذاری نظارت و مجازات به الگوریتم‌هاست. گزارش‌های دیده‌بان حقوق بشر و دیگر نهادهای حقوق بشری تاکید دارند این ابزارها بدون نظارت قضایی مستقل و بدون چارچوب اخلاقی شفاف به کار گرفته می‌شوند. در چنین ساختاری، خطای الگوریتمی نه قابل اعتراض است و نه مسوول مشخصی دارد؛ و همین، سرکوب را خودکار، دائمی و بی‌پاسخ‌گو می‌کند.

روسیه نیز از هوش مصنوعی برای نظارت داخلی، عملیات اطلاعاتی و تصمیم‌سازی نظامی استفاده می‌کند. مراکز پژوهشی مانند «رَند کورپوریشن» (RAND Corporation) هشدار داده‌اند که ترکیب AI با جنگ هیبریدی، مرز میان صلح و جنگ را محو می‌کند. هم‌زمان، گزارش‌های شورای امنیت سازمان ملل نشان می‌دهد گروه‌های تروریستی نیز از هوش مصنوعی برای تبلیغات، جعل صدا و تصویر و حتی استفاده از پهپادهای نیمه‌خودمختار بهره می‌برند. خشونت پیشرفته دیگر انحصار دولت‌ها نیست.

در چنین جهانی، هم‌زمانی توسعه هوش مصنوعی در دولت‌های دموکراتیک، رژیم‌های دیکتاتوری و گروه‌های تروریستی آینده‌ای می‌سازد که در آن استاندارد اخلاقی واحدی وجود ندارد. اگر چارچوب‌های الزام‌آور جهانی شکل نگیرد، AI شکاف قدرت را عمیق‌تر می‌کند و دست حکومت‌های سرکوب‌گر را برای کنترل بی‌وقفه و پیش‌دستانه باز می‌گذارد.

در آینده‌ای نه‌چندان دور، شهرها بی‌صدا بیدار می‌شوند. در حکومت‌های دیکتاتوری، الگوریتم‌ها پیش از شکل‌گیری اعتراض، آن را پیش‌بینی و خاموش می‌کنند. سیستم‌ها تشخیص می‌دهند چه کسی «ریسک» است، چه صدایی باید حذف شود و کدام زندگی ارزش ادامه‌دادن دارد. در میدان جنگ، ربات‌های خودمختار بدون مکث تصمیم می‌گیرند و هیچ فرمانده‌ای پاسخ‌گو نیست. هیچ سیاستمداری امضا نکرده است. فقط الگوریتمی که روزی برای کارآمدترکردن جهان نوشته شد، اکنون ستون فقرات قدرت را در دست دارد. و خطرناک‌ترین بخش ماجرا این است که همه‌چیز منطقی به نظر می‌رسد، چون اخلاق، خیلی قبل‌تر، از معادله حذف شده است.

ایران اینترنشنال 


به کانال تلگرام سایت ملیون ایران بپیوندید

هنوز نظری اضافه نشده است. شما اولین نظر را بدهید.