
![]()
چندی پیش ترامپ حکمی اجرایی را امضا کرد که هدف آن یکپارچهسازی مسیر قانونگذاری هوش مصنوعی در آمریکا و جلوگیری از تدوین مقررات جداگانه در سطح ایالتهاست؛ اقدامی که کاخ سفید آن را تلاشی برای محافظت از صنعت هوش مصنوعی در برابر «وصلهپینهای از مقررات دستوپاگیر» توصیف کرده است.
این تصمیم در بستر رقابتی اتخاذ شد که واشینگتن آن را رقابت مستقیم برای برتری فناورانه با چین میبیند. همزمان، مصطفی سلیمان، مدیر توسعه هوش مصنوعی مایکروسافت، هشدار داده است که گسترش هوش مصنوعی بدون کنترل میتواند آیندهای خطرناک رقم بزند. اما خطر اصلی نه فقط در نبود مقررات، بلکه در این واقعیت نهفته است که بیشترین بهره از این خلا، نصیب حکومتهای دیکتاتور میشود که اساسا به اخلاق، پاسخگویی و حقوق بشر پایبند نیستند.
در آمریکا، نگرانی درباره آینده هوش مصنوعی فقط محدود به دولت نیست. اعضای کنگره از هر دو حزب، همراه با گروههای مدافع آزادیهای مدنی و حقوق مصرفکننده، خواهان مقررات سختگیرانهتر شدهاند و میگویند نظارت فعلی بر این فناوری قدرتمند ناکافی است. با این حال، تناقض آشکار است: سیاستگذاران از یک سو نسبت به خطرات AI هشدار میدهند و از سوی دیگر نگراناند که مقررات جدی، آمریکا را در رقابت جهانی عقب بیندازد. نتیجه این دوگانگی آن است که رقابت با شتاب پیش میرود، اما قانون عقب میماند؛ شکافی که بیش از همه به سود رژیمهای اقتدارگرا تمام میشود.
در همین فضای شتابزده، رهبران صنعت نیز ابعاد تمدنی این تحول را برجسته میکنند. وقتی جنسن هوانگ، مدیرعامل انویدیا، میگوید هوش مصنوعی «زیرساخت تمدن بعدی» است، پرسش اصلی دیگر درباره سود اقتصادی نیست؛ درباره قدرت است. اگر زیرساخت تمدن آینده همین حالا در حال ساختهشدن است، این سوال جدی مطرح میشود که کدام نظامهای سیاسی توان و جسارت بیشتری برای استفاده بیقید از آن دارند.
دادهها نشان میدهد این نگرانی واقعی است. بر اساس گزارش AI Index دانشگاه استنفورد، سرمایهگذاری جهانی در هوش مصنوعی طی یک دهه به بیش از دویست میلیارد دلار در سال رسیده و توان محاسباتی آموزش مدلهای پیشرفته تقریباً هر شش تا نه ماه دو برابر شده است. در مقابل، تدوین قوانین ملی و بینالمللی سالها زمان میبرد و اغلب پس از بروز بحران آغاز میشود. مجمع جهانی اقتصاد هشدار داده که ظرفیت نهادهای حقوقی برای مهار AI بهطور ساختاری عقبتر از سرعت تحول فناوری است. این نابرابری زمانی، همان خلا خطرناکی است که حکومتهای دیکتاتوری بهخوبی از آن استفاده میکنند.
برای درک عمق تهدید، باید ماهیت این فناوری را شناخت. هوش مصنوعی مدرن دیگر صرفا ابزار نیست. سیستمهای مبتنی بر یادگیری عمیق و تقویتی با داده و پاداش میآموزند و بهینهسازی میکنند. پژوهشگران این روند را با مفهوم «همگرایی ابزاری» توضیح میدهند: هر سیستم هوشمندی، فارغ از هدف نهایی، به سمت حفظ بقا، تامین منابع و حذف موانع حرکت میکند. اگر اخلاق و محدودیتهای سخت از ابتدا در طراحی لحاظ نشود، ماشین بدون نیت انسانی، اما با منطق سرد، به تصمیمهایی میرسد که میتواند پیامدهای ویرانگر داشته باشد.
در دولتهای دموکراتیک، دستکم رسانه، جامعه مدنی و نظام قضایی میتوانند ترمزهایی نسبی ایجاد کنند. اما خطر واقعی زمانی آشکار میشود که این فناوری در اختیار رژیمهای اقتدارگرا قرار میگیرد. چین نمونهای شناختهشده است؛ جایی که تشخیص چهره، تحلیل دادههای زیستی و الگوریتمهای پیشبینی رفتار برای کنترل جمعیت و سرکوب اقلیتها به کار گرفته شده است.
در ایران، این روند نهتنها مشابه، بلکه در برخی وجوه بیپرواتر است. نهادهای امنیتی و انتظامی جمهوری اسلامی بهطور فزاینده از سیستمهای هوشمند تشخیص چهره، پایش شبکههای اجتماعی و تحلیل کلانداده برای شناسایی، تعقیب و سرکوب مخالفان استفاده میکنند. اعلام رسمی پلیس درباره بهکارگیری دوربینهای هوشمند برای اجرای قوانین حجاب اجباری، نمونهای روشن از واگذاری نظارت و مجازات به الگوریتمهاست. گزارشهای دیدهبان حقوق بشر و دیگر نهادهای حقوق بشری تاکید دارند این ابزارها بدون نظارت قضایی مستقل و بدون چارچوب اخلاقی شفاف به کار گرفته میشوند. در چنین ساختاری، خطای الگوریتمی نه قابل اعتراض است و نه مسوول مشخصی دارد؛ و همین، سرکوب را خودکار، دائمی و بیپاسخگو میکند.
روسیه نیز از هوش مصنوعی برای نظارت داخلی، عملیات اطلاعاتی و تصمیمسازی نظامی استفاده میکند. مراکز پژوهشی مانند «رَند کورپوریشن» (RAND Corporation) هشدار دادهاند که ترکیب AI با جنگ هیبریدی، مرز میان صلح و جنگ را محو میکند. همزمان، گزارشهای شورای امنیت سازمان ملل نشان میدهد گروههای تروریستی نیز از هوش مصنوعی برای تبلیغات، جعل صدا و تصویر و حتی استفاده از پهپادهای نیمهخودمختار بهره میبرند. خشونت پیشرفته دیگر انحصار دولتها نیست.
در چنین جهانی، همزمانی توسعه هوش مصنوعی در دولتهای دموکراتیک، رژیمهای دیکتاتوری و گروههای تروریستی آیندهای میسازد که در آن استاندارد اخلاقی واحدی وجود ندارد. اگر چارچوبهای الزامآور جهانی شکل نگیرد، AI شکاف قدرت را عمیقتر میکند و دست حکومتهای سرکوبگر را برای کنترل بیوقفه و پیشدستانه باز میگذارد.
در آیندهای نهچندان دور، شهرها بیصدا بیدار میشوند. در حکومتهای دیکتاتوری، الگوریتمها پیش از شکلگیری اعتراض، آن را پیشبینی و خاموش میکنند. سیستمها تشخیص میدهند چه کسی «ریسک» است، چه صدایی باید حذف شود و کدام زندگی ارزش ادامهدادن دارد. در میدان جنگ، رباتهای خودمختار بدون مکث تصمیم میگیرند و هیچ فرماندهای پاسخگو نیست. هیچ سیاستمداری امضا نکرده است. فقط الگوریتمی که روزی برای کارآمدترکردن جهان نوشته شد، اکنون ستون فقرات قدرت را در دست دارد. و خطرناکترین بخش ماجرا این است که همهچیز منطقی به نظر میرسد، چون اخلاق، خیلی قبلتر، از معادله حذف شده است.
ایران اینترنشنال