عصر خطرناک و آینده جنگ هوش مصنوعی
چگونه تهدید سلاح های خودمختار را محدود کنند
عبدالجمیل شریفی،ماستر اداره تجارت 2024/03/02
سال گذشته شرکت هواپیماهای بدون سرنشین اوکراینی Saker ادعا کرد که یک سلاح کاملا خودمختار به نام Saker Scout را به میدان آورده است که از هوش مصنوعی برای تصمیم گیری در مورد اینکه چه کسی را در میدان جنگ بکشد استفاده می کند. مقامات ساکر اعلام کردند که این پهپاد حملات خودگردان را در مقیاس کوچک انجام داده است. اگرچه این به طور مستقل تأیید نشده است فناوری لازم برای ساخت چنین سلاحی قطعا وجود دارد. این یک گام فنی کوچک اما یک اقدام اخلاقی، قانونی و اخلاقی نتیجهبخش است برای تولید سلاحهای کاملاً خودمختار که قادر به جستجو و انتخاب اهداف به تنهایی باشند.استقرار پهپاد ساکر نشان می دهد که پنجره تنظیم سلاح های خودمختار به سرعت بسته می شود. کشورها به مدت یک دهه در مورد اینکه در مورد تسلیحات خودمختار چه باید بکنند بحث میکنند اما نتوانستهاند بر روی مقرراتی برای محدود کردن آسیبهای سلاحها به توافق برسند. با این حال نیاز فوری به توافق بین المللی وجود دارد. توسعه بدون محدودیت تسلیحات خود مختار می تواند منجر به جنگ هایی شود که فراتر از کنترل انسان گسترش می یابد و از حمایت های کمتری هم برای جنگجویان و هم برای غیرنظامیان برخوردار است. حتی اگر ممنوعیت عمده فروشی واقع بینانه نباشد مقررات عملی زیادی وجود دارد که دولت ها می توانند برای کاهش بدترین خطرات سلاح های خودمختار اتخاذ کنند. بدون محدودیت بشریت در خطر است که به سوی آینده ای از جنگ خطرناک و ماشین محور حرکت کند.
نزدیک وجود دارد
ارتش از دهه 1980 از تسلیحات نیمه خودمختار در شرایط محدود و دفاعی استفاده کرده است. امروزه حداقل 30 کشور از سیستم های دفاع هوایی و موشکی یا سیستم های حفاظت ضد موشکی برای وسایل نقلیه زمینی استفاده می کنند که حالت های خودگردان دارند. پس از فعال شدن این سامانههای دفاعی میتوانند بهطور خودکار موشکها، توپخانه، خمپارهها، موشکها یا هواپیماهای وارده را حس کرده و آنها را رهگیری کنند. اما انسانها بر عملکرد آنها نظارت میکنند و اگر مشکلی پیش آمد میتوانند مداخله کنند. ارتش در پذیرش فناوری هوش مصنوعی توسعهیافته در بخش تجاری کند بودهاند تا حدی به دلیل فرآیندهای تدارکاتی دست و پا گیر. جنگ در اوکراین به نوآوری در هر دو طرف سرعت بخشید به ویژه با فناوری های تجاری مانند هواپیماهای بدون سرنشین کوچک. مسکو و کیف به طور گسترده از پهپادها برای شناسایی و حملات به نیروهای زمینی استفاده کرده اند. این استقرار پهپادها به نوبه خود منجر به توسعه اقدامات متقابل جدید از جمله سیستمهای جنگ الکترونیکی شده است که لینکهای ارتباطی پهپادها را مختل میکند یا مکان اپراتورها را بر روی زمین مشخص میکند و سپس میتوان به آنها حمله کرد. این تمرکز روی اپراتور از نظر استراتژیک مناسب است بیشتر پهپادها از راه دور هدایت می شوند و اپراتور انسانی را ضروری می کند و یک هدف حیاتی. بدون اپراتورهای انسانی پهپادهای کنترل از راه دور بی فایده می شوند. به همین دلیل است که پهپادهای خودران بسیار ارزشمند هستند: آنها به پیوندهای ارتباطی آسیب پذیر متکی نیستند. برای مقابله با آنها خود پهپادها باید پیدا و نابود شوند.شکل خاصی که سلاح های خودمختار به خود می گیرند به نیازهای یک درگیری بستگی دارد. در اوکراین مسکو و کیف از پهپادهای کوچک هوایی برای هدف قرار دادن پرسنل و حمله به خودروها استفاده کرده اند. پهپادهای بزرگتر با ارتفاع متوسط برای رسیدن به عمق بیشتر در پشت خطوط دشمن برای هدف قرار دادن رادارها و تاسیسات استفاده شده است. اوکراین حتی از قایق های بدون سرنشین برای حمله به ناوگان دریای سیاه روسیه استفاده کرده است. همه این پهپادها که در حال حاضر از راه دور کنترل می شوند می توانند ارتقا داده شوند تا به صورت خودمختار درآیند و در صورت مسدود شدن لینک ارتباطی امکان ادامه کار را فراهم کنند.درگیری های دیگر می تواند منجر به توسعه سلاح های خودمختار مختلف شود. چندین کشور از جمله چین، فرانسه، هند، روسیه، بریتانیا و ایالات متحده در حال حاضر روی پهپادهای جنگی رادارگریز کار می کنند. در جنگ های آینده این پهپادها به طور مستقل دفاع هوایی یا پرتابگرهای موشک متحرک را هدف قرار می دهند. روباتهای زمینی از همتایان هوایی و دریایی خود عقب ماندهاند اما در جنگهای آینده میتوان شاهد استفاده از سلاحهای خودمختار بر روی رباتها یا محل اسلحههای ثابت بود. تغییرات احتمالاً به همین جا ختم نمی شود. ازدحام پهپادها می توانند به طور مستقل رفتار خود را هماهنگ کنند و به تغییرات میدان نبرد با سرعتی فراتر از توانایی های انسانی واکنش نشان دهند. واکنشهای خودمختار با سرعت ماشین میتواند سرعت عملیات را سریعتر ایجاد کند و سرعت نبرد را تسریع کند. این به نوبه خود می تواند فشار بیشتری را برای حذف انسان از چرخه تصمیم ایجاد کند. پیامدهای این تغییر به دوران جدیدی از جنگ ماشینمحور عمیق خواهد بود.
خطر خودگردان
دانشمندان برجسته هوش مصنوعی از جمله استاد دانشگاه کالیفرنیا استوارت راسل و برنده جایزه تورینگ Yann LeCun، در مورد خطرات سلاح های خودران هشدار داده اند. کنسرسیومی متشکل از ۲۵۰ سازمان غیردولتی از جمله عفو بینالملل، دیدهبان حقوق بشر و ابتکار زنان نوبل کمپین توقف رباتهای قاتل را تشکیل دادهاند و خواستار یک معاهده پیشگیرانه و الزامآور برای ممنوعیت سلاحهای خودمختار هستند. انگیزه این هشدارها و کمپینها نگرانی از این است که سلاحهای خودمختار میتوانند تلفات غیرنظامیان را در جنگ افزایش دهند. اگرچه سلاح های خودمختار می توانند تلفات غیرنظامیان را با هدف قرار دادن دقیق جنگجویان کاهش دهند اما در دستان دولتی که به تلفات غیرنظامیان اهمیت چندانی نمی دهد یا می خواهند جمعیت غیرنظامی را مجازات کنند می توانند برای ارتکاب جنایات ویرانگر استفاده شوند. انبوهی از سلاح های خودران را می توان برای هدف قرار دادن و کشتن هزاران نفر در یک زمان مستقر کرد که باعث می شود بمب های هوشمند امروزی در مقایسه با آنها دست و پا چلفتی به نظر برسند.یکی از شدیدترین خطرات ناشی از ادغام هوش مصنوعی و استقلال در سلاح های هسته ای است. در سال 2022 ایالات متحده اعلام کرد که برای تصمیمگیری در مورد استفاده از سلاحهای هستهای همیشه «انسان در حلقه» را حفظ خواهد کرد. بریتانیا سیاست مشابهی را در سال 2022 اتخاذ کرد. با این حال روسیه و چین چنین نکرده اند. به نظر می رسد کنترل انسان بر سلاح های هسته ای نقطه شروع آسانی برای توافق بین المللی باشد اما مسکو تمایل نگران کننده ای برای ادغام اتوماسیون پرخطر در عملیات هسته ای خود نشان داده است. این چیز جدیدی نیست: پس از پایان جنگ سرد مقامات شوروی سابق توضیح دادند که اتحاد جماهیر شوروی یک سیستم حمله اتمی تلافی جویانه نیمه خودکار به نام “Perimeter” ساخته است. پس از فعال شدن از یک سری حسگرهای خودکار برای تشخیص حمله هسته ای در خاک شوروی استفاده می کند. اگر یکی از آنها شناسایی می شد و هیچ پاسخی از سوی رهبران کشور وجود نداشت احتمالاً به این دلیل که آنها در این حمله کشته شده بودند سیستم به طور خودکار اختیار پرتاب هسته ای را به یک افسر نسبتاً کوچک در یک پناهگاه امن منتقل می کرد. مقامات روسی در سال 2018 اعلام کردند که این سیستم هنوز فعال است و حتی ارتقا یافته است. اخیراً مسکو شروع به توسعه یک پهپاد زیردریایی خودمختار با سلاح هسته ای کرده است. پهپادهای مجهز به سلاح هستهای در دریا یا هوا میتوانند برای گشت زنی فرستاده شوند و خطر تصادف یا از دست دادن کنترل یک سلاح هستهای را به همراه داشته باشند.استقرار گسترده سلاحهای خودمختار که با سایر جنبههای هوش مصنوعی نظامی ادغام شدهاند میتوانند به عصر جدیدی از جنگ ماشینمحور منجر شوند. برنامه های کاربردی هوش مصنوعی نظامی می توانند پردازش اطلاعات و تصمیم گیری را تسریع کنند. چرخه های تصمیم گیری با استفاده از هوش مصنوعی و اتوماسیون کشورها برای کاهش زمان یافتن، شناسایی و حمله به اهداف دشمن کوتاه می شود. در تئوری این می تواند زمان بیشتری را برای تصمیم گیری های متفکرانه و عمدی در اختیار انسان بگذارد. در عمل رقبا احساس خواهند کرد که مجبور خواهند شد به طور مشابه پاسخ دهند و از اتوماسیون برای سرعت بخشیدن به عملیات خود برای حفظ سرعت استفاده کنند. نتیجه یک مارپیچ در حال افزایش از اتوماسیون بیشتر و کنترل کمتر انسانی خواهد بود.وضعیت نهایی این رقابت احتمالاً جنگی خواهد بود که با سرعت ماشین و خارج از کنترل انسان اجرا می شود. در امور مالی استفاده گسترده از الگوریتم ها در معاملات با فرکانس بالا منجر به معامله سهام به صورت مستقل و با سرعت فوق بشری شده است. چن هانگهویی محقق نظامی چینی از دانشکده فرماندهی ارتش آزادیبخش خلق در مورد «تکینگی» در میدان نبرد فرضیهای را مطرح کرده است نقطهای که در آن سرعت جنگ ماشینمحور به طور مشابه از سرعت تصمیمگیری انسانی پیشی میگیرد. این نقطه عطف انسان ها را مجبور می کند که هم برای تصمیم گیری های تاکتیکی و هم برای استراتژی های جنگی در سطح عملیاتی کنترل را به ماشین ها واگذار کنند. ماشینها نه تنها اهداف فردی را انتخاب میکنند بلکه کل کمپینها را نیز برنامهریزی و اجرا میکنند. نقش انسانها به روشن کردن ماشینها و نشستن در حاشیه با توانایی کمی برای کنترل یا حتی پایان دادن به جنگها کاهش مییابد.
گیر کرده در علف های هرز
مقررات بینالمللی اگر با دقت طراحی و اجرا شوند میتوانند به کاهش برخی از بدترین آسیبهای سلاحهای خودران کمک کنند. حدود 30 کشور و کنسرسیومی از سازمان های بشردوستانه خواستار یک معاهده پیشگیرانه و الزام آور قانونی برای ممنوعیت سلاح های خودمختار قبل از استقرار آنها شده اند. دولت ها در ممنوعیت سلاح های شیمیایی و بیولوژیکی، مهمات خوشه ای و استفاده از محیط زیست به عنوان سلاح موفقیت نسبی داشته اند. اما پیشرفت مشابه در تنظیم سلاح های خودمختار چالش برانگیز بوده است. ممنوعیت همه جانبه به ویژه بعید است. از آنجایی که تسلیحات خودمختار هنوز به طور کامل توسعه نیافتهاند آسیبهای احتمالی و ارزش نظامی آنها ناشناخته است. بنابراین دولت ها به دلیل ادعاهای نامشخص در مورد آسیب های احتمالی آینده، تمایلی به کنار گذاشتن یک سلاح بالقوه ارزشمند ندارند.بحث در مورد چگونگی تنظیم سلاح های خودمختار در بسیاری از انجمن ها در حال انجام است. در سطح بینالمللی دولتها از سال 2014 در مورد سلاحهای خودمختار در کنوانسیون سازمان ملل درباره برخی سلاحهای متعارف بحث میکنند. CCW یک مجمع بینالمللی برای تنظیم سلاحهایی است که به نظر میرسد برای رزمندگان یا غیرنظامیان مضر هستند مانند مینهای زمینی و لیزرهای کورکننده. این شامل 126 کشور است و توافق نیاز به حمایت همه دولتهای شرکتکننده دارد که دستوری برای اختلال در عملکرد است. روسیه و ایالات متحده به ویژه سرسختانه با معاهده ممنوعیت سلاح های خودمختار مخالفت کرده اند و استدلال می کنند که قوانین موجود در قانون جنگ برای رسیدگی به هرگونه آسیب احتمالی کافی است. مخالفت مسکو و واشنگتن کشنده است زیرا ممنوعیت تسلیحات خودمختار اگر شامل قدرت های نظامی بزرگ جهان نباشد بی معنی است. با تشخیص عدم پیشرفت در سال 2023 طرفداران ممنوعیت این موضوع را به مجمع عمومی سازمان ملل بردند که نیازی به اجماع ندارد. کمیته اول مجمع عمومی در نوامبر 2023 به دبیرکل سازمان ملل رای داد تا گزارشی درباره سلاحهای خودمختار تهیه کند که طرفداران ممنوعیت امیدوارند اولین گام به سوی مأموریت برای مذاکره بر سر یک معاهده باشد.در همین حال ایالات متحده یک رویکرد جایگزین برای ممنوعیت کامل پیشنهاد کرده است و در اواخر سال 2023 بیش از 40 کشور را رهبری کرد تا یک بیانیه سیاسی در مورد نیاز به استفاده مسئولانه از هوش مصنوعی نظامی را تأیید کنند. از فوریه 2024 بیش از 50 دولت به این تلاش پیوسته بودند. اگرچه این اعلامیه سلاح های خودران را ممنوع نمی کند اما دستورالعمل های کلی برای استفاده از آنها ارائه می دهد مانند اطمینان از آزمایش کافی برای کاهش خطر تصادف. اگرچه این اعلامیه از اصول ارزشمندی حمایت میکند اما محدودیتهای معنیداری در مورد خطرناکترین اشکال سلاحهای خودمختار مانند سلاحهای خودمختار ضد نفر و خودمختاری در عملیات هستهای ندارد.
قبل از اینکه خیلی دیر شود
به جای این رویکردهای متوقف شده پنج ابتکار مکمل وجود دارد که کشورها می توانند برای کاهش خطر سلاح های خودمختار دنبال کنند. اول دولت ها می توانند یک اصل گسترده را اتخاذ کنند که حداقل مشارکت انسانی لازم را در تصمیم گیری های مرگبار ایجاد کند. چنین اصلی می تواند به عنوان یک قانون الزام آور قانونی، یا از طریق CCW یا مجمع عمومی، یا می تواند یک اعلامیه الزام آور سیاسی باشد. این استاندارد باید مستلزم آن باشد که تصمیم گیرنده انسانی اطلاعات مشخص و کافی در مورد هدف مورد نظر سلاح، محیط و زمینه حمله داشته باشد تا مشخص کند که آیا حمله قبل از اینکه مجاز باشد قانونی است یا خیر. کشورها همچنین می توانند توافق کنند که برای اینکه کنترل انسانی معنادار باشد هرگونه استفاده از سلاح های خودمختار باید از نظر جغرافیایی، زمانی و اهداف مورد حمله محدود شود. اگرچه چنین اصلی همه سلاحهای خودمختار را ممنوع نمیکند در واقع استفاده از آنها را در هنگام پیروی از این قوانین مشروع میسازد اما نردههایی را در مورد نحوه استفاده کشورها از سلاحهای خودمختار فراهم میکند و از دخالت انسان در حیاتیترین تصمیمها برای صدور مجوز حملات اطمینان میدهد.دوم دولتها میتوانند سلاحهای خودمختار را که مردم را هدف قرار میدهند، ممنوع کنند. در دنیایی که بسیاری از رزمندگان یونیفورم نمیپوشند حتی انسانها نیز اغلب برای تشخیص دقیق غیرنظامیان از سربازان تلاش میکنند. الگوریتمها برای نتیجهگیری اینکه فردی که تفنگ در دست دارد یک مبارز است یا یک کشاورز که از زمین خود محافظت میکند کار بسیار سختتری خواهد داشت. همچنین احتمال کمتری وجود دارد که یک ماشین بتواند به طور دقیق و قابل اعتماد تشخیص دهد که آیا یک سرباز واقعاً در تلاش تسلیم شدن است یا فقط تظاهر به تسلیم شدن دارد. در نتیجه تسلیحات خودمختار ضد نفر خطرات بیشتری نسبت به آنهایی دارند که فقط وسایل نقلیه یا تجهیزات را هدف قرار می دهند و آسیبی که این سلاح ها می توانند وارد کنند بسیار بیشتر از ارزش نظامی آنها است. دولتها میتوانند قبل از فراگیر شدن استفاده از آنها را ممنوع کنند.سوم کشورها میتوانند بهترین شیوهها را برای آزمایش هوش مصنوعی نظامی و سیستمهای خودمختار برای جلوگیری از حوادث منتشر کنند. هدف اصلی بیانیه سیاسی سال 2023 به رهبری ایالات متحده این است که با بهبود آزمایش اطمینان حاصل شود که سیستم های هوش مصنوعی نظامی ایمن هستند. واشنگتن باید پا را فراتر بگذارد و بهترین شیوه های آزمایش سیستم های هوش مصنوعی را برای بهبود ایمنی آنها با دیگر کشورها به اشتراک بگذارد. این میتواند به روشی مشابه نحوه اشتراکگذاری اطلاعات مربوط به فرآیند بازبینی سلاحهای قانونی توسط ایالات متحده بدون انتشار محتوای بازبینیهای خاص انجام شود. توافقی که کنترل دقیق انسانی بر سلاح های هسته ای را تضمین می کند. لندن به دلیل سیاست حفظ کنترل انسانی بر زرادخانه هسته ای خود شریک مناسبی برای این تلاش است. تضمین بیانیههای یکجانبه مشابه از دیگر قدرتهای هستهای یا در حالت ایدهآل یک توافق چندجانبه گام مهمی در جهت اطمینان از اینکه خطرناکترین سلاحهای بشریت در کنترل انسانها باقی میماند خواهد بود. توافق میان پنج عضو دائمی شورای امنیت سازمان ملل متحد بیانیه ای قدرتمند خواهد بود. واشنگتن همچنین باید در مذاکرات جدید هوش مصنوعی دوجانبه آمریکا و چین پکن را در مورد این موضوع تحت فشار قرار دهد.در نهایت ایالتها میتوانند قوانین یکسانی جادهای را برای هواپیماهای بدون سرنشین خود مختار اتخاذ کنند تا خطر تصادفات را کاهش دهند. از آنجایی که کشورها هواپیماهای بدون سرنشین بیشتری را در هوا و دریا به کار میبرند و هر چه این پهپادها به طور فزایندهای خودمختار میشوند احتمال وقوع یک حادثه یا اشتباه محاسباتی میتواند باعث بروز یک حادثه بینالمللی شود. برای مثال در سال ۲۰۱۹ پدافند هوایی ایران یک پهپاد گلوبال هاوک آمریکا را بر فراز تنگه هرمز سرنگون کرد. در مارس 2023 یک جت جنگنده روسی با هواپیمای بدون سرنشین ام کیو-9 ریپر آمریکا در دریای سیاه تداخل کرد و باعث سقوط این پهپاد شد. از آنجایی که این پهپادها از راه دور کنترل می شدند یک انسان تصمیم گرفت که چگونه پاسخ دهد. اما پهپادهای هوایی و دریایی آینده می توانند مستقل باشند. این بدان معناست که اگر موقعیت های مشابهی اتفاق بیفتد پهپاد به طور مستقل اقداماتی را که برای انجام آن برنامه ریزی شده بود انجام می دهد. اگر برای شلیک برنامه ریزی شده بود این کار را انجام می داد و به طور بالقوه یک حادثه بین المللی را بدون هیچ تصمیم عمدی انسانی برای انجام آن تشدید می کرد. دولت ها باید اطمینان حاصل کنند که هر گونه رفتار خودمختار با نیت انسان سازگار است. توافقنامه حوادث دریایی ایالات متحده و شوروی در سال 1972 به کاهش تعداد حوادث برنامه ریزی نشده بین نیروی دریایی ایالات متحده و شوروی در طول جنگ سرد کمک کرد. یک توافقنامه حوادث خودمختار مشابه به کشورها کمک می کند تا از خطرات ناشی از دوئل سیستم های خودگردان مستقر در مناطق مورد مناقشه عبور کنند و از حوادث ناخواسته و برنامه ریزی نشده اجتناب کنند. این ابتکارات برای مقابله با خطرات تسلیحات خودمختار میتواند با هم یا جداگانه از طریق کانالهای مختلف و در بازههای زمانی مختلف دنبال شود. CCW مجمع عمومی ابتکار بیانیه سیاسی به رهبری ایالات متحده، شورای امنیت گفتگوهای دوجانبه ایالات متحده و چین و دیگر مجامع چندجانبه همگی فضاهایی برای همکاری جهانی هستند که باید مورد توجه قرار گیرند. همکاری واشنگتن با پکن بسیار مهم خواهد بود. توافق بین ایالات متحده و چین به عنوان ابرقدرت های نظامی، اقتصادی و تکنولوژیکی پیشرو در جهان، گامی دشوار و در عین حال حیاتی به جلو در مدیریت خطرات سلاح های خودمختار خواهد بود.
مواظب باشند
سلاح های خودمختار می آیند. تلاش برای ممنوعیت کامل آنها هرچند به معنای خوب احتمالاً بیهوده است. ارزش نظامی آنها خیلی زیاد است. با این حال کشورها در مورد نحوه استفاده از تسلیحات خودمختار حق انتخاب دارند. بدون محدودیتهای مؤثر سلاحهای خودمختار کنترل انسان بر جنگ را کاهش میدهند خطر بیشتری را برای غیرنظامیان و رزمندگان ایجاد میکنند و ثبات بینالمللی را تضعیف میکنند. برای مقابله با بدترین خطرات این تسلیحات باید فوراً اقداماتی انجام شود. انجام این کار مستلزم حرکت فراتر از انتخاب ساده و گمراهکننده کنونی بین ممنوعیت همه سلاحهای خودمختار و بدون محدودیت است.سلاح های خودمختار آزمایش اولیه توانایی بشر برای مقابله با هوش مصنوعی تسلیحاتی است که اشکال خطرناک تری از آن در راه است. سیستم های پیشرفته هوش مصنوعی توانایی کمک به توسعه سلاح های سایبری و سلاح های شیمیایی و بیولوژیکی را نشان داده اند. همکاری جهانی برای کنترل بهبود آنها، محدود کردن گسترش آنها و محافظت در برابر استفاده بالقوه آنها ضروری است. دستیابی به توافق بینالمللی در مورد سلاحهای خودمختار برای رسیدگی به آسیبهای آنها و ایجاد پایهای برای همکاری در مورد خطرات هوش مصنوعی در آینده حیاتی است.