• بیوگرافی

















  • صفحۀ سایت در فیس بوک

  • مطالب پسندیده در فیس بوک

  • paypal

  • موضوع هفته

    مطالب محبوب

    عصر خطرناک و آینده جنگ هوش مصنوعی چگونه تهدید سلاح های خودمختار را محدود کنند

    عصر خطرناک و آینده جنگ هوش مصنوعی

    چگونه تهدید سلاح های خودمختار را محدود کنند

    عبدالجمیل شریفی،ماستر اداره تجارت 2024/03/02

    سال گذشته شرکت هواپیماهای بدون سرنشین اوکراینی Saker ادعا کرد که یک سلاح کاملا خودمختار به نام Saker Scout را به میدان آورده است که از هوش مصنوعی برای تصمیم گیری در مورد اینکه چه کسی را در میدان جنگ بکشد استفاده می کند. مقامات ساکر اعلام کردند که این پهپاد حملات خودگردان را در مقیاس کوچک انجام داده است. اگرچه این به طور مستقل تأیید نشده است فناوری لازم برای ساخت چنین سلاحی قطعا وجود دارد. این یک گام فنی کوچک  اما یک اقدام اخلاقی، قانونی و اخلاقی نتیجه‌بخش است  برای تولید سلاح‌های کاملاً خودمختار که قادر به جستجو و انتخاب اهداف به تنهایی باشند.استقرار پهپاد ساکر نشان می دهد که پنجره تنظیم سلاح های خودمختار به سرعت بسته می شود. کشورها به مدت یک دهه در مورد اینکه در مورد تسلیحات خودمختار چه باید بکنند بحث می‌کنند اما نتوانسته‌اند بر روی مقرراتی برای محدود کردن آسیب‌های سلاح‌ها به توافق برسند. با این حال نیاز فوری به توافق بین المللی وجود دارد. توسعه بدون محدودیت تسلیحات خود مختار می تواند منجر به جنگ هایی شود که فراتر از کنترل انسان گسترش می یابد و از حمایت های کمتری هم برای جنگجویان و هم برای غیرنظامیان برخوردار است. حتی اگر ممنوعیت عمده فروشی واقع بینانه نباشد مقررات عملی زیادی وجود دارد که دولت ها می توانند برای کاهش بدترین خطرات سلاح های خودمختار اتخاذ کنند. بدون محدودیت بشریت در خطر است که به سوی آینده ای از جنگ خطرناک و ماشین محور حرکت کند.

    نزدیک وجود دارد

    ارتش از دهه 1980 از تسلیحات نیمه خودمختار در شرایط محدود و دفاعی استفاده کرده است. امروزه حداقل 30 کشور از سیستم های دفاع هوایی و موشکی یا سیستم های حفاظت ضد موشکی برای وسایل نقلیه زمینی استفاده می کنند که حالت های خودگردان دارند. پس از فعال شدن این سامانه‌های دفاعی می‌توانند به‌طور خودکار موشک‌ها، توپخانه، خمپاره‌ها، موشک‌ها یا هواپیماهای وارده را حس کرده و آنها را رهگیری کنند. اما انسان‌ها بر عملکرد آنها نظارت می‌کنند و اگر مشکلی پیش آمد می‌توانند مداخله کنند. ارتش در پذیرش فناوری هوش مصنوعی توسعه‌یافته در بخش تجاری کند بوده‌اند تا حدی به دلیل فرآیندهای تدارکاتی دست و پا گیر. جنگ در اوکراین به نوآوری در هر دو طرف سرعت بخشید به ویژه با فناوری های تجاری مانند هواپیماهای بدون سرنشین کوچک. مسکو و کیف به طور گسترده از پهپادها برای شناسایی و حملات به نیروهای زمینی استفاده کرده اند. این استقرار پهپادها به نوبه خود منجر به توسعه اقدامات متقابل جدید از جمله سیستم‌های جنگ الکترونیکی شده است که لینک‌های ارتباطی پهپادها را مختل می‌کند یا مکان اپراتورها را بر روی زمین مشخص می‌کند و سپس می‌توان به آنها حمله کرد. این تمرکز روی اپراتور از نظر استراتژیک مناسب است بیشتر پهپادها از راه دور هدایت می شوند و اپراتور انسانی را ضروری می کند  و یک هدف حیاتی. بدون اپراتورهای انسانی پهپادهای کنترل از راه دور بی فایده می شوند. به همین دلیل است که پهپادهای خودران بسیار ارزشمند هستند: آنها به پیوندهای ارتباطی آسیب پذیر متکی نیستند. برای مقابله با آنها خود پهپادها باید پیدا و نابود شوند.شکل خاصی که سلاح های خودمختار به خود می گیرند به نیازهای یک درگیری بستگی دارد. در اوکراین مسکو و کیف از پهپادهای کوچک هوایی برای هدف قرار دادن پرسنل و حمله به خودروها استفاده کرده اند. پهپادهای بزرگتر با ارتفاع متوسط برای رسیدن به عمق بیشتر در پشت خطوط دشمن برای هدف قرار دادن رادارها و تاسیسات استفاده شده است. اوکراین حتی از قایق های بدون سرنشین برای حمله به ناوگان دریای سیاه روسیه استفاده کرده است. همه این پهپادها که در حال حاضر از راه دور کنترل می شوند می توانند ارتقا داده شوند تا به صورت خودمختار درآیند و در صورت مسدود شدن لینک ارتباطی امکان ادامه کار را فراهم کنند.درگیری های دیگر می تواند منجر به توسعه سلاح های خودمختار مختلف شود. چندین کشور از جمله چین، فرانسه، هند، روسیه، بریتانیا و ایالات متحده در حال حاضر روی پهپادهای جنگی رادارگریز کار می کنند. در جنگ های آینده این پهپادها به طور مستقل دفاع هوایی یا پرتابگرهای موشک متحرک را هدف قرار می دهند. روبات‌های زمینی از همتایان هوایی و دریایی خود عقب مانده‌اند اما در جنگ‌های آینده می‌توان شاهد استفاده از سلاح‌های خودمختار بر روی ربات‌ها یا محل اسلحه‌های ثابت بود. تغییرات احتمالاً به همین جا ختم نمی شود. ازدحام پهپادها می توانند به طور مستقل رفتار خود را هماهنگ کنند و به تغییرات میدان نبرد با سرعتی فراتر از توانایی های انسانی واکنش نشان دهند. واکنش‌های خودمختار با سرعت ماشین می‌تواند سرعت عملیات را سریع‌تر ایجاد کند و سرعت نبرد را تسریع کند. این به نوبه خود می تواند فشار بیشتری را برای حذف انسان از چرخه تصمیم ایجاد کند. پیامدهای این تغییر به دوران جدیدی از جنگ ماشین‌محور عمیق خواهد بود.

    خطر خودگردان

    دانشمندان برجسته هوش مصنوعی از جمله استاد دانشگاه کالیفرنیا استوارت راسل و برنده جایزه تورینگ Yann LeCun، در مورد خطرات سلاح های خودران هشدار داده اند. کنسرسیومی متشکل از ۲۵۰ سازمان غیردولتی از جمله عفو بین‌الملل، دیده‌بان حقوق بشر و ابتکار زنان نوبل کمپین توقف ربات‌های قاتل را تشکیل داده‌اند و خواستار یک معاهده پیشگیرانه و الزام‌آور برای ممنوعیت سلاح‌های خودمختار هستند. انگیزه این هشدارها و کمپین‌ها نگرانی از این است که سلاح‌های خودمختار می‌توانند تلفات غیرنظامیان را در جنگ افزایش دهند. اگرچه سلاح های خودمختار می توانند تلفات غیرنظامیان را با هدف قرار دادن دقیق جنگجویان کاهش دهند اما در دستان دولتی که به تلفات غیرنظامیان اهمیت چندانی نمی دهد  یا می خواهند جمعیت غیرنظامی را مجازات کنند  می توانند برای ارتکاب جنایات ویرانگر استفاده شوند. انبوهی از سلاح های خودران را می توان برای هدف قرار دادن و کشتن هزاران نفر در یک زمان مستقر کرد که باعث می شود بمب های هوشمند امروزی در مقایسه با آنها دست و پا چلفتی به نظر برسند.یکی از شدیدترین خطرات ناشی از ادغام هوش مصنوعی و استقلال در سلاح های هسته ای است. در سال 2022 ایالات متحده اعلام کرد که برای تصمیم‌گیری در مورد استفاده از سلاح‌های هسته‌ای همیشه «انسان در حلقه» را حفظ خواهد کرد. بریتانیا سیاست مشابهی را در سال 2022 اتخاذ کرد. با این حال روسیه و چین چنین نکرده اند. به نظر می رسد کنترل انسان بر سلاح های هسته ای نقطه شروع آسانی برای توافق بین المللی باشد اما مسکو تمایل نگران کننده ای برای ادغام اتوماسیون پرخطر در عملیات هسته ای خود نشان داده است. این چیز جدیدی نیست: پس از پایان جنگ سرد مقامات شوروی سابق توضیح دادند که اتحاد جماهیر شوروی یک سیستم حمله اتمی تلافی جویانه نیمه خودکار به نام “Perimeter” ساخته است. پس از فعال شدن از یک سری حسگرهای خودکار برای تشخیص حمله هسته ای در خاک شوروی استفاده می کند. اگر یکی از آنها شناسایی می شد و هیچ پاسخی از سوی رهبران کشور وجود نداشت  احتمالاً به این دلیل که آنها در این حمله کشته شده بودند  سیستم به طور خودکار اختیار پرتاب هسته ای را به یک افسر نسبتاً کوچک در یک پناهگاه امن منتقل می کرد. مقامات روسی در سال 2018 اعلام کردند که این سیستم هنوز فعال است و حتی ارتقا یافته است. اخیراً مسکو شروع به توسعه یک پهپاد زیردریایی خودمختار با سلاح هسته ای کرده است. پهپادهای مجهز به سلاح هسته‌ای در دریا یا هوا می‌توانند برای گشت زنی فرستاده شوند و خطر تصادف یا از دست دادن کنترل یک سلاح هسته‌ای را به همراه داشته باشند.استقرار گسترده سلاح‌های خودمختار که با سایر جنبه‌های هوش مصنوعی نظامی ادغام شده‌اند می‌توانند به عصر جدیدی از جنگ ماشین‌محور منجر شوند. برنامه های کاربردی هوش مصنوعی نظامی می توانند پردازش اطلاعات و تصمیم گیری را تسریع کنند. چرخه های تصمیم گیری با استفاده از هوش مصنوعی و اتوماسیون کشورها برای کاهش زمان یافتن، شناسایی و حمله به اهداف دشمن کوتاه می شود. در تئوری این می تواند زمان بیشتری را برای تصمیم گیری های متفکرانه و عمدی در اختیار انسان بگذارد. در عمل رقبا احساس خواهند کرد که مجبور خواهند شد به طور مشابه پاسخ دهند و از اتوماسیون برای سرعت بخشیدن به عملیات خود برای حفظ سرعت استفاده کنند. نتیجه یک مارپیچ در حال افزایش از اتوماسیون بیشتر و کنترل کمتر انسانی خواهد بود.وضعیت نهایی این رقابت احتمالاً جنگی خواهد بود که با سرعت ماشین و خارج از کنترل انسان اجرا می شود. در امور مالی استفاده گسترده از الگوریتم ها در معاملات با فرکانس بالا منجر به معامله سهام به صورت مستقل و با سرعت فوق بشری شده است. چن هانگهویی محقق نظامی چینی از دانشکده فرماندهی ارتش آزادی‌بخش خلق در مورد «تکینگی» در میدان نبرد فرضیه‌ای را مطرح کرده است نقطه‌ای که در آن سرعت جنگ ماشین‌محور به طور مشابه از سرعت تصمیم‌گیری انسانی پیشی می‌گیرد. این نقطه عطف انسان ها را مجبور می کند که هم برای تصمیم گیری های تاکتیکی و هم برای استراتژی های جنگی در سطح عملیاتی کنترل را به ماشین ها واگذار کنند. ماشین‌ها نه تنها اهداف فردی را انتخاب می‌کنند بلکه کل کمپین‌ها را نیز برنامه‌ریزی و اجرا می‌کنند. نقش انسان‌ها به روشن کردن ماشین‌ها و نشستن در حاشیه با توانایی کمی برای کنترل یا حتی پایان دادن به جنگ‌ها کاهش می‌یابد.

    گیر کرده در علف های هرز

    مقررات بین‌المللی اگر با دقت طراحی و اجرا شوند می‌توانند به کاهش برخی از بدترین آسیب‌های سلاح‌های خودران کمک کنند. حدود 30 کشور و کنسرسیومی از سازمان های بشردوستانه خواستار یک معاهده پیشگیرانه و الزام آور قانونی برای ممنوعیت سلاح های خودمختار قبل از استقرار آنها شده اند. دولت ها در ممنوعیت سلاح های شیمیایی و بیولوژیکی، مهمات خوشه ای و استفاده از محیط زیست به عنوان سلاح موفقیت نسبی داشته اند. اما پیشرفت مشابه در تنظیم سلاح های خودمختار چالش برانگیز بوده است. ممنوعیت همه جانبه به ویژه بعید است. از آنجایی که تسلیحات خودمختار هنوز به طور کامل توسعه نیافته‌اند آسیب‌های احتمالی و ارزش نظامی آنها ناشناخته است. بنابراین دولت ها به دلیل ادعاهای نامشخص در مورد آسیب های احتمالی آینده، تمایلی به کنار گذاشتن یک سلاح بالقوه ارزشمند ندارند.بحث در مورد چگونگی تنظیم سلاح های خودمختار در بسیاری از انجمن ها در حال انجام است. در سطح بین‌المللی دولت‌ها از سال 2014 در مورد سلاح‌های خودمختار در کنوانسیون سازمان ملل درباره برخی سلاح‌های متعارف بحث می‌کنند. CCW یک مجمع بین‌المللی برای تنظیم سلاح‌هایی است که به نظر می‌رسد برای رزمندگان یا غیرنظامیان مضر هستند مانند مین‌های زمینی و لیزرهای کورکننده.  این شامل 126 کشور است و توافق نیاز به حمایت همه دولت‌های شرکت‌کننده دارد که دستوری برای اختلال در عملکرد است. روسیه و ایالات متحده به ویژه سرسختانه با معاهده ممنوعیت سلاح های خودمختار مخالفت کرده اند و استدلال می کنند که قوانین موجود در قانون جنگ برای رسیدگی به هرگونه آسیب احتمالی کافی است. مخالفت مسکو و واشنگتن کشنده است زیرا ممنوعیت تسلیحات خودمختار اگر شامل قدرت های نظامی بزرگ جهان نباشد بی معنی است. با تشخیص عدم پیشرفت در سال 2023 طرفداران ممنوعیت این موضوع را به مجمع عمومی سازمان ملل بردند که نیازی به اجماع ندارد. کمیته اول مجمع عمومی در نوامبر 2023 به دبیرکل سازمان ملل رای داد تا گزارشی درباره سلاح‌های خودمختار تهیه کند که طرفداران ممنوعیت امیدوارند اولین گام به سوی مأموریت برای مذاکره بر سر یک معاهده باشد.در همین حال ایالات متحده یک رویکرد جایگزین برای ممنوعیت کامل پیشنهاد کرده است و در اواخر سال 2023 بیش از 40 کشور را رهبری کرد تا یک بیانیه سیاسی در مورد نیاز به استفاده مسئولانه از هوش مصنوعی نظامی را تأیید کنند. از فوریه 2024 بیش از 50 دولت به این تلاش پیوسته بودند. اگرچه این اعلامیه سلاح های خودران را ممنوع نمی کند اما دستورالعمل های کلی برای استفاده از آنها ارائه می دهد مانند اطمینان از آزمایش کافی برای کاهش خطر تصادف. اگرچه این اعلامیه از اصول ارزشمندی حمایت می‌کند اما محدودیت‌های معنی‌داری در مورد خطرناک‌ترین اشکال سلاح‌های خودمختار مانند سلاح‌های خودمختار ضد نفر و خودمختاری در عملیات هسته‌ای ندارد.

    قبل از اینکه خیلی دیر شود

    به جای این رویکردهای متوقف شده پنج ابتکار مکمل وجود دارد که کشورها می توانند برای کاهش خطر سلاح های خودمختار دنبال کنند. اول دولت ها می توانند یک اصل گسترده را اتخاذ کنند که حداقل مشارکت انسانی لازم را در تصمیم گیری های مرگبار ایجاد کند. چنین اصلی می تواند به عنوان یک قانون الزام آور قانونی، یا از طریق CCW یا مجمع عمومی، یا می تواند یک اعلامیه الزام آور سیاسی باشد. این استاندارد باید مستلزم آن باشد که تصمیم گیرنده انسانی اطلاعات مشخص و کافی در مورد هدف مورد نظر سلاح، محیط و زمینه حمله داشته باشد تا مشخص کند که آیا حمله قبل از اینکه مجاز باشد قانونی است یا خیر. کشورها همچنین می توانند توافق کنند که برای اینکه کنترل انسانی معنادار باشد هرگونه استفاده از سلاح های خودمختار باید از نظر جغرافیایی، زمانی و اهداف مورد حمله محدود شود. اگرچه چنین اصلی همه سلاح‌های خودمختار را ممنوع نمی‌کند  در واقع استفاده از آن‌ها را در هنگام پیروی از این قوانین مشروع می‌سازد اما نرده‌هایی را در مورد نحوه استفاده کشورها از سلاح‌های خودمختار فراهم می‌کند و از دخالت انسان در حیاتی‌ترین تصمیم‌ها برای صدور مجوز حملات اطمینان می‌دهد.دوم دولت‌ها می‌توانند سلاح‌های خودمختار را که مردم را هدف قرار می‌دهند، ممنوع کنند. در دنیایی که بسیاری از رزمندگان یونیفورم نمی‌پوشند حتی انسان‌ها نیز اغلب برای تشخیص دقیق غیرنظامیان از سربازان تلاش می‌کنند. الگوریتم‌ها برای نتیجه‌گیری اینکه فردی که تفنگ در دست دارد یک مبارز است یا یک کشاورز که از زمین خود محافظت می‌کند کار بسیار سخت‌تری خواهد داشت. همچنین احتمال کمتری وجود دارد که یک ماشین بتواند به طور دقیق و قابل اعتماد تشخیص دهد که آیا یک سرباز واقعاً در تلاش تسلیم شدن است یا فقط تظاهر به تسلیم شدن دارد. در نتیجه تسلیحات خودمختار ضد نفر خطرات بیشتری نسبت به آنهایی دارند که فقط وسایل نقلیه یا تجهیزات را هدف قرار می دهند و آسیبی که این سلاح ها می توانند وارد کنند بسیار بیشتر از ارزش نظامی آنها است. دولت‌ها می‌توانند قبل از فراگیر شدن استفاده از آنها را ممنوع کنند.سوم کشورها می‌توانند بهترین شیوه‌ها را برای آزمایش هوش مصنوعی نظامی و سیستم‌های خودمختار برای جلوگیری از حوادث منتشر کنند. هدف اصلی بیانیه سیاسی سال 2023 به رهبری ایالات متحده این است که با بهبود آزمایش اطمینان حاصل شود که سیستم های هوش مصنوعی نظامی ایمن هستند. واشنگتن باید پا را فراتر بگذارد و بهترین شیوه های آزمایش سیستم های هوش مصنوعی را برای بهبود ایمنی آنها با دیگر کشورها به اشتراک بگذارد. این می‌تواند به روشی مشابه نحوه اشتراک‌گذاری اطلاعات مربوط به فرآیند بازبینی سلاح‌های قانونی توسط ایالات متحده بدون انتشار محتوای بازبینی‌های خاص انجام شود. توافقی که کنترل دقیق انسانی بر سلاح های هسته ای را تضمین می کند. لندن به دلیل سیاست حفظ کنترل انسانی بر زرادخانه هسته ای خود شریک مناسبی برای این تلاش است. تضمین بیانیه‌های یکجانبه مشابه از دیگر قدرت‌های هسته‌ای یا در حالت ایده‌آل یک توافق چندجانبه گام مهمی در جهت اطمینان از اینکه خطرناک‌ترین سلاح‌های بشریت در کنترل انسان‌ها باقی می‌ماند خواهد بود. توافق میان پنج عضو دائمی شورای امنیت سازمان ملل متحد بیانیه ای قدرتمند خواهد بود. واشنگتن همچنین باید در مذاکرات جدید هوش مصنوعی دوجانبه آمریکا و چین پکن را در مورد این موضوع تحت فشار قرار دهد.در نهایت ایالت‌ها می‌توانند قوانین یکسانی جاده‌ای را برای هواپیماهای بدون سرنشین خود مختار اتخاذ کنند تا خطر تصادفات را کاهش دهند. از آنجایی که کشورها هواپیماهای بدون سرنشین بیشتری را در هوا و دریا به کار می‌برند  و هر چه این پهپادها به طور فزاینده‌ای خودمختار می‌شوند  احتمال وقوع یک حادثه یا اشتباه محاسباتی می‌تواند باعث بروز یک حادثه بین‌المللی شود. برای مثال در سال ۲۰۱۹ پدافند هوایی ایران یک پهپاد گلوبال هاوک آمریکا را بر فراز تنگه هرمز سرنگون کرد. در مارس 2023 یک جت جنگنده روسی با هواپیمای بدون سرنشین ام کیو-9 ریپر آمریکا در دریای سیاه تداخل کرد و باعث سقوط این پهپاد شد. از آنجایی که این پهپادها از راه دور کنترل می شدند یک انسان تصمیم گرفت که چگونه پاسخ دهد. اما پهپادهای هوایی و دریایی آینده می توانند مستقل باشند. این بدان معناست که اگر موقعیت های مشابهی اتفاق بیفتد پهپاد به طور مستقل اقداماتی را که برای انجام آن برنامه ریزی شده بود انجام می دهد. اگر برای شلیک برنامه ریزی شده بود این کار را انجام می داد و به طور بالقوه یک حادثه بین المللی را بدون هیچ تصمیم عمدی انسانی برای انجام آن تشدید می کرد. دولت ها باید اطمینان حاصل کنند که هر گونه رفتار خودمختار با نیت انسان سازگار است. توافقنامه حوادث دریایی ایالات متحده و شوروی در سال 1972 به کاهش تعداد حوادث برنامه ریزی نشده بین نیروی دریایی ایالات متحده و شوروی در طول جنگ سرد کمک کرد. یک توافقنامه حوادث خودمختار مشابه به کشورها کمک می کند تا از خطرات ناشی از دوئل سیستم های خودگردان مستقر در مناطق مورد مناقشه عبور کنند و از حوادث ناخواسته و برنامه ریزی نشده اجتناب کنند. این ابتکارات برای مقابله با خطرات تسلیحات خودمختار می‌تواند با هم یا جداگانه از طریق کانال‌های مختلف و در بازه‌های زمانی مختلف دنبال شود. CCW مجمع عمومی ابتکار بیانیه سیاسی به رهبری ایالات متحده، شورای امنیت گفتگوهای دوجانبه ایالات متحده و چین و دیگر مجامع چندجانبه همگی فضاهایی برای همکاری جهانی هستند که باید مورد توجه قرار گیرند. همکاری واشنگتن با پکن بسیار مهم خواهد بود. توافق بین ایالات متحده و چین به عنوان ابرقدرت های نظامی، اقتصادی و تکنولوژیکی پیشرو در جهان، گامی دشوار و در عین حال حیاتی به جلو در مدیریت خطرات سلاح های خودمختار خواهد بود.

    مواظب باشند

    سلاح های خودمختار می آیند. تلاش برای ممنوعیت کامل آنها هرچند به معنای خوب احتمالاً بیهوده است. ارزش نظامی آنها خیلی زیاد است. با این حال کشورها در مورد نحوه استفاده از تسلیحات خودمختار حق انتخاب دارند. بدون محدودیت‌های مؤثر سلاح‌های خودمختار کنترل انسان بر جنگ را کاهش می‌دهند خطر بیشتری را برای غیرنظامیان و رزمندگان ایجاد می‌کنند و ثبات بین‌المللی را تضعیف می‌کنند. برای مقابله با بدترین خطرات این تسلیحات باید فوراً اقداماتی انجام شود. انجام این کار مستلزم حرکت فراتر از انتخاب ساده و گمراه‌کننده کنونی بین ممنوعیت همه سلاح‌های خودمختار و بدون محدودیت است.سلاح های خودمختار آزمایش اولیه توانایی بشر برای مقابله با هوش مصنوعی تسلیحاتی است که اشکال خطرناک تری از آن در راه است. سیستم های پیشرفته هوش مصنوعی توانایی کمک به توسعه سلاح های سایبری و سلاح های شیمیایی و بیولوژیکی را نشان داده اند. همکاری جهانی برای کنترل بهبود آنها، محدود کردن گسترش آنها و محافظت در برابر استفاده بالقوه آنها ضروری است. دستیابی به توافق بین‌المللی در مورد سلاح‌های خودمختار برای رسیدگی به آسیب‌های آنها و ایجاد پایه‌ای برای همکاری در مورد خطرات هوش مصنوعی در آینده حیاتی است.




    بازدید ها:

    درج یک دیدگاه

    
    <