سربازی بدون بدن؛ آیا انسانها در جنگهای آینده به تماشاچی تبدیل خواهند شد؟

با شتاب گرفتن توسعه فناوری، صحبتهای فزایندهای در مورد آینده جنگ و چگونگی تبدیل آن از رویارویی بین انسانها به درگیری بین الگوریتمها مطرح میشود.
استفاده از پهپادها یا سیستمهای هوش مصنوعی در میدان نبرد دیگر فقط یک سناریوی خیالی نیست؛ بلکه به واقعیتی تبدیل شده است که توسط مراکز تحقیقات نظامی در سراسر جهان به رسمیت شناخته شده است، جایی که «سلاحهای خودمختار» در حال توسعه هستند که قادر به تصمیمگیریهای تهاجمی بدون دخالت مستقیم انسان هستند.
این تغییر، سوالات جدی را مطرح میکند: آیا ما وارد مرحله جدیدی از مسابقه تسلیحاتی، نه فقط بین کشورها، بلکه بین الگوریتمهای برنامهریزیشده برای کشتن، میشویم؟ آیا هوش مصنوعی میتواند به یک «قاتل غیرمسئول» تبدیل شود که پاسخگو بودن یا کنترل آن دشوار است؟
پهپادهای هوشمند: آغاز بیبازگشت
گزارشهای نظامی غربی نشان میدهد که بیش از ۶۰ کشور در سراسر جهان، پهپادهایی مجهز به الگوریتمهای هوشمند قادر به شناسایی اهداف را توسعه داده یا خریداری کردهاند.
سرلشکر محمد الغباری، مدیر سابق کالج دفاع ملی، در مصاحبهای با اسکای نیوز عربی، خطر این روند را توضیح داد و گفت: «پهپادها دیگر یک کالای لوکس نظامی نیستند، بلکه یک سلاح ضروری در هر درگیری مسلحانه هستند. ما در مورد ابزاری صحبت میکنیم که قادر به انجام عملیات کیفی بدون قربانی کردن حتی یک سرباز است. این به کشورها یک مزیت استراتژیک آشکار میدهد. با این حال، خطر واقعی در سهولت انتقال یا تقلید این فناوری توسط گروههای مسلح یا نهادهای نامنظم نهفته است. ابزاری که برای محافظت از کشورها توسعه یافته است، به وسیلهای برای افزایش هرج و مرج و بیثباتی تبدیل میشود.
خطرناکتر اینکه، اتکای بیش از حد به این سیستمها میتواند منجر به کاهش تجربه جنگی ارتشها شود، زیرا یک افسر یا سربازی که هرگز در یک نبرد واقعی نجنگیده است، ممکن است توانایی تصمیمگیری در موقعیتهای غیرمنتظره را نداشته باشد. ما با یک معادله ظریف روبرو هستیم: فناوری محافظت را فراهم میکند و تلفات انسانی را کاهش میدهد، اما میتواند ساختار سنتی ارتشها را تضعیف کند و در را برای یک مسابقه تسلیحاتی جدید بر اساس اینکه چه کسی قدرتمندترین الگوریتمها را دارد، نه اینکه چه کسی بزرگترین ارتشها را دارد، باز کند.»
هوش مصنوعی قاتل: سلاحی بحثبرانگیز
نگرانکنندهترین جنبه امروز «هوش مصنوعی قاتل» یا چیزی است که به عنوان سلاحهای خودمختار کشنده شناخته میشود. این سیستمها قادر به شناسایی و حمله به اهداف بدون هیچ گونه دخالت انسانی هستند.
محمد مجاهد الزیات، مشاور دانشگاهی مرکز مطالعات فکری و استراتژیک مصر، به اسکای نیوز عربی گفت که معتقد است خطر واقعی نه در خود فناوری، بلکه در فقدان نظارت است: «سازمان ملل متحد سالهاست که در مورد این موضوع بحث میکند، اما تاکنون هیچ معاهده الزامآوری وجود ندارد. این سوال همچنان باقی است: اگر یک ربات اشتباه کند و غیرنظامیان را بکشد، چه کسی مسئول است؟ آیا باید برنامهنویس را پاسخگو بدانیم؟ کشور سازنده؟ یا فرمانده نظامی که اجازه استفاده از آن را داده است؟ این یک خلأ بزرگ اخلاقی و قانونی است.»
به سوی یک معاهده بینالمللی؟
جامعه بینالمللی بر سر یک دوراهی ایستاده است: یا ایجاد یک چارچوب قانونی که استفاده از این سلاحها را تعریف کند، یا ورود به یک مسابقه تسلیحاتی جدید. الزیات اظهار داشت: «قدرتهای بزرگ به راحتی محدودیتهای اعمال شده بر این فناوری را نمیپذیرند زیرا آن را یک دارایی استراتژیک میدانند. اما اگر اوضاع کنترل نشود، هرگونه خطای نرمافزاری یا نقص فنی میتواند به یک جنگ تمامعیار منجر شود. بنابراین، من معتقدم که ایجاد یک معاهده بینالمللی جدید، مشابه کنوانسیونهای ژنو، موضوعی است که نمیتوان آن را به تعویق انداخت.»
درگیری بین الگوریتمها
آینده ممکن است شاهد نوع متفاوتی از درگیری باشد، نه بین ارتشها، بلکه بین برنامهها. مهندس محمد مصطفی از سازمان عربی صنعتیسازی به اسکای نیوز عربی گفت: «برتری نظامی در آینده صرفاً به اندازه تانکها یا هواپیماها بستگی نخواهد داشت، بلکه به سرعت و دقت الگوریتمها بستگی دارد. ممکن است شاهد درگیری باشیم که در آن یک الگوریتم تهاجمی سعی در فریب یک الگوریتم دفاعی داشته باشد، گویی جنگ به رقابت بین برنامههای رایانهای تبدیل میشود. این بدان معناست که سرمایهگذاری در نرمافزار به اندازه سرمایهگذاری در سلاحهای متعارف اهمیت خواهد داشت.»
خطرات اخلاقی و بشردوستانه
با وجود دستاوردهای تکنولوژیکی، جنبه انسانی همچنان یک نقطه اختلاف اساسی است. دکتر احمد حسین، استاد امنیت سایبری در دانشگاه قاهره، در بیانیهای اختصاصی به اسکای نیوز عربی نسبت به نادیده گرفتن این خطرات هشدار داد: «یک ماشین نه وجدان دارد و نه رحم. ممکن است یک عملیات نظامی را به طور مؤثر انجام دهد، اما حضور کودکان یا غیرنظامیان در نزدیکی هدف را در نظر نمیگیرد. خطرناکتر این است که این سیستمها در برابر حملات سایبری آسیبپذیر هستند و بنابراین میتوانند فوراً به سلاحی در دست خود دشمن تبدیل شوند.»
جنگهای آینده ممکن است برخلاف هر جنگی باشند که بشریت قبلاً شناخته است. از «پهپادهای هوشمند» گرفته تا «هوش مصنوعی قاتل»، به نظر میرسد که ما وارد دوران جدیدی میشویم که در آن الگوریتمها سرنوشت مردم را کنترل میکنند. در حالی که کشورها برای توسعه این قابلیتها با هم رقابت میکنند، این سؤال همچنان باقی است: آیا بشریت قادر به ایجاد محدودیتها و کنترلهای اخلاقی خواهد بود؟ یا اینکه ما در را به روی خطرناکترین مسابقه تسلیحاتی تاریخ باز میکنیم، جایی که هیچ جنگجویی در زمین وجود ندارد، بلکه برنامههایی وجود دارند که با فشار یک دکمه میکشند؟