هشدار مرگبار برای استفاده از هوش مصنوعی در جنگ‌ها

یکی از نگران‌کننده‌ترین خطرات خودگردانی هوش مصنوعی در جنگ‌افزارها، خودگردانی تصمیم درباره استفاده از سلاح‌های هسته‌ای است.

به گزارش تازه‌نیوز، دانشمندان برجسته هوش مصنوعی، از جمله استوارت راسل، استاد دانشگاه کالیفرنیا و یان لی‌چون، برنده جایزه تورینگ، در مورد خطرات سلاح‌های خودران هشدار داده‌اند. کنسرسیومی متشکل از ۲۵۰ سازمان غیردولتی، از جمله سازمان عفو بین‌الملل، دیده‌بان حقوق‌بشر، و ابتکار زنان برنده جایزه نوبل، کمپین توقف ربات‌های قاتل را تشکیل داده‌اند و خواستار یک معاهده پیشگیرانه و الزام‌آور برای ممنوعیت سلاح‌های خودمختار هستند.

انگیزه این هشدار‌ها و کمپین‌ها نگرانی از این است که سلاح‌های خودمختار می‌توانند تلفات غیرنظامیان را در جنگ افزایش دهند. اگرچه سلاح‌های خودمختار می‌توانند تلفات غیرنظامیان را با هدف قراردادن دقیق جنگجویان کاهش دهند، اما در دستان دولتی که به تلفات غیرنظامیان اهمیت چندانی نمی‌دهد – یا قصد آن را دارد که جمعیت غیرنظامی را مجازات کند- می‌توانند برای ارتکاب جنایات ویرانگر استفاده شوند. انبوهی از سلاح‌های خودران را می‌توان برای هدف قراردادن و کشتن هزاران نفر در یک زمان استفاده کرد، جوری که بمب‌های هوشمند امروزی در مقایسه با آن‌ها دست و پا چلفتی به نظر برسند.

یکی از نگران‌کننده‌ترین خطرات خودگردانی هوش مصنوعی در جنگ‌افزارها، خودگردانی تصمیم درباره استفاده از سلاح‌های هسته‌ای است. در سال ۲۰۲۲، ایالات متحده اعلام کرد که برای تصمیم‌گیری در مورد استفاده از سلاح‌های هسته‌ای همیشه سیاست «حفظ یک انسان در حلقه تصمیم‌گیری» را حفظ خواهد کرد. بریتانیا سیاست مشابهی را در سال ۲۰۲۲ اتخاذ کرد.

با این حال روسیه و چین چنین نکرده‌اند. به نظر می‌رسد کنترل انسان بر سلاح‌های هسته‌ای نقطه شروع آسانی برای توافق بین‌المللی باشد، اما مسکو تمایل نگران کننده‌ای برای ادغام اتوماسیون پرخطر در عملیات هسته‌ای خود نشان داده است. این چیز جدیدی نیست: پس از پایان جنگ سرد، مقامات شوروی سابق توضیح دادند که اتحاد جماهیر شوروی یک سیستم حمله اتمی تلافی‌جویانه نیمه خودکار به نام «Perimeter» ساخته است که پس از فعال‌شدن، از یک سری حسگر‌های خودکار برای تشخیص حمله هسته‌ای در خاک شوروی استفاده می‌کند. اگر حمله‌ای شناسایی شود و هیچ پاسخی از سوی رهبران کشور نیاید -احتمالاً به این دلیل که آن‌ها در این حمله کشته شده‌اند – سیستم به طور خودکار اختیار پرتاب هسته‌ای را به یک افسر نسبتاً دون‌پایه در یک پناهگاه امن منتقل خواهد کرد.

مقامات روسی در سال ۲۰۱۸ اعلام کردند که این سیستم هنوز فعال است و حتی ارتقا یافته است. اخیراً، مسکو شروع به توسعه یک پهپاد زیردریایی خودمختار با سلاح هسته‌ای کرده است. پهپاد‌های مجهز به سلاح هسته‌ای در دریا یا هوا می‌توانند برای گشت‌زنی فرستاده شوند و خطر تصادف یا از دست دادن کنترل یک سلاح هسته‌ای را به همراه داشته باشند.

استفاده گسترده سلاح‌های خودمختار که با سایر جنبه‌های هوش مصنوعی نظامی ادغام شده‌اند، می‌تواند به عصر جدیدی از جنگ ماشین‌محور منجر شوند. اپلیکیشین‌های هوش مصنوعی نظامی می‌توانند پردازش اطلاعات و تصمیم‌گیری را تسریع کنند. با استفاده کشور‌ها از هوش مصنوعی و اتوماسیون برای کاهش زمانِ یافتن، شناسایی و حمله به اهداف دشمن، چرخه تصمیم‌گیری کوتاه‌تر می‌شود.

روی کاغذ، این پیشرفت‌ها می‌توانند زمان بیشتری را برای تصمیم‌گیری در اختیار انسان بگذارند. در عمل، اما هریک از طرفین جنگ فکر می‌کند باید روتین عملیات را رعایت کند و بنابراین از اتوماسیون برای سرعت بخشیدن به عملیات خود و برای حفظ سرعت استفاده خواهد کرد. نتیجه یک مارپیچ قزاینده خواهد بود که در آن استفاده از اتوماسیون بیشتر و کنترل انسانی دائما کمتر خواهد شد.

وضعیت نهایی این رقابت احتمالاً با سرعتی در حد ماشین و خارج از کنترل انسان بود. استفاده گسترده از الگوریتم‌ها در امور مالی و معاملات با فرکانس بالا منجر به معاملات سهام ماشینیِ مستقل و با سرعت فوق بشری شده است. چن هانگهویی، محقق نظامی چینی از دانشکده فرماندهی ارتش آزادی‌بخش خلق، در مورد «تکینگی» در میدان نبرد فرضیه‌ای را مطرح کرده است، نقطه‌ای که در آن سرعت جنگ ماشین‌محور –مانند خریدوفروش ماشینی سهام- از سرعت تصمیم‌گیری انسانی پیشی می‌گیرد.

این نقطه عطف، انسان‌ها را مجبور می‌کند که ماشین‌ها را هم برای تصمیمات تاکتیکی و هم برای تصمیم‌های استراتژیک جنگی در سطح عملیاتی کنترل کنند. ماشین‌ها نه تنها اهداف فردی را انتخاب می‌کنند، بلکه کل کمپین عملیات را نیز برنامه‌ریزی و اجرا می‌کنند. نقش انسان‌ها به روشن کردن ماشین‌ها و نشستن در حاشیه، با توانایی کمی برای کنترل یا حتی پایان دادن به جنگ‌ها کاهش می‌یابد.

ارسال نظر

آدرس ایمیل شما منتشر نخواهد شد.