روح قاتل ماشینی ادامه دارد. رئیس جمهور پوتین به چه چیزی اعتقاد دارد؟
تکنولوژی

روح قاتل ماشینی ادامه دارد. رئیس جمهور پوتین به چه چیزی اعتقاد دارد؟

طرفداران روبات‌های نظامی (1) استدلال می‌کنند که سلاح‌های خودکار گزینه‌های بیشتری برای محافظت از جان انسان‌ها فراهم می‌کنند. ماشین‌ها می‌توانند بیشتر از سربازان به دشمن نزدیک شوند و تهدید را به درستی ارزیابی کنند. و احساسات گاهی اوقات توانایی تصمیم گیری درست را فلج می کنند.

بسیاری از حامیان روبات‌های قاتل متقاعد شده‌اند که جنگ‌ها را خونبارتر می‌کنند، زیرا سربازان کمتری خواهند مرد. آنها خاطرنشان می کنند که ربات ها، در حالی که احساس ترحم نمی کنند، از احساسات منفی انسانی مانند وحشت، خشم و انتقام که اغلب منجر به جنایات جنگی می شود، مصون هستند.

فعالان حقوق بشر همچنین از این استدلال استفاده می‌کنند که ارتش منجر به کاهش شدید تلفات غیرنظامیان در نیم قرن گذشته شده است و روبات‌سازی ارتش مکانیسمی را برای اجرای دقیق‌تر قوانین جنگ فراهم می‌کند. آنها ادعا می کنند که ماشین ها زمانی اخلاقی خواهند شد که به نرم افزاری مجهز شوند که آنها را مجبور به اطاعت از قوانین جنگ کند.

البته خیل عظیمی از مردم از جمله افراد بسیار معروف سال هاست که با این عقیده موافق نیستند. در آوریل 2013 کمپین بین المللی با شعار (2) راه اندازی شد. در چارچوب آن، سازمان‌های غیردولتی خواستار ممنوعیت کامل استفاده از سلاح‌های خودمختار هستند. کارشناسان بسیاری از کشورها برای اولین بار در کنفرانس سازمان ملل در مورد خلع سلاح در ژنو در ماه می 2014 به بحث در مورد این موضوع نشستند. گزارشی که چند ماه بعد توسط دیده بان حقوق بشر و دانشمندان دانشگاه هاروارد منتشر شد، گفت که خودگردان ها بسیار خطرناک خواهند بود - آنها اهداف خود را انتخاب کردند و مردم را کشتند. در عین حال خیلی مشخص نیست چه کسی باید پاسخگو باشد.

2. تظاهرات به عنوان بخشی از اکشن "روبات های قاتل را متوقف کنید"

انبوهی از پهپادهای کوچک چه کاری می توانند انجام دهند

اختلافات پیرامون روبات‌های قاتل (ROU) سال‌هاست که ادامه دارد و از بین نمی‌رود. ماه‌های اخیر تلاش‌های جدیدی برای متوقف کردن روبات‌های نظامی و موجی از گزارش‌ها از پروژه‌های جدیدی از این نوع را به همراه داشته است که برخی از آنها حتی در شرایط جنگی واقعی آزمایش می‌شوند.

در نوامبر 2017، یک ویدئو نشان می دهد ازدحام مرگبار مینی پهپادها .، در اقدامی هولناک. بینندگان دیدند که دیگر نیازی به ماشین‌های جنگی سنگین، تانک‌ها یا موشک‌های پرتاب شده توسط Predators برای کشتار دسته جمعی و با مسلسل نداریم. کارگردان اصلی استوارت راسل، استاد هوش مصنوعی در برکلی، می‌گوید:

-

بهار گذشته پنجاه استاد دانشگاه های پیشرو جهان درخواستی را برای موسسه علوم و فناوری پیشرفته کره (KAIST) و شریک آن Hanwha Systems امضا کرده اند. آنها اعلام کردند که با دانشگاه و میزبانی مهمانان KAIST همکاری نخواهند کرد. دلیل آن ساخت «سلاح های خودگردان» بود که توسط هر دو نهاد انجام شد. KAIST گزارش های رسانه ها را تکذیب کرد.

اندکی پس از آن در ایالات متحده بیش از 3 کارمند گوگل اعتراض به کار شرکت برای ارتش. آنها نگران این بودند که گوگل با یک پروژه دولتی با نام رمز Maven که هدف آن استفاده از هوش مصنوعی برای تشخیص اشیا و چهره ها در ویدئوهای پهپادهای نظامی است، همکاری می کند. مدیریت این شرکت می گوید که هدف Maven نجات جان انسان ها و نجات مردم از کار طاقت فرسا است نه پرخاشگری. معترضان قانع نشدند.

قسمت بعدی نبرد اعلامیه بود کارشناسان هوش مصنوعی، شامل کار بر روی یک پروژه گوگل و الونا ماسکا. آنها قول می دهند که ربات ها را توسعه ندهند. آنها همچنین از دولت ها می خواهند که تلاش ها را برای تنظیم و محدود کردن این سلاح ها افزایش دهند.

در بخشی از این بیانیه آمده است که «تصمیم گرفتن جان انسان هرگز نباید توسط ماشین گرفته شود». اگرچه ارتش های جهان به بسیاری از دستگاه های خودکار مجهز شده اند که گاهی اوقات دارای سطح بالایی از خودمختاری هستند، بسیاری از کارشناسان نگرانند که در آینده این فناوری کاملاً خودمختار شود و امکان کشتن بدون دخالت اپراتور و فرمانده را فراهم کند.

کارشناسان همچنین هشدار می‌دهند که ماشین‌های کشتار خود مختار می‌توانند حتی خطرناک‌تر از «سلاح‌های هسته‌ای، شیمیایی و بیولوژیکی» باشند، زیرا می‌توانند به راحتی از کنترل خارج شوند. در مجموع، در تیرماه سال گذشته، نامه ای تحت پوشش موسسه آینده زندگی (FGI) توسط 170 سازمان و 2464 فرد امضا شد. در ماه های ابتدایی سال 2019، گروهی از دانشمندان پزشکی وابسته به FLI دوباره خواستار نامه جدیدی شدند که توسعه سلاح های کنترل شده هوش مصنوعی (AI) را ممنوع می کرد.

نشست اوت سال گذشته سازمان ملل در گنیو در مورد مقررات قانونی احتمالی "روبات های قاتل" نظامی با موفقیت به پایان رسید. گروهی از کشورها، از جمله ایالات متحده، روسیه و اسرائیل، کار بیشتر بر روی معرفی ممنوعیت بین المللی این سلاح ها را مسدود کردند (پیش نویس کنوانسیون منع یا محدودیت استفاده از برخی سلاح های متعارف، CCW). تصادفی نیست که این کشورها به دلیل کار بر روی سیستم های پیشرفته تسلیحات خودمختار و روباتیک شناخته شده اند.

روسیه بر روی ربات های جنگی تمرکز می کند

رئیس جمهور ولادیمیر پوتین اغلب در مورد سیستم های هوش مصنوعی نظامی و ربات های رزمی می گوید:

-.

آشکارا در مورد توسعه سلاح های خودمختار صحبت می کند. ژنرال والری گراسیموف، رئیس ستاد کل نیروهای مسلح این کشور، اخیراً به خبرگزاری نظامی اینترفاکس-AVN گفته است که استفاده از روبات‌ها یکی از ویژگی‌های اصلی جنگ‌های آینده خواهد بود. وی افزود که روسیه در حال تلاش است میدان جنگ را کاملاً خودکار کنید. دیمیتری روگوزین معاون نخست وزیر و سرگئی شویگو وزیر دفاع نیز اظهارات مشابهی را ارائه کردند. ویکتور بوندارف، رئیس کمیته دفاع و امنیت شورای فدراسیون گفت که روسیه در تلاش برای توسعه است فناوری های روژواین به شبکه های هواپیماهای بدون سرنشین اجازه می دهد تا به عنوان یک موجودیت واحد عمل کنند.

تعجب آور نیست اگر به یاد بیاوریم که اولین تله تانک ها در دهه 30 در اتحاد جماهیر شوروی ساخته شدند. آنها در آغاز جنگ جهانی دوم مورد استفاده قرار گرفتند. امروز روسیه نیز ایجاد می کند روبات های تانک بیشتر و بیشتر خودمختار شوند.

دولت پوتین اخیرا کشور خود را به سوریه فرستاده است خودروی جنگی بدون سرنشین Uran-9 (3). این دستگاه ارتباط خود را با نقاط کنترل زمینی از دست داد، با سیستم تعلیق مشکل داشت و تسلیحات آن عملکرد کاملی نداشتند و به اهداف متحرک برخورد نمی کردند. این خیلی جدی به نظر نمی رسد، اما بسیاری معتقدند که پاک کردن سوریه یک آزمایش جنگی خوب است که به روس ها اجازه می دهد ماشین را بهبود بخشند.

Roscosmos طرح اولیه ای را برای ارسال دو ربات به ایستگاه فضایی بین المللی تا آگوست سال جاری تصویب کرده است. فدور (4) در اتحادیه بدون سرنشین. نه مثل بار، اما. مانند فیلم RoboCop، فدور در حین تمرینات تیراندازی، سلاحی به دست می گیرد و تیراندازی مرگبار را نشان می دهد.

سوال این است که چرا یک ربات در فضا باید مسلح شود؟ شبهاتی وجود دارد که موضوع فقط در کاربردهای زمینی نیست. در همین حال بر روی زمین، کلاشنیکف سازنده تسلیحات روسی تصویری را نشان داد ربات ایگورککه اگرچه باعث خنده های زیادی شد، اما نشان می دهد که این شرکت به طور جدی روی خودروهای جنگی خودران کار می کند. در ژوئیه 2018، کلاشینکف اعلام کرد که در حال ساخت سلاحی است که از آن برای تصمیم گیری "شلیک یا شلیک نکردن" استفاده می کند.

به این اطلاعات باید گزارش هایی اضافه کرد که دیگتیارف اسلحه ساز روسی یک دستگاه کوچک توسعه داده است تانک خودران نِرخت که می تواند بی سر و صدا به سمت هدف خود حرکت کند و سپس با نیرویی قوی منفجر شود تا ساختمان های دیگر یا کل را از بین ببرد. همچنین تانک T14 ارتش ، افتخار نیروهای مسلح روسیه، برای کنترل احتمالی از راه دور و رانندگی بدون سرنشین طراحی شده است. اسپوتنیک ادعا می کند که مهندسان نظامی روسیه در تلاش هستند تا T-14 را به یک خودروی زرهی کاملا خودمختار تبدیل کنند.

دستورالعمل اعتراض

خود ارتش ایالات متحده محدودیت نسبتاً واضحی را در سطح خودمختاری تسلیحات خود اعمال کرده است. در سال 2012، وزارت دفاع ایالات متحده دستورالعمل 3000.09 را صادر کرد که بیان می کند انسان ها باید حق اعتراض به اقدامات ربات های مسلح را داشته باشند. (اگرچه ممکن است استثناهایی وجود داشته باشد). این بخشنامه به قوت خود باقی است. سیاست فعلی پنتاگون این است که عامل تعیین کننده در استفاده از سلاح همیشه باید شخص باشد و چنین قضاوتی باید باشد. مطابق با قوانین جنگ است.

اگرچه آمریکایی ها چندین دهه است که از پرنده، Predator، Reaper و بسیاری دیگر از ابر ماشین ها استفاده می کنند، اما آنها مدل های مستقل نبوده و نیستند. آنها توسط اپراتورها از راه دور کنترل می شوند، گاهی اوقات از فاصله چند هزار کیلومتری. بحث داغ درباره استقلال ماشین‌های این نوع با نمایش نمونه اولیه آغاز شد. پهپاد X-47B (5) که نه تنها به طور مستقل پرواز می کرد، بلکه می توانست از یک ناو هواپیمابر بلند شود، روی آن فرود بیاید و در هوا سوخت گیری کند. منظور نیز شلیک یا بمباران بدون دخالت انسان است. با این حال، پروژه هنوز در مرحله آزمایش و بررسی است.

5. آزمایش های X-47B بدون سرنشین بر روی یک ناو هواپیمابر آمریکایی

در سال 2003، وزارت دفاع آزمایش یک ربات کوچک تانک مانند را آغاز کرد. SPOES مجهز به مسلسل در سال 2007 به عراق اعزام شد. با این حال، برنامه پس از اینکه ربات شروع به رفتار نامنظم کرد و تفنگ خود را به طور نامنظم حرکت داد، به پایان رسید. در نتیجه، ارتش ایالات متحده مطالعه ربات های زمینی مسلح را برای سال ها کنار گذاشت.

در عین حال، ارتش ایالات متحده هزینه های خود را برای عملیات از 20 میلیون دلار در سال 2014 به 156 میلیون دلار در سال 2018 افزایش داده است. این بودجه در حال حاضر به 2019 میلیون دلار در سال 327 افزایش یافته است. این یک افزایش تجمعی 1823٪ در تنها چند سال است. کارشناسان می گویند که در اوایل سال 2025، ارتش ایالات متحده ممکن است میدان نبرد داشته باشد سربازان ربات بیشتر از انسان ها.

اخیرا جنجال های زیادی توسط ارتش آمریکا ایجاد و اعلام شده است پروژه اطلس () - خودکار. در رسانه ها این امر به عنوان نقض بخشنامه 3000.09 فوق الذکر تلقی شد. با این حال، ارتش ایالات متحده تکذیب می کند و اطمینان می دهد که حذف یک فرد از چرخه تصمیم گیری منتفی است.

هوش مصنوعی کوسه ها و غیرنظامیان را شناسایی می کند

با این حال، مدافعان سلاح های خودمختار استدلال های جدیدی دارند. پروفسور رونالد آرکین، متخصص رباتیک در موسسه فناوری جورجیا، در انتشارات خود بیان می کند که در جنگ مدرن، سلاح‌های هوشمند برای جلوگیری از تلفات غیرنظامیان ضروری هستند، زیرا تکنیک‌های یادگیری ماشینی می‌توانند به طور موثر به تمایز بین رزمندگان و غیرنظامیان و اهداف مهم و غیر مهم کمک کنند.

نمونه ای از چنین مهارت های هوش مصنوعی گشت زنی در سواحل استرالیا است. هواپیماهای بدون سرنشین Little Ripperمجهز به سیستم SharkSpotter که توسط دانشگاه فناوری سیدنی توسعه یافته است. این سیستم به طور خودکار آب را برای یافتن کوسه اسکن می کند و در صورت مشاهده چیزی ناامن به اپراتور هشدار می دهد. (6) می تواند افراد، دلفین ها، قایق ها، تخته های موج سواری و اشیاء موجود در آب را شناسایی کند تا آنها را از کوسه ها متمایز کند. می تواند حدود شانزده گونه مختلف را با دقت بالا شناسایی و شناسایی کند.

6. کوسه های شناسایی شده در سیستم SharkSpotter

این روش های پیشرفته یادگیری ماشینی دقت شناسایی هوایی را بیش از 90 درصد افزایش می دهد. برای مقایسه، یک اپراتور انسانی در یک موقعیت مشابه، 20-30٪ از اشیاء را در عکس های هوایی به طور دقیق تشخیص می دهد. علاوه بر این، شناسایی هنوز توسط یک انسان قبل از زنگ خطر تأیید می شود.

در میدان جنگ، اپراتور با دیدن تصویر روی صفحه، به سختی می تواند تشخیص دهد که افراد روی زمین جنگنده هایی هستند که AK-47 در دست دارند یا مثلاً کشاورزانی با پیک. آرکین خاطرنشان می کند که مردم تمایل دارند "آنچه را که می خواهند ببینند" به خصوص در موقعیت های استرس زا. این اثر به سرنگونی تصادفی هواپیمای ایرانی توسط یو اس اس وینسنس در سال 1987 کمک کرد. البته به نظر او، سلاح‌های کنترل‌شده با هوش مصنوعی بهتر از «بمب‌های هوشمند» فعلی هستند که واقعاً حساس نیستند. اوت گذشته، موشک هدایت لیزری عربستان سعودی به اتوبوسی پر از دانش‌آموزان در یمن اصابت کرد و چهل کودک را کشت.

آرکین در Popular Mechanics استدلال می کند: «اگر یک اتوبوس مدرسه به درستی برچسب گذاری شده باشد، شناسایی آن در یک سیستم خودمختار می تواند نسبتاً آسان باشد.

با این حال، به نظر نمی رسد که این استدلال ها مبارزان علیه قاتلان خودکار را متقاعد کند. علاوه بر تهدید روبات‌های قاتل، یکی دیگر از شرایط مهم را باید در نظر گرفت. حتی یک سیستم "خوب" و "توجه" را می توان هک کرد و توسط افراد بسیار بد تصرف شد. سپس تمام استدلال ها در دفاع از تجهیزات نظامی قدرت خود را از دست می دهند.

اضافه کردن نظر