به گزارش پرشین خودرو به نقل اززومیت، این موضوع، پیشرفت جدیدی در ساخت سلاحهای کشنده است. در حالی که هواپیماهای بدون سرنشین فعلی همچنان توسط انسان کنترل میشوند، این فناوری جدید میتواند تقریبا بدون دخالت انسان، تصمیم به کشتن انسانها بگیرد. تکمیل و عملیاتی شدن این هواپیماهای بدون سرنشین، میتواند پیامدهای اخلاقی و قانونی گستردهای برای جامعه ی جهانی داشته باشد.
این جنگ افزارهای جدید میتوانند در آینده در نبردهای هوایی و همچنین نابودی نیروهای دشمن به کار روند. در عین حال، این فناوری جدید، میتواند حوزهی جنگ را هم گسترش دهد، به طوری که شرکتها، مهندسان و دانشمندانی که در حال ساخت و توسعه هوش مصنوعی هستند را هم تبدیل به اهداف نظامی کند. هواپیماهای بدون سرنشین کشندهای مانند ام کیو-9 ریپر (MQ-9 Reaper)، از طریق ماهواره به وسیلهی اپراتورها به دقت کنترل میشوند.
اگر یک هواپیما بمب یا موشکی پرتاب کند، یک اپراتور به وسیلهی سنسورها و لیزر این موشک یا بمب را هدایت میکند. و در نهایت، خدمه پرواز مسئولیت اخلاقی، قانونی و عملیاتی برای کشتن اهداف تعیین شده را برعهده خواهند داشت.
چنانچه یک اپراتور هواپیمای ریپر، میگوید:
همیشه این ذهنیت را دارم که اجازه دهم یک شورشی حتی اگر هدف با اهمیتی باشد؛ فرار کند تا اینکه شلیک پر خطری انجام دهم که موجب مرگ غیر نظامیان شود.
حتی با کشتار توسط این هواپیماهای بدون سرنشین، احساسات، قضاوت و اخلاق انسانی، همیشه در جنگ باقی خواهد ماند. وجود ضربهی روانی و اختلال استرسی پس از ضایعه روانی در میان اپراتورهای هواپیماهای بدون سرنشین نشان دهندهی تاثیر روانی کشتار از راه دور است. این در واقع به استدلال احتمالی نظامی و اخلاقی رونالد آرکین، در حمایت از هواپیماهای بدون سرنشین مستقل اشاره دارد.
پرفسور آرکین، متخصص رباتیک و اخلاق رباتیک، ربات و رئیس آزمایشگاه ربات های سیار در کالج محاسبات موسسه فناوری جورجیای است. او مدعی شده است که رباتها میتوانند به طور بالقوه، به لحاظ اخلاقی در میدان نبرد نسبت به انسانها بهتر عمل کنند.
شاید اگر این هواپیماهای بدون سرنشین به طور مستقل اقدام به پرتاب بمب کنند، از وجود مشکلات روانی در میان اعضای خدمه پرواز اجتناب شود. ضعف این استدلال این است که فرد نباید مسئولیت قتل را به عهده بگیرید تا سبب ضایعه روانی در او شود. متخصصان اطلاعاتی و دیگر پرسنل نظامی مرتبا فیلمهایی از حملات هواپیماهای بدون سرنشین را تحلیل میکنند. پژوهشها نشان میدهد که مرور تصاویری حاوی خشونت شدید، ممکن است که موجب ابتلا به برخی ضایعات روانی شود. در پژوهشی دیگری بیش از ۱۰۰ نفر از اعضای خدمه هواپیمای ریپر که با آنها مصاحبه شده بود، همه روی این موضوع اتفاق نظر داشتند که در نهایت یک انسان باید ماشه را بچکاند.
آزمایشهای مرگبار شرکتهای اوبر و تسلا با خودروهای خودران، نشان میدهد که کشتار ناخواسته همچون باگهای کامپیوتری غیرقابل اجتناباند
و با وجود هواپیماهای بدون سرنشین کاملا مستقل، اساسا فرایندهای پیچیده و تصمیمات پس از قتلهای نظامی به کلی دگرگون میشود. اما مسئولیتهای اخلاقی و قانونی اینطور نیستند که با حذف نظارت انسانی از بین بروند. در عوض، مسئولیت به طور فزایندهای بر گردن دیگران، از جمله دانشمندان هوش مصنوعی میافتد. پیامدهای قانونی این تحولات هم اکنون هم آشکار شدهاند. بر اساس حقوق بینالملل بشردوستانه، تسهیلات دو منظوره (تسهیلاتی که هم میتوانند در برنامههای غیر نظامی و هم نظامی مورد استفاده قرار گیرند) میتوانند در شرایط مناسب مورد استفاده قرار گیرند. به عنوان مثال، در سال ۱۹۹۹ و در جنگ کوزوو، پالایشگاه نفت پانچو مورد حمله قرار گرفت، زیرا میتوانست سوخت نیروهای یوگسلاوی و هم غیرنظامیان را تامین کند.
هم اکنون هواپیماهای بدون سرنشین به وسیله اپراتورها کنترل میشوند و مسئولیت اخلاقی، قانونی و عملیاتی برای کشتن اهداف تعیین شده هم برعهده آنهاست
با یک هواپیمای بدون سرنشین مستقل، خطوط خاصی از کدهای کامپیوتری هم تقریبا به عنوان تسهیلات دو منظوره دستهبندی خواهند شد. شرکتهایی مانند گوگل، کارمندان یا سیستمهای آنها میتوانند به یک کشور دیگر حمله کنند. به عنوان مثال، اگر پروژه هوش مصنوعی ماون (Project Maven، تشخیص خودکار چهره شخص) در یک هواپیمای مستقل نظامی مورد استفاده قرار گیرد، گوگل هم وارد کسب و کار هواپیماهای بدون سرنشین قاتل میشود، همانطور که ممکن است، پای هر شخص غیر نظامی دیگری (مشخصا افرادی که در زمینهی هوش مصنوعی فعال هستند) هم به طور غیرمستقیم به این موضوع باز شود.
از لحاظ اخلاقی، هنوز مسائل تیرهتری هم وجود دارد. کل ایدهی الگوریتمهای خودآموز (الگوریتمهای یادگیری ماشینی یا نرمافزارهایی که به طور مستقل دادههای مختلف را برای یادگیری جمعآوری میکنند) این است که به طور مستمر در انجام هر کاری بهتر شوند. اگر یک هواپیمای بدون سرنشین باید از طریق خودآموزی در انجام وظیفهای بهتر شود، شخصی باید تصمیم بگیرد که این فناوری تا چه مرحلهای پیشرفت کند، یعنی مسائل بیشتری را بیاموزد.
رونالد آرکین، مدعی است که رباتها میتوانند به طور بالقوه، به لحاظ اخلاقی در میدان نبرد نسبت به انسانها بهتر عمل کنند
در حقیقت، در یادگیری ماشینی نظامی، رهبران سیاسی، نظامیان و مدیران شرکتها هستند که تصمیم میگیرند، تا چه حد از تلفات غیرنظامی قابل قبول است. تجارب اخیر هوش مصنوعی مستقل باید برای جامعه هشدار دهنده باشد. آزمایشهای مرگبار شرکتهای اوبر و تسلا با خودروهای خودران، نشان میدهد که کشتار ناخواسته همچون باگهای کامپیوتری غیرقابل اجتناباند.
اگر ماشینها تعیین کنند که چه کسی بمیرد، به ویژه در مقیاس بزرگ، چیزی که در آینده شاهدش خواهیم بود، نابودی انسانهاست. و هر حکومت یا نیروی نظامی که چنین ماشینهای کشتاری را به کار انداخته، هرگونه ارزشهایی را که مدعی دفاع از آن است را نقض میکند. و در همین حال، اپراتورهای هواپیماهای بدون سرنشین که بین تصمیم کشتن یا نکشتن، در کشمکش هستند، آخرین نمایندگان انسانی دخیل در جنایت نظامی غیر انسانی خواهند بود.
نظر شما