انتخاب/ يکي از مهندسين ارشد گوگل که اخيرا از پروژه هواپيماهاي بدون سرنشين نظامي خارج شده است هشدار مي دهد که هوش مصنوعي مي تواند در قامت ربات هاي قاتل وارد عمل شده و يک جنگ تمام عيار ايجاد کند.
به گزارش گاردين، يک مهندس ارشد برتر نرم افزار که اخيرا از شرکت گوگل خارج شده، هشدار داده است که نسل جديدي از سلاح هاي خودمختار يا "روبات هاي قاتل" مي توانند به طور اتفاقي جنگ را آغاز کنند يا باعث ظلم هاي گسترده شوند.
لورا نولان ، که سال گذشته در اعتراض به افزايش چشمگير فناوري هاي نظامي ارتش ايالات متحده ، ازگوگل استعفا داد ، خواستار ممنوعيت تمام دستگاه هاي کشتار هوش مصنوعي شده است که توسط انسانها اداره نمي شوند.نولان مي گويد که ربات هاي قاتل که از راه دور توسط انسان هدايت نمي شوند بايد با همان نوع معاهده بين المللي که ممنوعيت سلاح هاي شيميايي را قانوني کرده، منع شوند.
ماه گذشته يک هيئت دولت از سازمان ملل متحد درمورد اسلحه هاي خودمختار و هوشمند بحث و گفتگو کرد و گوگل را به دليل استفاده از سيستم هاي اسلحه و مشارکت در بهترين روش هاي کشتار با هوش مصنوعي مورد قضاوت قرار داد. نولان ، که اخيرا به کمپين متوقف کردن روبات هاي قاتل پيوسته است و به اطلاع رساني ديپلمات هاي سازمان ملل در نيويورک و ژنو در مورد خطرات ناشي از سلاح هاي خودمختار مي پردازد ، گفت: "احتمال بروز يک فاجعه با تعداد بسياري از اين ماشين ها زياد است. ممکن است تصادفي در مقياس بزرگ رخ دهد زيرا اين کارها به طرز غير منتظره اي غافلگير کننده رفتار مي کنند. به همين دليل است که هر سيستم تسليحاتي پيشرفته بايد تحت کنترل انسان باشد ، در غير اين صورت آنها بايد ممنوع شوند زيرا بسيار غيرقابل پيش بيني و خطرناک هستند. "
او گفت که به دليل نقش خود در برنامه "ماون" که براي کمک به وزارت دفاع آمريکا طراحي شده بود احساس نگراني مي کند. اين برنامه به سرعت پيشرفت فناوري تشخيص چهره از طريق هواپيماهاي بدون سرنشين را توسعه مي دهد. اين پروژه باعث شده بود بيش از 3000 کارمند اين شرکت در اعتراض به دخالت شرکت خود در پروژه هاي خطرناک، طوماري را امضا کنند.
وي گفت: "شما مي توانيد سناريويي داشته باشيد که اسلحه هاي مستقل که براي انجام کار فرستاده شده اند ، با سيگنال هاي غير منتظره راداري در منطقه اي که جستجو کنند ، مقابله مي کنند. ممکن است شرايطي وجود داشته باشد که به نرم افزار آن وارد نشده و يا گروهي از افراد مسلح را پيدا کنند که به نظر مي رسد دشمن شورشي هستند اما در واقع با اسلحه هايي هستند که براي شکار غذا استفاده مي شوند، در همه اين موارد شروع به حمله مي کنند."
او ادامه داد: "من نمي گويم که سيستم هاي هدايت موشکي يا سيستم هاي دفاع ضد موشکي بايد ممنوع شوند. آنها در نهايت تحت کنترل کامل بشر قرار دارند. تعداد بسيار کمي از مردم در اين باره صحبت مي کنند اما اگر مراقب يک يا چند مورد از اين سلاح ها نباشيم ، اين ربات هاي قاتل مي توانند به طور تصادفي يک جنگ بزرگ را آغاز کنند ، يک نيروگاه هسته اي را منهدم کنند يا باعث کشتار هاي گسترده شوند. "
بازار