آیا هوش مصنوعی از کنترل خارج شده است؟
انتخاب/ نشريه لس آنجلس تايمز در مقاله اي به قلم داگلاس فرانتز به اين موضوع پرداخته که حضور هوش مصنوعي در زندگي ما در کنار فرصت ها، چه تهديدهايي خواهد داشت . مقدمه اين مقاله با اين جمله آغاز مي شود؛ "ما هوش مصنووعي را به راه انداختيم اما حالا به يک پيمان نياز داريم تا آن را کنترل کنيم." پنجاه سال پيش ، در اواسط جنگ سرد، کشورهاي حاضر در جنگ يک معاهده بين المللي را براي جلوگيري از گسترش سلاح هاي هسته اي امضا کردند. امروزه، هوش مصنوعي و يادگيري ماشيني، هر جنبه اي از زندگي ما را تغيير مي دهد. بنابراين جهان با چالش هاي مشابهي با دوران جنگ سرد مواجه است و نياز به يک پاسخ مشابه دارد. خطر درگيري موازي بين سلاح هاي هسته اي و هوش مصنوعي دور از ذهن نيست، اما ريسک بزرگتر اين است که؛ ناديده گرفتن پيامدهاي فناورانه منجر به نابودي ارزش ها و اهداف انساني شود. نگاهي به تاريخ نشان مي دهد که مقدمه اي فوري براي معاهده منع گسترش سلاح هاي هسته اي، درواقع، بحران موشکي کوبا در سال 1962 بود. ايالات متحده و اتحاد جماهير شوروي قبل از اين که معاهده را قبول کنند، در آستانه جنگ هسته اي قرار گرفتند. چند ماه بعد، رئيس جمهور وقت ايالات متحده ، يعني کندي هشدار داد که به زودي حداقل 25 کشور ميتوانند سلاحهاي هسته اي را افزايش دهند و خطراتي جهان شمول را خلق کنند. معاهده عدم گسترش سلاح هاي هسته اي که در سال 1970 به اجرا درآمد، بر مبناي معامله اي مرکزي متمرکز بود، ملت هاي فاقد سلاح هسته اي قول داده اند هرگز آنها را بدست نياورند و کشورهاي داراي سلاح ها موافقت کردند که از اين سلاح ها براي مقاصد صلح آميز استفاده کنند. به اين روزها باز گرديم. به نظر مي رسد همزمان با پيشرفت در هوش مصنوعي و يادگيري ماشيني معاهده اي جدي و بين المللي در اين خصوص مورد نياز است. کارشناسان متعددي در مورد لزوم وجود چنين معاهده اي بحث کرده اند.هوش مصنوعي هنوز در اوج بحران قرار نگرفته است، (مانند کشمکش بين اتحاد جماهير شوروي و ايالات متحده در کوبا) اما چيزي تا چنين وضعيتي باقي نمانده است. به طور عمده، هوش مصنوعي براي همه افراد جامعه جذاب و مفيد است. "الگوريتم هاي يادگيري" در دستگاه هاي ديجيتال ما الگوهايي را از داده ها استخراج مي کنند تا ما را در هر شرايطي از خريد تا زندگي روزمره رصد کنند. در مقياس بزرگترهوش مصنوعي به پزشکان کمک مي کند تا بيماري ها را شناسايي و درمان کنند، افزون بر اين هوش مصنوعي، بازار هاي جديدي را باز کرده و بهره وري را براي کسب و کار افزايش مي دهد و البته مجموعه داده ها و مدل هايي را ارائه مي دهد که مسائل مهم مربوط به آموزش، انرژي و محيط را در بر مي گيرد. در عين حال، خطرات هوش مصنوعي نيز آشکار است. براي مثال قراراد جنجالي گوگل و وزارت دفاع ايالات متحده که گرچه تمديد نخواهد شد اما شامل استفاده از هوش مصنوعي براي بهبود هدف گيري هواپيماهاي بدون سرنشين و افزايش نظارت بر شهروندان بود. قرار دادي که بالغ بر 4 هزار کارمند گو گل نسبت به آن معترض بودند چرا که تصور مي کردند براي مقاصد منففي مورد استفاده قرار خواهد گرفت. نگراني مشابهي نيز براي جف بيزوس، بنيانگذار آمازون، رخ داد. درست زماني که وي اخيرا در حوزه هوش مصنوعي فعاليت هايي را توسعه داد. اما خطر اصلي اين است که سلاح هاي مستقل ماهيت جنگ را تغيير داده و کنترل انساني را از بين ببرد.بنابراين خطر تصادفات مربوط به وسايل نقليه خودران و تهديد آزادي و تفکر انتقادي ناشي از سوء استفاده از فيس بوک و فايل هاي موتور جستجو طبيعي است. اما با همه اين مخاطرات چرا باز هم به هوش مصنوعي وابسته ايم؟ اول، آشنايي ما با هوش مصنوعي باعث خوشحالي بي قيد و شرطمان مي شود. ما با ماشين هاي هوشمند بازي مي کنيم، کار مي کنيم و راندمان کارمان را ناديده مي گيريم و گاهي به قدري در اين موضوع غرق مي شويم که فراموش مي کنيم اين دستگاه ها آسيب پذيري ما را در برابر تهديد شدن آزادي هاي مدني، دموکراسي و برابري اقتصادي بالا مي برند. دوم، پيچيدگي علم هوش مصنوعي ممکن است سياست گذاران و مردم را به اين باور برساند که صنعت فناوري اطلاعات بهترين موقعيت را براي تصميم گيري در مورد آينده فناوري اطلاعات دارد. با اين حال قطعا مسائل مربوط به هوش مصنوعي بايد به منافع تجاري منجر شود. سوم، تسلط چين و ايالات متحده و چند غول تکنولوژيکي، چشم انداز واقعي فئوداليسم ديجيتال را ايجاد مي کند. تمرکز مقدار زيادي ثروت و قدرت در دست چندکشور مشخص ، به اين معني است که تعداد زيادي از مردم در خطر قرار دارند . شايد تنها راهکار رهايي از اين شرايط ترسيم خطوط يک معاهده جدي و امضاي آن توسط کشورها و به ويژه ايالات متحده و چين باشد.