نماد آخرین خبر

اخلاقیات، تنها ابزار کنترل هوش مصنوعی هستند

منبع
ايسنا
بروزرسانی
اخلاقیات، تنها ابزار کنترل هوش مصنوعی هستند
ايسنا/ برخي متخصصان حوزه فناوري باور دارند که تنها راه مهار کردن اختيارات هوش مصنوعي و ايمن ساختن آن، استفاده از استانداردهاي اخلاقي است. هوش مصنوعي به تدريج خود را در ميان جنبه‌هاي گوناگون زندگي انسان جاي مي‌دهد و بر زندگي و کار انسان‌ها اثر مي‌گذارد. در سال‌هاي اخير، هشدارهاي بسياري در مورد گسترش اجتناب‌ناپذير هوش مصنوعي و امکان قرار گرفتن آن در جايگاه انسان مطرح شده است. بسياري از متخصصان اين حوزه عقيده دارند در صورت گسترش هوش مصنوعي در مشاغل مربوط به فناوري، انسان‌ها بسياري از فرصت‌هاي شغلي را از دست خواهند داد و به تدريج ربات‌ها جايگزين انسان‌ها خواهند شد. اعتراضات و هشدارهاي گسترده در اين حوزه نشان مي‌دهند که ممکن است هوش مصنوعي، به خطري جدي براي آينده شغلي انسان‌ها تبديل شود. رخدادهايي مانند واکنش اعتراضي کارمندان "اپل" نسبت به پروژه‌هاي مربوط به هوش مصنوعي مانند پروژه "ماون"(Maven)، ثابت مي‌کنند که در نظر گرفتن اخلاقيات در اين حوزه، از نکات مهم و ضروري است. قراردادهاي اخلاقي، براي اطمينان از اعتبار اين فناوري، لازم هستند، ميزان خطرات احتمالي را کاهش مي‌دهند و به انسان‌ها در بهبود کارشان کمک مي‌کنند. مخالفان و معترضان ورود هوش مصنوعي به مشاغل انساني تاکيد دارند که اگر هوش مصنوعي بتواند در برخي زمينه‌ها از مغز انسان فراتر برود، به فرمانرواي بسيار قدرتمندي تبديل خواهد شد که احتمالاً وراي اختيارات انساني عمل مي‌کند؛ در نتيجه سرنوشت و آينده انسان‌ها به هوش مصنوعي وابسته خواهد شد. در واقع، موضوع اصلي در گسترش قدرت هوش مصنوعي، توانايي مهار پيشرفت آن است. "مکس تگمارک"(Max Tegmark)، فيزيکدان و کيهان شناس دانشگاه "ام. آي. تي"(MIT) در اين باره گفت: ما بايد عواقب پنهان به کارگيري هوش مصنوعي را کاملاً در نظر بگيريم. به نظر من، نيازي نيست که هوش مصنوعي براي تخريب دنيا، به يک نيروي شيطاني تبديل شود يا در حالت رباتيک قرار گيرد. در واقع، مشکل اصلي هوش مصنوعي، قابليت بيش از اندازه و نگران‌کننده تفکر آن است. مشکل بزرگ‌تر هنگامي ايجاد مي‌شود که اهداف هوش مصنوعي با اهداف انساني همخواني نداشته باشد. "کريتي شارما"(Kriti Sharma)، از متخصصان و افراد مؤثر در حوزه فناوري، تجارت و رسانه و يکي از ۱۰۰ متخصص تأثيرگذار در اين زمينه، از افرادي است که لزوم مطرح شدن اخلاقيات را در حوزه هوش مصنوعي تأييد و توصيه مي‌کند. شارما در اين باره گفت: يکي از چالش‌هاي مهم در حوزه صنعت و فناوري، بررسي نحوه دور شدن از هوش مصنوعي به عنوان يک تهديد شغلي و ايمني و قرار دادن آن در حوزه اخلاقيات است. به طور کلي مي‌توان گفت که تجارت و فناوري بايد در مورد تأثير جهاني هوش مصنوعي، صادق باشند و نگراني‌هاي عمومي در مورد اين موضوع را در نظر بگيرند. در حال حاضر، بسياري از مشاغل کنوني حوزه فناوري، به خصوص فناوري ديجيتال، بيش از تحصيلات، مبتني بر علاقه و مهارت کساني هستند که علاقه خود را در اين زمينه دنبال مي‌کنند و با صرف زمان و هزينه، به يادگيري مهارت‌هاي مورد نياز مي‌پردازند. به عقيده من، بهترين راه براي شرکت‌هاي فعال در حوزه فناوري، اهميت دادن به مهارت‌هاي اين افراد و تلاش براي پر کردن شکاف‌هاي ميان هوش مصنوعي و نيروي انساني است. وي افزود: در اينجا، لزوم وجود اخلاقيات و قرار دادن استانداردهاي اخلاقي براي استفاده از هوش مصنوعي مطرح مي‌شود. نهادها و سازمان‌هاي مربوط به فناوري مي‌توانند با قرار دادن شرايط و استانداردهاي اخلاقي در اين زمينه، به پيشرفت و بهبود کار با هوش مصنوعي کمک کنند. بدين ترتيب، حتي با ورود هوش مصنوعي به کارهاي گوناگون، امکان حفظ موقعيت و استعدادهاي انساني فراهم مي‌شود و نيروي انساني در اين ميان لطمه نخواهد ديد. رهبران حوزه تجارت و فناوري مي‌توانند با کنترل اختيارات هوش مصنوعي، به متخصصان انساني قدرت بيشتري بدهند و به تکامل مهارت‌هاي آنان کمک کنند تا کار هوش مصنوعي با روشي اخلاقي صورت گيرد. شارما با تاکيد بر لزوم همراهي نيروي انساني و هوش مصنوعي اضافه کرد: برنامه‌هاي مربوط به فناوري بايد نحوه سازگاري افراد با هوش مصنوعي را به آنها آموزش دهند تا افراد بتوانند به راحتي با اين حوزه تعامل داشته باشند و با آن کار کنند. با آموزش درست نيروي انساني و پايبندي به استانداردهاي اخلاقي، کارآيي هوش مصنوعي افزايش مي‌يابد و امکان بهره‌برداري مناسب از آن فراهم مي‌شود. ما را در کانال «آخرين خبر» دنبال کنيد
اخبار بیشتر درباره

اخبار بیشتر درباره