نگرانی سازمان ملل از پیشرفت هوش مصنوعی

ايسنا/ سازمان ملل متحد با اشاره به اينکه استفاده نادرست از هوش مصنوعي ميتواند آثار منفي و حتي فاجعه باري داشته باشد، از همهي کشورها خواست تمام سيستمهاي هوش مصنوعي را که حقوق بشر را تهديد ميکنند، متوقف و ممنوع کنند.
به نقل از آياي، سازمان ملل نگران هوش مصنوعي است. بر اساس گزارش اوليه سازمان ملل، کميسر عالي حقوق بشر سازمان ملل متحد خواستار توقف استفاده از هوش مصنوعيهايي نظير سيستمهاي تشخيص چهره شده که ميتوانند افراد را در ملاء عام رديابي کنند و ميتوانند خطري اساسي براي حقوق بشر داشته باشند.
اين سازمان ميگويد اگر کشورها در حال حاضر تدابير حفاظتي موثري را در اين راستا در پيش نگيرند، استفاده از برنامههاي هوش مصنوعي در زندگي روزمره ميتواند بيشتر مضر باشد تا کمک کننده.
"ميشل باچله"(Michelle Bachelet) کميسر عالي حقوق بشر سازمان ملل متحد گفت که کشورها بايد صريحاً همه برنامههاي هوش مصنوعي را که مغاير با حقوق بشر است، ممنوع کنند و با اشاره به اين که اين سيستمهاي پيشداور، بر اساس قوميت يا جنسيت افراد بين جمعيتهاي بشري جدايي مياندازند، تأکيد کرد که برنامههاي "نمرهگذاري اجتماعي" نبايد توسط دولتها دنبال شوند.
وي در حالي بر ارزش واقعي استفاده از فناوريهاي هوش مصنوعي در بهبود وضعيت انسان صحه ميگذارد، هشدار داد که اگر بدون توجه کافي به نحوه تأثير آنها بر حقوق بشر، مورد استفاده قرار گيرند، ميتوانند آثار منفي و حتي فاجعه باري داشته باشند.
اظهارات "باچله" در گزارش جديد سازمان ملل متحد نشان ميدهد که چگونه کشورها و کسب و کارها تلاش خود را در پياده سازي سيستمهاي هوش مصنوعي که به شدت بر زندگي و معيشت شهروندان عادي تأثير ميگذارد، پيش از اطمينان از ايجاد پادمانهايي که ميتوانند به طور معناداري از تبعيض جلوگيري کنند، به کار گرفتهاند.
"پگي هيکس" مدير دفتر حقوق بشر سازمان ملل ميگويد: اين مسئله مربوط به نداشتنِ هوش مصنوعي نيست، بلکه در مورد تشخيص اين است که اگر قرار است هوش مصنوعي در اين زمينههاي حقوق بشري مورد استفاده قرار گيرد، بايد به روش صحيح باشد و ما هنوز چارچوبي را ايجاد نکردهايم که اين اتفاق را تضمين کند.
"باچله" نيز از ممنوعيت همه فناوريهاي تشخيص چهره دفاع نکرد، اما تاکيد کرد که دولتها بايد اسکن ويژگيهاي افراد در لحظه را تا زماني که ثابت کنند که اين فناوري دقيق و بدون تبعيض است و حريم خصوصي و دادههاي شخصي را حفظ ميکند، متوقف کنند. در گزارش سازمان ملل از هيچ کشوري نامي برده نشده است، اما گسترش سريع فناوري تشخيص چهره در کشور چين به ويژه براي نظارت بر منطقه "شينجيان غربي" (جايي که اقليت اويغور در اين کشور زندگي ميکنند)، بيشک مدنظر بوده است.
نويسندگان گزارش سازمان ملل متحد تصميم گرفتند که نام کشورهاي ناقض حقوق بشر را ذکر نکنند، زيرا اين امر ميتواند مضر باشد و واکنشهايي را به دنبال داشته باشد که ممکن است خطري براي حقوق بشر ايجاد کند.
"هيکس" ميگويد: در مورد چين نيز به اندازه ساير کشورها ما نگران شفافيت و برنامههاي تبعيض آميز هستيم که روي جوامع خاص متمرکز است. گزارش سازمان ملل متحد بر ابزارهايي متمرکز است که براي استنباط حالات روحي و رواني افراد با ارزيابي حالات صورت يا حرکات بدن طراحي شده است، زيرا اين فناوريها به شدت مستعد تعصب و تبعيض هستند و تفسيرهاي نادرست فاقد هرگونه زمينه علمي دارند.
وي افزود: استفاده از سيستمهاي تشخيص احساسات توسط مقامات دولتي، به عنوان مثال براي متمايز کردن افراد براي دستگيري توسط پليس يا ارزيابي صحت اظهارات آنها در بازجوييها، تهديدي براي حقوق بشر، حفظ حريم خصوصي، آزادي و عدالت است.
اکنون فقط زمان نشان خواهد داد که کشورهاي جهان چگونه به اين درخواست سازمان ملل پاسخ ميدهند. اين درحالي است که قدرت شرکتهاي بزرگ در ايالات متحده و ديگر نقاط جهان با فناوري تشخيص چهره مبتني بر هوش مصنوعي در حال افزايش است و اگر بدون توجه به مسائل حقوق بشري و حفظ حريم خصوصي براي نظارت و رديابي شهروندان عادي استفاده شود، نگران کننده خواهد بود.