تشخیص احساسات با هوش مصنوعی چه خطراتی دارد؟
ديجياتو/تکنولوژي تشخيص احساسات برخي از جامعهشناسان را نگران کرده و محققان در تلاشند تا هدف واقعي اين تکنولوژي را به عموم نشان دهند و اين موضوع را به مناظره عمومي بکشانند. اين تکنولوژي که با الگوريتمهاي يادگيري ماشيني (Machine Learning) براي تشخيص احساسات انسان طراحي شده، يکي از صنعتهاي بزرگ دنيا به شمار ميرود و ادعا ميشود که ميتواند در شرايط بيشماري، از امنيت جادهها تا مطالعات بازار، مورد استفاده قرار بگيرد و ارزشمند باشد.
اما به نظر منتقدان اين تکنولوژي تهديدي براي حريم خصوصي به حساب ميآيد و حتي پر از اشتباه و نژادپرستانه طراحي شده است.
تيمي از محققان وبسايتي به نام «ايموجيفاي» طراحي کردهاند که در آن با وبکم يا دوربين سلفي ميتوانيد اين تکنولوژي را امتحان کنيد. در يکي از بازيهاي روي اين سايت ميتوانيد با تغيير حالت چهره خود، هوش مصنوعي را گول بزنيد و در بخش ديگر ميتوانيد خطاي اين سيستم در تشخيص حالات چهره در متن را مشاهده کنيد.
پديدآورندگان اين سايت اميدوارند تا بتوانند دانش عمومي مربوط به اين تکنولوژي را افزايش دهند تا مناظرهاي عمومي درباره استفاده از آن شکل بگيرد. آنها معتقدند که اين سيستم نوعي از تشخيص چهره است که ادعا ميکند ميتواند احساسات دروني را از چهره تشخيص بدهد.
در سالهاي اخير، تکنولوژي تشخيص چهره مورد نقد و بررسي شديدي قرار گرفته است. سال گذشته، کميسيون برابري و حقوق بشر اعلام کرد که استفاده از تشخيص چهره براي اسکن جمعي به دليل افزايش تبعيض نژادي، جنسيت، گرايشهاي جنسي و سن و نقض آزادي بيان بايد متوقف شود.
عموم مردم اطلاعي از موارد استفاده از تشخيص چهره ندارند. اين تکنولوژي در استخدام مشاغل، شناخت مشتري، امنيت فرودگاه و حتي آموزش براي بررسي ميزان فعاليت دانشآموزان و در همه جاي دنيا از اروپا گرفته تا ايالات متحده و چين استفاده ميشود.
يکي از کمپانيهاي متخصص در زمينه تشخيص احساسات مدعي شده که از اين تکنولوژي در تنظيمات همه محصولاتش از سيستم امينتي خانهها تا زندانها استفاده کرده است.
سال گذشته شهر لاکنو در هند اعلام کرد که از اين سيستم براي تشخيص آشفتگي در خانمها براي گزارش مزاحمت استفاده ميکند که با انتقاد از سمت سازمان حقوق ديجيتال و سايرين مواجه شد.
تکنولوژي تشخيص احساسات ممکن است پتانسيل کاربردي و مفيد بودن داشته باشد؛ اما قبل از استفاده از آن بايد درباره دقيق بودن، نداشتن زمينه نژادي و همينطور کاربردي بودن اين سيستم در زمينه کاري مربوطه تحقيقات کاملي انجام شود و لازم است تا مکالمه و مشورت عمومي در مقياس وسيعتري درباره آن صورت بگيرد.
اين پروژه جديد به کاربران اجازه ميدهد تا تکنولوژي تشخيص احساسات را امتحان کنند و در سايت مذکور که هيچ داده شخصي از طريق آن جمعآوري نميشود و تمامي تصاوير روي دستگاه خود کاربر ذخيره ميشود.
در يکي از بازيها، کاربران ميتوانند حالت چهره خود را تغيير دهند تا متوجه خطاي اين سيستم در تشخيص حالات دروني آنها شوند.
توسعهدهندگان اين تکنولوژي ادعا ميکنند که اين سيستم ميتواند احساسات دروني را بخواند؛ اما در واقعيت اين سيستم حرکات اعضاي صورت را با فرضهاي ايجاد شده تطبيق ميدهد، به عنوان مثال لبخند به معني خوشحال بودن است و براي اين سيستم معني ديگري ندارد.
شواهدي محکمي در علم وجود دارد که چنين نتيجهگيريهاي سادهاي را رد ميکند و حتي با تجربه ثابت شده که ميتوان لبخند مصنوعي زد. هدف اين بازي دقيقا همين است که نشان دهد ميتوان حالت چهره را بدون اينکه حالات و احساسات دروني تغييري کند، عوض کرد.
برخي از محققان زمينه تشخيص احساسات اعلام کردهاند که کاملا به چنين محدوديتهايي آگاهند اما اميدوارند تا اين پروژه جديد آگاهي جامعه نسبت به اين تکنولوژي را افزايش دهد.
آنها معتقدند که ما ديگر کاربران تکنولوژي نيستيم و به گونهاي شهروندان دنيايي هستيم که با تکنولوژي تغيير ميکنيم، بنابراين بايد قوانين دموکراتيک و حقوق شهروندي درباره چنين مبحث مهمي وجود داشته باشد.
سازمان حقوق بشر اعلام کرده که توقف بازار سيستم تشخيص احساسات امري واجب است. اين تکنولوژي کاملا بر اساس تبعيض جنسيت، نژاد، گرايشات جنسي و سن ساخته شده و از ريشه با حقوق بشر ناسازگار است.
مسير حرکت سيستم تشخيص احساسات در سراسر دنيا به ما نشان داد تا گهگاه صحت و نياز به تکنولوژيهاي جديد را زيرسوال ببريم. پروژههايي که محدوديتهاي چنين تکنولوژيهايي را مشخص ميکنند، ميتوانند قدم مهمي براي اين حرکت باشند.