نماد آخرین خبر
  1. برگزیده
علم و تکنولوژی

تشخیص احساسات با هوش مصنوعی چه خطراتی دارد؟

منبع
ديجياتو
بروزرسانی
تشخیص احساسات با هوش مصنوعی چه خطراتی دارد؟

ديجياتو/تکنولوژي تشخيص احساسات برخي از جامعه‌شناسان را نگران کرده و محققان در تلاشند تا هدف واقعي اين تکنولوژي را به عموم نشان دهند و اين موضوع را به مناظره عمومي بکشانند. اين تکنولوژي که با الگوريتم‌هاي يادگيري ماشيني (Machine Learning) براي تشخيص احساسات انسان طراحي شده، يکي از صنعت‌هاي بزرگ دنيا به شمار مي‌رود و ادعا مي‌شود که مي‌تواند در شرايط بي‌شماري، از امنيت جاده‌ها تا مطالعات بازار، مورد استفاده قرار بگيرد و ارزشمند باشد.


اما به نظر منتقدان اين تکنولوژي تهديدي براي حريم خصوصي به حساب مي‌آيد و حتي پر از اشتباه و نژادپرستانه طراحي شده است.

تيمي از محققان وب‌سايتي به نام «ايموجيفاي» طراحي کرده‌اند که در آن با وبکم يا دوربين سلفي مي‌توانيد اين تکنولوژي را امتحان کنيد. در يکي از بازي‌هاي روي اين سايت مي‌توانيد با تغيير حالت چهره خود، هوش مصنوعي را گول بزنيد و در بخش ديگر مي‌توانيد خطاي اين سيستم در تشخيص حالات چهره در متن را مشاهده کنيد.


پديدآورندگان اين سايت اميدوارند تا بتوانند دانش عمومي مربوط به اين تکنولوژي را افزايش دهند تا مناظره‌اي عمومي درباره استفاده از آن شکل بگيرد. آن‌ها معتقدند که اين سيستم نوعي از تشخيص چهره است که ادعا مي‌کند مي‌تواند احساسات دروني را از چهره تشخيص بدهد.

در سال‌هاي اخير، تکنولوژي تشخيص چهره مورد نقد و بررسي شديدي قرار گرفته است. سال گذشته، کميسيون برابري و حقوق بشر اعلام کرد که استفاده از تشخيص چهره براي اسکن جمعي به دليل افزايش تبعيض نژادي، جنسيت، گرايش‌هاي جنسي و سن و نقض آزادي بيان بايد متوقف شود.

  عموم مردم اطلاعي از موارد استفاده از تشخيص چهره ندارند. اين تکنولوژي در استخدام مشاغل، شناخت مشتري، امنيت فرودگاه و حتي آموزش براي بررسي ميزان فعاليت دانش‌آموزان و در همه جاي دنيا از اروپا گرفته تا ايالات متحده و چين استفاده مي‌شود.

يکي از کمپاني‌هاي متخصص در زمينه تشخيص احساسات مدعي شده که از اين تکنولوژي در تنظيمات همه محصولاتش از سيستم امينتي خانه‌ها تا زندان‌ها استفاده کرده است.

سال گذشته شهر لاکنو در هند اعلام کرد که از اين سيستم براي تشخيص آشفتگي در خانم‌ها براي گزارش مزاحمت استفاده مي‌کند که با انتقاد از سمت سازمان حقوق ديجيتال و سايرين مواجه شد.

تکنولوژي تشخيص احساسات ممکن است پتانسيل کاربردي و مفيد بودن داشته باشد؛ اما قبل از استفاده از آن بايد درباره دقيق بودن، نداشتن زمينه نژادي و همينطور کاربردي بودن اين سيستم در زمينه کاري مربوطه تحقيقات کاملي انجام شود و لازم است تا مکالمه و مشورت عمومي در مقياس وسيع‌تري درباره آن صورت بگيرد.


  اين پروژه جديد به کاربران اجازه مي‌دهد تا تکنولوژي تشخيص احساسات را امتحان کنند و در سايت مذکور که هيچ داده شخصي از طريق آن جمع‌آوري نمي‌شود و تمامي تصاوير روي دستگاه خود کاربر ذخيره مي‌شود.

در يکي از بازي‌ها، کاربران مي‌توانند حالت چهره خود را تغيير دهند تا متوجه خطاي اين سيستم در تشخيص حالات دروني آن‌ها شوند.

توسعه‌دهندگان اين تکنولوژي ادعا مي‌کنند که اين سيستم مي‌تواند احساسات دروني را بخواند؛ اما در واقعيت اين سيستم حرکات اعضاي صورت را با فرض‌هاي ايجاد شده تطبيق مي‌دهد، به عنوان مثال لبخند به معني خوشحال بودن است و براي اين سيستم معني ديگري ندارد.

شواهدي محکمي در علم وجود دارد که چنين نتيجه‌گيري‌هاي ساده‌اي را رد مي‌کند و حتي با تجربه ثابت شده که مي‌توان لبخند مصنوعي زد. هدف اين بازي دقيقا همين است که نشان دهد مي‌توان حالت چهره را بدون اينکه حالات و احساسات دروني تغييري کند، عوض کرد.

  برخي از محققان زمينه تشخيص احساسات اعلام کرده‌اند که کاملا به چنين محدوديت‌هايي آگاهند اما اميدوارند تا اين پروژه جديد آگاهي جامعه نسبت به اين تکنولوژي را افزايش دهد.

آن‌ها معتقدند که ما ديگر کاربران تکنولوژي نيستيم و به گونه‌اي شهروندان دنيايي هستيم که با تکنولوژي تغيير مي‌کنيم، بنابراين بايد قوانين دموکراتيک و حقوق شهروندي درباره چنين مبحث مهمي وجود داشته باشد.

سازمان حقوق بشر اعلام کرده که توقف بازار سيستم تشخيص احساسات امري واجب است. اين تکنولوژي کاملا بر اساس تبعيض جنسيت، نژاد، گرايشات جنسي و سن ساخته شده و از ريشه با حقوق بشر ناسازگار است.

مسير حرکت سيستم تشخيص احساسات در سراسر دنيا به ما نشان داد تا گهگاه صحت و نياز به تکنولوژي‌هاي جديد را زيرسوال ببريم. پروژه‌هايي که محدوديت‌هاي چنين تکنولوژي‌هايي را مشخص مي‌کنند، مي‌توانند قدم مهمي براي اين حرکت باشند.

به پيج اينستاگرامي «آخرين خبر» بپيونديد
instagram.com/akharinkhabar

اخبار بیشتر درباره

اخبار بیشتر درباره