ديجياتو/ محققان در ايالات متحده آمريکا توانستهاند مشکل حمله هکرها به مدلهاي هوش مصنوعي را برطرف کنند. آنها براي دستيابي به اين هدف، از مدل ديگري براي فريب شبکه عصبي و اجبار براي تحليل تصاوير ويرايش شده استفاده کردند.
بنابر گزارش MIT Technology Review، محققان در دانشگاه «ايلينوي» اعلام کردهاند يکي از بزرگترين نقصها در آموزش هوش مصنوعي، آسيبپذيري آنها در برابر حملات هکرها است. در اين زمينه سيستمهاي تشخيص عکس يا بازسازي تصاوير با بيشترين حملات مواجه ميشوند.
حملات گسترده به اين سيستمها زنگ خطري براي مقامات در بخش مراقبتهاي پزشکي محسوب ميشود، جايي که اغلب اين روش براي بازسازي تصاوير پزشکي مورد استفاده قرار ميگيرد. در صورتي که هوش مصنوعي تصوير اشتباهي دريافت کند، نتيجه آن تشخيص غلط نوع بيماري خواهد بود.
براي جلوگيري از چنين مشکلي، دانشمندان روش جديدي براي آموزش سيستمهاي يادگيري عميق ارائه کردهاند که آنها را در برابر خطا مقاومتر ميکند و همچنين آنها را در زماني که مسائل امنيتي اهميت بالايي دارند، قابل اطمينانتر ميکند.
محققان براي دستيابي به اين روش، شبکه عصبي مسئول بازسازي تصاوير را به يک مدل با امکان توليد نمونههاي رقابتي (تصاوير با تفاوتهاي اندک نسبت به عکسهاي اصلي) متصل کردند. در طي آموزش، يکي از هوشهاي مصنوعي بدنبال فريب ديگري با نمايش تصاوير متفاوت نسبت به نمونههاي اصلي بود.
در طي اين آزمايش، مدل مخصوص بازسازي تصاوير دائما در حال تحليل تصاوير بود تا بتواند تغييرات در آنها را تشخيص دهد و متوجه شود با يک تصوير ويرايش شده روبهرو است يا خير. در نهايت اين سيستم توانست تمام تصاوير ويرايش شده را شناسايي کند که از عملکرد بهتر آن نسبت به ساير شبکههاي عصبي خبر ميدهد.
دانشمندان در هنگام آزمايشها سعي کردند به صورت دستي سيستم را هک کرده و تصاوير ويرايش شده را به آن نشان دهند که تمام آنها از سوي هوش مصنوعي رد شدند.
بازار