دیجیاتو/ محققان در ایالات متحده آمریکا توانسته‌اند مشکل حمله هکرها به مدل‌های هوش مصنوعی را برطرف کنند. آن‌ها برای دستیابی به این هدف، از مدل دیگری برای فریب شبکه عصبی و اجبار برای تحلیل تصاویر ویرایش شده استفاده کردند.

بنابر گزارش MIT Technology Review، محققان در دانشگاه «ایلینوی» اعلام کرده‌اند یکی از بزرگترین نقص‌ها در آموزش هوش مصنوعی، آسیب‌پذیری آن‌ها در برابر حملات هکرها است. در این زمینه سیستم‌های تشخیص عکس یا بازسازی تصاویر با بیشترین حملات مواجه می‌شوند.

حملات گسترده به این سیستم‌ها زنگ خطری برای مقامات در بخش مراقبت‌های پزشکی محسوب می‌شود، جایی که اغلب این روش برای بازسازی تصاویر پزشکی مورد استفاده قرار می‌گیرد. در صورتی که هوش مصنوعی تصویر اشتباهی دریافت کند، نتیجه آن تشخیص غلط نوع بیماری خواهد بود.

برای جلوگیری از چنین مشکلی، دانشمندان روش جدیدی برای آموزش سیستم‌های یادگیری عمیق ارائه کرده‌اند که آن‌ها را در برابر خطا مقاوم‌تر می‌کند و همچنین آن‌ها را در زمانی که مسائل امنیتی اهمیت بالایی دارند، قابل اطمینان‌تر می‌کند.



محققان برای دستیابی به این روش، شبکه عصبی مسئول بازسازی تصاویر را به یک مدل با امکان تولید نمونه‌های رقابتی (تصاویر با تفاوت‌های اندک نسبت به عکس‌های اصلی) متصل کردند. در طی آموزش، یکی از هوش‌های مصنوعی بدنبال فریب دیگری با نمایش تصاویر متفاوت نسبت به نمونه‌های اصلی بود.

در طی این آزمایش، مدل مخصوص بازسازی تصاویر دائما در حال تحلیل تصاویر بود تا بتواند تغییرات در آن‌ها را تشخیص دهد و متوجه شود با یک تصویر ویرایش شده روبه‌رو است یا خیر. در نهایت این سیستم توانست تمام تصاویر ویرایش شده را شناسایی کند که از عملکرد بهتر آن نسبت به سایر شبکه‌های عصبی خبر می‌دهد.

دانشمندان در هنگام آزمایش‌ها سعی کردند به صورت دستی سیستم را هک کرده و تصاویر ویرایش شده را به آن نشان دهند که تمام آن‌ها از سوی هوش مصنوعی رد شدند.

در کانال آی‌تی و ™CanaleIT هم کلی عکس و ویدئوی دسته اول و جذاب داریم