باشگاه خبرنگاران/ محققان با استفاده از هوش مصنوعی مدلی را ساخته اند که ربات‌ ها با کمک آن روابط بین اشیا را مانند انسان‌ ها درک می‌ کنند.

به گزارش news.mit.edu، مدل جدید یادگیری ماشینی، ربات‌ها را قادر می‌سازد تا تعاملات جهان را به روش انسان‌ها درک کنند. انسان‌ها روابط بین اشیا را می‌بینند. بسیاری از مدل‌های یادگیری، روابط درهم‌ تنیده بین اشیا و افراد را درک نمی‌کنند. بدون آگاهی از این روابط، ربات‌ها در پیروی از دستورات مشکل خواهند داشت.

محققان MIT مدلی را توسعه داده اند که روابط زیربنایی بین اشیای یک صحنه را درک می‌کند. مدل آنها روابط فردی را یکی یکی نشان می‌دهد، سپس این بازنمایی‌ها را برای توصیف صحنه کلی ترکیب می‌کند. این راه، مدل را قادر می‌سازد تا تصویر دقیق‌تری از صحنه تولید کند. این مدل در موقعیت‌های پیچیده مثل تعامل ماشین و انسان کاربرد دارد.

هوش مصنوعی

ییلون دو، دانشجوی دکترای علوم کامپیوتر و هوش مصنوعی CSAIL می‌گوید:" ما فکر می‌کنیم که با ساختن این سیستم می‌توانیم از آن برای دستکاری و تغییر موثرتر محیطمان استفاده کنیم. این چارچوب می‌تواند تصویری از یک صحنه براساس توصیف متنی اشیا و روابط آنها را ایجاد کند."

محققان از تکنیک مدل‌های مبتنی بر انرژی برای نشان دادن روابط استفاده کردند. این تکنیک آنها را قادر می‌سازد تا با رمزگذاری هر توصیف همه اشیا و روابط را استنتاج کنند. سیستم‌های دیگر همه روابط را به‌ طور کلی در نظر می‌گیرند. این سیستم به صورت معکوس کار می‌کند. از این مدل می‌توان برای ویرایش یک تصویر با مرتب کردن مجدد اشیا در صحنه استفاده کرد. مدل جدید از داده‌های کمتری برای نشان دادن صحنه‌های پیچیده‌تر به ربات استفاده می‌کند. در نهایت قرار است تا مدل جدید در ربات‌ها گنجانده شود. مدل‌سازی روابط چندگانه بین اشیا پیشرفت چشمگیری در بینایی کامپیوتر است.

درک روابط بین اشیا

در کانال آی‌تی و ™CanaleIT هم کلی عکس و ویدئوی دسته اول و جذاب داریم