شهر سخت افزار/ دستیارهای صوتی که با هوش مصنوعی خود به فرامین ما گوش داده و تلاش دارند تا زندگی ما را بهتر کنند به نظر بدترین دشمنان امنیت و حریم خصوص ما در حال حاضر هستند. به تازگی اطلاعاتی منتشر شده که نشان می‌دهد حتی از طریق کنسول بازی نیز ممکن است اطلاعات ما و صداهای ضبط شده‌مان دزدیده شود.

تا به امروز انبوهی از خبرها در مورد نشت اطلاعاتی گسترده از طریق دستیارهای صوتی و یا نقض حریم خصوصی کاربران شنیده شده که نشان می‌دهد ما در برخورد با شرکت‌هایی که به ظاهر برای راحتی بیشترمان این دستیارها را معرفی کرده‌اند، در گوشه رینگ قرار داشته و کاری از دستمان برنمی‌آید.

همین چند روز پیش بود که از داخل شرکت مایکروسافت خبر رسید که این شرکت با استخدام پیمانکاران ارزان قیمتی، تلاش دارد تا با گوش دادن به چت‌های Skype و یا فرامین صوتی به کورتانا، توسط انسان‌ها، دستورات را شناسایی کند تا به اصطلاح، دستیار هوشمند و هوش مصنوعی سیستم‌هایش بتوانند تجربه کاربری بهتری را ارائه دهند.

نظیر این اتفاق برای گوگل و فیسبوک هم استفاده است ولی تا به حال انتظار دزدی اطلاعات از طریق کنسول بازی را نداشتیم که به نظر باید دامنه و زاویه دید خود را در این زمینه بسیار وسیع‌تر کنیم.


بر اساس گزارشی از نشریه Motherboard که سابق بر این وجه دیگری از دزدی اطلاعات و نقض حریم خصوصی کاربران توسط مایکروسافت را گزارش کرده بود، این امکان وجود دارد که فرامین صوتی که شما به ایکس باکس خود می‌دهید نیز مورد شنود قرار گرفته و در اختیار دیگران باشد.

هنگامی که شما در مواجهه با کنسول ایکس باکس از عبارت Xbox و یا Hey Cortana استفاده کنید دستیار صوتی کنسول فعال شده و وارد عمل می‌شود تا فرامین شما را اجرا کند و آنگاه است که صدای شما ضبط شده تا فرمان صوتی که صادر می‌کنید اجرا شود ولی حالا باید این را هم بدانید که این صداها می‌توانند در اختیار اشخاص و یا توسعه‌‌دهندگان ثالث نیز قرار بگیرد تا به اصطلاح آنها هم برای توسعه بهتر دستیار صوتی مایکروسافت همکاری کنند.

حالت بدتر داستان این است که اگر تصور کنیم که دستیار صوتی مایکروسافت بتواند به صورت تصادفی روشن شده و به فرامین کاربر گوش دهد چه می‌شود؟ در این حالت وقتی شما به صورت ساده و در اتفاقی معمولی با اعضای خانواده خود صحبت کنید هم، کنسول می‌تواند به شما گوش داده و از آنجایی این اطلاعات با دیگر اشخاص نیز به اشتراک گذاشته می‌شود عملاً حریم خصوص شما نقض شده و همه مکالمات‌تان در اختیار آنها قرار خواهد گرفت.

نکته دیگر این است که مایکروسافت تا به حال در مورد استفاده از انسان‌ها برای درک بهتر فرامین صوتی صادره از کاربران عذرخواهی نکرده و در بیانیه‌ای کوتاه اعلام نموده که این کار برای توسعه بیشتر و بهتر کورتانا ضروری است و به آن ادامه خواهد داد.
در کانال آی‌تی و اینستاگرام ™CanaleIT هم کلی عکس و ویدئوی دسته اول و جذاب داریم