ايسنا/ شرکت اوپنايآي(OpenAI) متعلق به ايلان ماسک به تازگي يک الگوريتم هوش مصنوعي خطرناک توسعه داده است که اخبار جعلي و گمراه کننده و باورپذير نوشته و منتشر ميکند.
شرکت OpenAI در ماه فوريه اعلام کرد که الگوريتمي را ايجاد کرده است که ميتواند خبرهاي جعلي و قابل باور بنويسد و با توجه به اينکه اين فناوري داراي قدرتي بيش از حد خطرناک است، يک نسخه کنترل شده و ناقص از آن را منتشر کرد تا بتواند شمههايي از اين فناوري را به عموم نشان دهد و نحوه استفاده از آن را تحليل کند.
اکنون اين شرکت ميگويد هيچ مدرک محکمي از سوءاستفاده اين هوش مصنوعي مشاهده نکرده است و طي همين هفته نسخه کامل آن را منتشر خواهد کرد.
اين هوش مصنوعي موسوم به "GPT-2" در ابتدا براي پاسخ به سؤالات، تهيه خلاصه داستانها و ترجمه متون طراحي شده بود. اما محققان نگران اين بودند که بتوان از آن استفاده کرد تا حجم زيادي از اطلاعات نادرست را منتشر کرد. درعوض ديدند که از آن تنها براي مواردي مانند آموزش بازيهاي ماجراجويي متني و نوشتن داستان استفاده شد.
از آنجا که اين نسخه کوچک به سوءاستفاده گسترده منجر نشد، شرکت OpenAI مدل کامل GPT-2 را منتشر ميکند. اين شرکت در پست وبلاگ خود ابراز اميدواري کرده که نسخه کامل به محققان کمک کند تا مدلهاي تشخيص متن توليد شده توسط هوش مصنوعي بهتري توسعه دهند و تبعيضهاي زباني را ريشه کن کنند.
ايده توسعه يک هوش مصنوعي که بتواند اخبار جعلي باورپذير توليد کند، نگران کننده است، اما برخي معتقدند که اين فناوري خواه ناخواه توسعه خواهد يافت و OpenAI بايد سريعاً کار خود را به اشتراک بگذارد تا محققان بتوانند ابزاري براي مبارزه يا حداقل شناسايي متون توليد شده توسط ربات ايجاد کنند.
بازار