نماد آخرین خبر

الگوریتم هوش مصنوعی برای تولید اخبار جعلی باورپذیر

منبع
ايسنا
بروزرسانی
الگوریتم هوش مصنوعی برای تولید اخبار جعلی باورپذیر
ايسنا/ شرکت اوپن‌اي‌آي(OpenAI) متعلق به ايلان ماسک به تازگي يک الگوريتم هوش مصنوعي خطرناک توسعه داده است که اخبار جعلي و گمراه کننده و باورپذير نوشته و منتشر مي‌کند. شرکت OpenAI در ماه فوريه اعلام کرد که الگوريتمي را ايجاد کرده است که مي‌تواند خبرهاي جعلي و قابل باور بنويسد و با توجه به اينکه اين فناوري داراي قدرتي بيش از حد خطرناک است، يک نسخه کنترل شده و ناقص از آن را منتشر کرد تا بتواند شمه‌هايي از اين فناوري را به عموم نشان دهد و نحوه استفاده از آن را تحليل کند. اکنون اين شرکت مي‌گويد هيچ مدرک محکمي از سوءاستفاده اين هوش مصنوعي مشاهده نکرده است و طي همين هفته نسخه کامل آن را منتشر خواهد کرد. اين هوش مصنوعي موسوم به "GPT-2" در ابتدا براي پاسخ به سؤالات، تهيه خلاصه داستان‌ها و ترجمه متون طراحي شده بود. اما محققان نگران اين بودند که بتوان از آن استفاده کرد تا حجم زيادي از اطلاعات نادرست را منتشر کرد. درعوض ديدند که از آن تنها براي مواردي مانند آموزش بازي‌هاي ماجراجويي متني و نوشتن داستان استفاده شد. از آنجا که اين نسخه کوچک به سوءاستفاده گسترده منجر نشد، شرکت OpenAI مدل کامل GPT-2 را منتشر مي‌کند. اين شرکت در پست وبلاگ خود ابراز اميدواري کرده که نسخه کامل به محققان کمک کند تا مدل‌هاي تشخيص متن توليد شده توسط هوش مصنوعي بهتري توسعه دهند و تبعيض‌هاي زباني را ريشه کن کنند. ايده توسعه يک هوش مصنوعي که بتواند اخبار جعلي باورپذير توليد کند، نگران کننده است، اما برخي معتقدند که اين فناوري خواه ناخواه توسعه خواهد يافت و OpenAI بايد سريعاً کار خود را به اشتراک بگذارد تا محققان بتوانند ابزاري براي مبارزه يا حداقل شناسايي متون توليد شده توسط ربات ايجاد کنند.
ما را در کانال «آخرين خبر» دنبال کنيد
اخبار بیشتر درباره

اخبار بیشتر درباره