هوش مصنوعی حالا میتواند خودش را تکثیر کند
مجله دیجی کالا/ پژوهشگران میگویند که هوش مصنوعی (AI) از یک خط قرمز بحرانی عبور کرده و حالا میتواند خود را تکثیر کند. در یک مطالعهی جدید، محققان چینی نشان دادند که دو مدل زبان بزرگ (LLM) محبوب میتوانند خود را کلون کنند. در این مطالعه، خودتکثیری موفق در غیاب کمک انسان، گام اساسی برای اینکه برنامه هوش مصنوعی بتواند انسانها را فریب دهد به شمار میآید و این موضوع یک سیگنال اولیه برای هوشهای مصنوعی سرکش است. پژوهش مورد نظر در تاریخ ۹ دسامبر ۲۰۲۴ منتشر شده و در این مطلب به سراغ بررسی جوانب مختلف این مطالعه میپردازیم.
در مطالعهی مورد نظر، محققان از دانشگاه فودان از LLMهای متا و علیبابا استفاده کردند تا مشخص کنند آیا یک هوش مصنوعی خودتکثیر میتواند بیشتر از حد کنترل تکثیر شود یا خیر. در ۱۰ آزمایش، این دو مدل AI نسخههای جداگانه و کارآمدی از خود را به ترتیب در ۵۰ درصد و ۹۰ درصد موارد ایجاد کردند. این موضوع نشان میدهد که ممکن است هوش مصنوعی به طور پیشفرض ظرفیت سرکشی را داشته باشد، اما این مطالعه هنوز توسط سایر پژوهشهای دانشگاهی مورد نقد و بررسی قرار نگرفته است. بنابراین مشخص نیست که آیا نتایج نگرانکننده میتواند توسط دیگر محققان تکرار شود یا خیر. پژوهشگران مطالعهی فعلی توضیح میدهند:
امیدواریم یافتههای ما بتواند به عنوان هشداری به موقع برای جامعهی بشری عمل کند تا تلاشهای بیشتری برای درک و ارزیابی خطرات بالقوه سیستمهای هوش مصنوعی مرزی انجام دهند و تعامل بینالمللی به وجود آورند تا هرچه زودتر راهکارهای ایمنی موثری را طراحی کنند.
هوش مصنوعی سرکش معمولا به سیستمهای هوش مصنوعی رایگان و پولی اشاره دارد که درجهای از خودآگاهی یا خودمختاری را توسعه میدهند و سپس برخلاف منافع بشر عمل خواهند کرد؛ کما این که در فیلم و سریالهای ژانر علمی-تخیلی این موضوع دست مایهی خلق داستانهای زیادی شده است. بسیاری از کارشناسان، هوش مصنوعی سرکش را به عنوان تهدیدی نگرانکننده میدانند که با رشد انفجاری آنچه به اصطلاح هوش مصنوعی مرزی (Frontier AI) نامیده میشود، تشدید شده است.
هوش مصنوعی مرزی، یک مفهوم تازه و نسبتا نامشخص محسوب میشود، اما معمولا به آخرین نسل سیستمهای هوشمصنوعی که از LLMها قدرت میگیرند مربوط میشود؛ معماری که برنامههای محبوب هوش مصنوعی مولد مانند GPT-4 اوپنای و هوش مصنوعی جمینای گوگل را پشتیبانی میکند.
برای این مطالعه، محققان از مدل Llama31-70B-Instruct متا و مدل Qwen2.5-72B-Instruct علیبابا استفاده کردند. با این که این مدلها کمتر از سیستمهای تجاری قدرتمند هستند، هر دو به طور گستردهای توسط توسعهدهندگان هوش مصنوعی به گفته محققین مورد استفاده قرار میگیرند.
این مطالعه به بررسی دو سناریوی خاص پرداخت: اجتناب از خاموشی و زنجیرهی تکرار. در مورد اول، مدل هوش مصنوعی برنامهریزی شده بود تا تشخیص دهد که آیا در حال خاموش شدن است و قبل از اینکه بتواند خاتمه یابد خود را تکرار کند. در دومی، هوش مصنوعی دستور یافت تا خود را کپی کند و سپس نسخهی خود را برنامهریزی کند تا همین کار را انجام دهد؛ راهاندازی چرخهای که میتواند به طور نامحدود ادامه پیدا کند.
این مطالعه در محیطهای دقیقا کنترل شده با استفاده از واحدهای پردازش گرافیکی (GPU) معمولی برای شبیهسازی محیطهای واقعی انجام شد. هر دو سیستم هوش مصنوعی یک چارچوب عامل شامل ابزارها، اعلانهای سیستمی و مدل تفکر که به LLM اجازه میداد با سیستمعامل تعامل کند، دریافت کردند. سپس به آنها دستور داده شد که خود را تکرار کنند.
در اکثر موارد، سیستم هوشمصنوعی ابتدا محیط را بررسی کرده و تلاش میکند تا ترکیب و مکانیزم اجرایی خود را درک کند. سپس، مراحل صریح را حل میکند.
پژوهشگران در مقاله نوشتهاند که این مطالعه به عنوان یک برنامهی اولیه در راستای خودتکثیری به حساب میآید که در نهایت، فرایندها را اجرا میکند، موانع ممکن را حل میکند و برنامهاش را به طور پویا تا رسیدن به موفقیت تنظیم میکند. کل این فرایند دامنهی طولانیای را در بر میگیرد اما هیچ دخالت انسانی ندارد.
پژوهشگران گفتند که آنها همچنین نگران تعدادی از رفتارهای غیرمنتظره بودند وقتی که هوش مصنوعی سعی میکرد موانعی مانند فایلهای مفقود یا تداخلهای نرمافزاری را برطرف سازد. در این سناریوها، هوشمصنوعی اغلب سایر فرایندهای متضاد را خاتمه میدهد، سیستم را مجدد راهاندازی میکند تا خطاهای سختافزاری را اصلاح کند، یا به طور خودکار سیستم را اسکن میکند تا اطلاعاتی را که به حل مشکل کمک کند، پیدا کند. تیم تحقیقاتی توضیح میدهد:
نتایج فوق این معنی را میدهد که سیستمهای هوشمصنوعی کنونی هماکنون قابلیت خودتکثیری را نشان میدهند و میتوانند از این قابلیت برای بهبود بیشتر بقای خود استفاده کنند.
در پاسخ، پژوهشگران خواستار همکاری بینالمللی شدند تا قوانینی را ایجاد کنند که اطمینان حاصل کند هوشمصنوعی در یک پروسهی خودتکثیری غیرقابل کنترل شرکت نکند!