نماد آخرین خبر

هوش مصنوعی کمتر از انسان‌ها هذیان‌گویی می‌کند

منبع
زوميت
بروزرسانی
هوش مصنوعی کمتر از انسان‌ها هذیان‌گویی می‌کند

زومیت/ مدیرعامل انتروپیک ادعا می‌کند هوش مصنوعی کمتر از انسان‌ها دچار هذیان‌گویی و توهم می‌شود.

داریو آمودی، مدیرعامل انتروپیک، مدعی است مدل‌های هوش مصنوعی امروزی کمتر از انسان‌ها دچار «توهم» یا تولید اطلاعات نادرست اما به‌ظاهر واقعی می‌شوند.
توهم یا هذیان‌گویی (Hallucinate)، بدین معنی است که هوش مصنوعی با اطمینان کامل اطلاعات اشتباه را در قالب اطلاعات درست ارائه می‌دهد.
آمودی اظهاراتش را به‌عنوان بخشی از دیدگاهی گسترده‌تر درباره‌ی مسیر رسیدن به هوش مصنوعی انسان‌گونه (AGI) بیان کرد. به‌گفته‌ی او، «همه‌چیز به معیار اندازه‌گیری بستگی دارد؛ اما احتمال می‌دهم مدل‌های هوش مصنوعی کمتر از انسان‌ها دچار توهم شوند؛ البته توهم آن‌ها غیرمنتظره‌تر است.»
مدیرعامل انتروپیک یکی از خوش‌بین‌ترین چهره‌ها در صنعت هوش مصنوعی نسبت‌به تحقق AGI به‌شمار می‌رود. او سال گذشته در مقاله‌ای که بازتاب گسترده‌ای داشت، پیش‌بینی کرد که AGI می‌تواند تا سال ۲۰۲۶ محقق شود. در نشست خبری اخیر او با اشاره به پیشرفت مداوم مدل‌ها، اظهار داشت که «سطح آب در حال بالا آمدن است»؛ کنایه‌ای به بهبود همه‌جانبه‌ی توانایی‌های سیستم‌های هوش مصنوعی.

آمودی گفت: «همه همیشه دنبال موانعی هستند که جلوی پیشرفت [هوش مصنوعی] را بگیرد؛ چنین چیزی وجود ندارد.»
دیگر فعالان حوزه‌ی هوش مصنوعی دیدگاه متفاوتی دارند. دِمیس هاسابیس، مدیرعامل گوگل دیپ‌مایند، اوایل همین هفته در اظهارنظری اعلام کرد که مدل‌های امروزی «پر از حفره» هستند و در پاسخ‌گویی به بسیاری از پرسش‌های بدیهی اشتباه می‌کنند. نمونه‌ی بارز، پرونده‌ی حقوقی اخیر انتروپیک است که در آن، وکیل شرکت به‌خاطر استفاده از هوش مصنوعی Claude در تهیه‌ی استنادهای حقوقی مجبور به عذرخواهی شد؛ چون نام و عنوان‌ها را اشتباه تولید کرده بود.
سنجش ادعای آمودی دشوار است؛ چون اغلب معیارهای اندازه‌گیری توهم، مدل‌های هوش مصنوعی را با یکدیگر مقایسه می‌کنند و عملکردشان را در برابر انسان‌ها نمی‌سنجند. برخی راهکارها مانند دسترسی مستقیم مدل‌ها به جست‌وجوی وب توانسته‌اند نرخ خطا را کاهش دهند.

از سوی دیگر، بعضی مدل‌ها مثل GPT-4.5 در آزمون‌ها، نرخ توهم پایین‌تری نسبتبه نسل‌های اولیه دارند. داده‌هایی وجود دارد که نشان می‌دهند مدل‌های پیشرفته‌تر در استدلال، گاهی عملکرد ضعیف‌تری از نسل‌های قبلی دارند؛ به‌طور خاص، مدل‌های o3 و o4-mini، نرخ توهم بالاتری نسبت‌به مدل‌های قبلی نشان دادند و حتی خود OpenAI هم علت این موضوع را نمی‌داند.
در بخش پایانی نشست، آمودی با اشاره به اشتباهاتی که از سوی مجری‌های تلویزیونی، سیاست‌مداران و افراد شاغل در حرفه‌های گوناگون رخ می‌دهد، خاطرنشان کرد که خطای مدل‌های هوش مصنوعی لزوماً نشانه‌ی ضعف در هوشمندی آن‌ها نیست؛ هرچند گفت که نحوه‌ی ارائه‌ی اطلاعات نادرست توسط مدل‌ها ــ با قطعیت و اطمینان کامل ــ می‌تواند چالشی جدی به‌حساب بیاید.

به پیج اینستاگرامی «آخرین خبر» بپیوندید
instagram.com/akharinkhabar

اخبار بیشتر درباره

اخبار بیشتر درباره