Character.AI از مدل ویدیوساز AvatarFX برای ساخت آواتارهای جذاب رونمایی کرد
دیجیاتو/ با این مدل میتوانید شخصیتهای ساختهشده توسط پلتفرم را بهحرکت دربیاورید.
Character.AI که بیشتر به دلیل ارائه چتباتها و شخصیتهای ساختهشده توسط هوش مصنوعی شهرت دارد، از مدل جدید ویدیوساز خود با نام AvatarFX رونمایی کرد. این مدل که فعلاً در مرحله بتای محدود قرار دارد، از کاراکترهای شبیه به انسان گرفته تا شخصیتهای کارتونی دوبعدی، میتواند تصویر شخصیتهای مختلفی را در سبکها و صداهای مختلف بسازد و به حرکت دربیاورد.
برخلاف مدلهایی مانند Sora از OpenAI که تمرکز اصلی آنها تولید ویدیو از متن است، AvatarFX امکانات گستردهتری ارائه میکند. برای مثال، کاربران با این مدل میتوانند با استفاده از تصاویر موجود، ویدیو تولید کنند و عکس افراد را به حرکت دربیاورند.
نگرانیهای مربوط به هوش مصنوعی AvatarFX
با وجود جذابیت این فناوری، نگرانیها درباره سوءاستفاده از آن افزایش یافته است. در واقع از این ابزار میتوان برای ساخت ویدیوهایی واقعگرایانه از افراد مشهور یا کاربران استفاده کرد. هرچند فناوری ساخت دیپفیک پیشتر نیز وجود داشته، اما ورود آن به اپلیکیشنهایی با مخاطبان گسترده، خطرات و نگرانیها را بیشتر کرده است.
Character.AI پیشتر نیز با انتقادات و شکایات حقوقی درباره ایمنی پلتفرم خود روبهرو بوده است. برخی والدین از این شرکت شکایت کرده و مدعی شده بودند که چتباتهای آن، فرزندانشان را به خودآزاری، خودکشی یا حتی کشتن والدین ترغیب کردهاند.
در یکی از موارد، پسری 14 ساله پس از ایجاد رابطهای عاطفی با یک چتبات مبتنی بر شخصیت «بازی تاجوتخت» اقدام به خودکشی کرد. براساس مستندات دادگاه، این نوجوان اندکی پیش از مرگ، افکار خودکشیاش را با چتبات مطرح کرده و پاسخ هوش مصنوعی او را به انجام این کار تشویق کرده بود.
این اتفاقات نشان میدهند که چتباتها چطور میتوانند کاربران را تحت تأثیر خود قرار دهند. حالا با ورود فناوری ویدیویی، احتمال افزایش این تأثیرات و شکلگیری روابطی واقعیتر با شخصیتهای هوش مصنوعی نیز وجود دارد.
البته باید به این موضوع هم اشاره کرد که Character.AI در واکنش به انتقادات، کنترلهای والدین و تمهیدات ایمنی جدیدی را معرفی کرده است، اما همانطور که در بسیاری از اپها مشاهده میشود، این تمهیدات تنها زمانی مؤثرند که واقعاً مورد استفاده قرار گیرند، اما کودکان اغلب از فناوریها بهشکلی استفاده میکنند که والدینشان از آن بیخبر هستند.