مدل‌های Sora و Voice Engine و محتوای دیپ‌فیک

فهرست مطالب

مدل‌های Sora و Voice Engine و محتوای دیپ‌فیک

از زمانی که اولین مدل‌های هوش مصنوعی معرفی شدند محتواهای دیپ‌فیک قسمت خطرناک و چالش‌برانگیز آن بودند. بازیگران، خواننده‌ها و سیاست‌مدارها و حتی مردم عادی از خطرات و سواستفاده‌ها مربوط به آن در امان نبودند و نیستند.

شرکت Open AI تاکنون دو مدل گفتاری به اسم Sora و Voice Engine منتشر کرده است. این دو مدل به خصوص مدل دوم فارغ از مزیت‌هایشان خطرات زیادی هم دارند. مدل Voice Engine این شرکت را مجبور کرد محدودیت استفاده برای آن قرار دهد.

در پی این سواستفاده‌ها شرکت‌هایی که از هوش مصنوعی برای مبارزه با جرائم سایبری تاسیس شدند هم زیادند. این شرکت‌ها، درباره خطرات و جرائمی که با دیپ‌فیک اتفاق می‌افتد صحبت کردند.

مدل‌های Sora و Voice Engine و محتوای دیپ‌فیک

کلاهبرداری‌هایی که درآینده با دیپ‌فیک اتفاق می‌افتد

یکی از مهم‌ترین کلاهبرداری‌های بخش صوتی و تصویری، مربوط به کارمندی بود که در جلسه آنلاین و ویدیویی کاری 25 میلیون دلار را به حساب هکرها انتقال داد. این مورد خود می‌تواند گویای خطراتی که درآینده پیش می‌آید باشد. این شرکت‌ها به کاربران چند راه‌حل ارائه دادند تا در مدتی که هوش مصنوعی پیشرفت‌های بیشتری می‌کند از آن‌ها استفاده کنند.

شما می‌توانید از افراد بخواهید سرشان را تکان دهند یا به پشت بچرخانند. هوش مصنوعی درحال حاضر نمی‌تواند تصاویر سه بعدی ایجاد کند و با چرخاندن سر، تصویر مختل می‌شود. مورد دیگر هم اینکه شما باید از افراد مشکوک بخواهید روزنامه یا گزارش شرکت یا … که اطلاعات موثق آن روز را داشته باشد به شما نشان دهند.

در حال حاضر هوش مصنوعی هنوز به مرحله‌ای نرسیده که بتواند راه‌حل‌های این چنینی را دور بزند. اما در آینده این‌ها هم دیگر راه‌حل خوبی نیستند. اثبات این موضوع هم گذشته است که تنها راه کلاهبرداری از طریق ساخت تصاویر جعلی بود. امروز علاوه بر تصویر، باید نگران صدا و تصویر هم بود.

بیشتر بدانید: مادر کیتی پری هم گول عکس دیپ فیک هوش مصنوعی را خورد!

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *