از زمانی که اولین مدلهای هوش مصنوعی معرفی شدند محتواهای دیپفیک قسمت خطرناک و چالشبرانگیز آن بودند. بازیگران، خوانندهها و سیاستمدارها و حتی مردم عادی از خطرات و سواستفادهها مربوط به آن در امان نبودند و نیستند.
شرکت Open AI تاکنون دو مدل گفتاری به اسم Sora و Voice Engine منتشر کرده است. این دو مدل به خصوص مدل دوم فارغ از مزیتهایشان خطرات زیادی هم دارند. مدل Voice Engine این شرکت را مجبور کرد محدودیت استفاده برای آن قرار دهد.
در پی این سواستفادهها شرکتهایی که از هوش مصنوعی برای مبارزه با جرائم سایبری تاسیس شدند هم زیادند. این شرکتها، درباره خطرات و جرائمی که با دیپفیک اتفاق میافتد صحبت کردند.
کلاهبرداریهایی که درآینده با دیپفیک اتفاق میافتد
یکی از مهمترین کلاهبرداریهای بخش صوتی و تصویری، مربوط به کارمندی بود که در جلسه آنلاین و ویدیویی کاری 25 میلیون دلار را به حساب هکرها انتقال داد. این مورد خود میتواند گویای خطراتی که درآینده پیش میآید باشد. این شرکتها به کاربران چند راهحل ارائه دادند تا در مدتی که هوش مصنوعی پیشرفتهای بیشتری میکند از آنها استفاده کنند.
شما میتوانید از افراد بخواهید سرشان را تکان دهند یا به پشت بچرخانند. هوش مصنوعی درحال حاضر نمیتواند تصاویر سه بعدی ایجاد کند و با چرخاندن سر، تصویر مختل میشود. مورد دیگر هم اینکه شما باید از افراد مشکوک بخواهید روزنامه یا گزارش شرکت یا … که اطلاعات موثق آن روز را داشته باشد به شما نشان دهند.
در حال حاضر هوش مصنوعی هنوز به مرحلهای نرسیده که بتواند راهحلهای این چنینی را دور بزند. اما در آینده اینها هم دیگر راهحل خوبی نیستند. اثبات این موضوع هم گذشته است که تنها راه کلاهبرداری از طریق ساخت تصاویر جعلی بود. امروز علاوه بر تصویر، باید نگران صدا و تصویر هم بود.
بیشتر بدانید: مادر کیتی پری هم گول عکس دیپ فیک هوش مصنوعی را خورد!