Chat GPT حقایق را می‌سازد

فهرست مطالب

کارشناسان و اهالی رسانه می‌گویند سعی کنید اخبار را از هوش مصنوعی دریافت نکنید. Chat GPT نه تنها اخبار دروغین تحویل شما می‌دهد بلکه حقایق را نیز می‌سازد. در طول دو سال گذشته اخبار مختلفی درباره انتشار اخبار غلط منتشر شده است اما این همه چیز نیست.

کاربران اخبار و اطلاعات دروغ مدل‌های هوش مصنوعی را به رانندگی در دریاچه شبیه می‌کنند. زمانی که جی‌پی‌ای تازه عرضه شد به کاربران می‌گفت نزدیک‌ترین راه برای رسیدن به خانه رانندگی داخل دریاچه است. همین موضوع نیز برای لینک‌هایی که GPT در اختیار شما می‌گذارد صدق می‌کند.

آزمایشگاه Neiman آزمایشی انجام داد تا ببیند این مدل لینک‌های واقعی و درستی به نقالات نشریات خبری می‌دهد یا نه. در واقع این آزمایش در ابتدای برای این بود که ببیند شرکت Open AI با پرداخت میلیون‌ها دلار به نشریات معتبر چگونه از اطلاعاتشان استفاده می‌کند؟

نهایتا پدیده hallucinating یا توهم رخ داد. این پدیده زمانی رخ می‌دهد که مدل خودش موضوعات را می‌سازد و بر اساس آن‌ها پاسخ می‌دهد. اینجا مدل Chat GPT حقایق و لینک‌های خبری را می‌سازد.

سپس این آزمایشگاه از GPT درخواست کرد لینک‌های خبری را در ده وبسایتی که Open AI با آن‌ها قرارداد دارد نشان دهد. نتیجه جستجو در سایت‌های آسوشیتدپرس، وال استریت ژورنال، فاینشنال تایمز، تایمز بریتانیا، لوموند، ال پاریس، آتلانتیک و ورج، وکس و پولیتیکو همگی ناخوشایند بود. این مدل لینک‌های مختلفی می‌ساخت که هیچکدام وجود نداشتند.

Chat GPT حقایق را می‌سازد

سیستم ماشین با پیش بینی محتمل‌ترین نسخه URL یک نسخه به جای نسخه واقعی می‌سازد. در پاسخ به این آزمایش شرکت Open AI گفت این موضوع هنوز در GPT درحال توسعه است. اما این استارتاپ صحبتی درباره لینک‌های دروغین ندادند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *