نژادپرستی بین مدل‌های زبانی زیاد شده؟

دادگاه و هوش مصنوعی

طبق تحقیقات دانشگاه Tulane، این دانشگاه اعلام کرد مدل‌های زبانی در برخورد با پرونده‌های قضایی از خود نژادپرستی نشان داده‌اند!

دانشگاه تولین بر روی 50 هزار پرونده مواد، کلاهبرداری و سرقت در ایلت ویرجینیا کار کرده است. در نهایت کار هم به این نتیجه رسیدند که هوش مصنوعی با بررسی پرونده‌های مربوط به جرم‌های کم خطر می‌تواند پیشنهادات خود را ارائه کند. پیشنهادات هوش مصنوعی می‌تواند با بررسی پرونده‌ها و سوابق افراد پیش بینی کند آیا فرد دوباره هم مرتکب جرم می‌شود یا نه؟

در راستای همین موضوع هم بعضی از قضات به این نتیجه‌ها استناد می‌کنند و احکامشان را با توجه به آن صادر می‌کنند. در این تحقیقات آمده که در حال حاضر بیشتر قاضی‌ها بعد از دیدن نتیجه کار هوش مصنوعی و مدل‌های زبانی تصمیم می‌گیرند به آن توجه نکنند. این دسته از قضات همان حکمی که مدنظر خودشان است می‌دهند.

اما همه ماجرا این نیست. بررسی‌ها نشان می‌دهد تعداد قابل توجهی از جرم‌های مشابه که مجرمین سفیدپوست و سیاه پوست داشتند، احکام متفاوتی از هوش مصنوعی دریافت کردند.

در واقع مجرمی سفید پوست با جرمی کم خطر حکمش تا یک ماه حبس کم می‌شود اما یک سیاه پوست با همین جرم مشابه، حکم زندان یا حکمی سنگین‌تر می‌گیرد.

همکاری مدل‌های زبانی و قضات برای حل پرونده‌های با جرم‌های کم خطر

حواسمان به مدل‌های زبانی که نژادپرستی نشان می‌دهد باشد؟

در نتیجه این پژوهش هم محققین این دانشگاه نگرانی خودشان را از سوگیری هوش مصنوعی اعلام کردند و خواستند نظارت روی داده‌ها و جواب‌های این مدل‌های زبانی انجام گیرد. هوش مصنوعی باید به قضات کمک کند بدون سوگیری و پیش داوری به پرونده‌ها رسیدگی کنند این رفتار باعث هرج و مرج است.

فارغ از همه این‌ها، حکم‌های سنگین‌تر سیاه پوستان نسبت به سفیدپوستانی با جرم مشابه کاملا بی‌عدالتی است و برخلاف تمام اصول اخلای هوش مصنوعی است.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *