طبق تحقیقات دانشگاه Tulane، این دانشگاه اعلام کرد مدلهای زبانی در برخورد با پروندههای قضایی از خود نژادپرستی نشان دادهاند!
دانشگاه تولین بر روی 50 هزار پرونده مواد، کلاهبرداری و سرقت در ایلت ویرجینیا کار کرده است. در نهایت کار هم به این نتیجه رسیدند که هوش مصنوعی با بررسی پروندههای مربوط به جرمهای کم خطر میتواند پیشنهادات خود را ارائه کند. پیشنهادات هوش مصنوعی میتواند با بررسی پروندهها و سوابق افراد پیش بینی کند آیا فرد دوباره هم مرتکب جرم میشود یا نه؟
در راستای همین موضوع هم بعضی از قضات به این نتیجهها استناد میکنند و احکامشان را با توجه به آن صادر میکنند. در این تحقیقات آمده که در حال حاضر بیشتر قاضیها بعد از دیدن نتیجه کار هوش مصنوعی و مدلهای زبانی تصمیم میگیرند به آن توجه نکنند. این دسته از قضات همان حکمی که مدنظر خودشان است میدهند.
اما همه ماجرا این نیست. بررسیها نشان میدهد تعداد قابل توجهی از جرمهای مشابه که مجرمین سفیدپوست و سیاه پوست داشتند، احکام متفاوتی از هوش مصنوعی دریافت کردند.
در واقع مجرمی سفید پوست با جرمی کم خطر حکمش تا یک ماه حبس کم میشود اما یک سیاه پوست با همین جرم مشابه، حکم زندان یا حکمی سنگینتر میگیرد.
حواسمان به مدلهای زبانی که نژادپرستی نشان میدهد باشد؟
در نتیجه این پژوهش هم محققین این دانشگاه نگرانی خودشان را از سوگیری هوش مصنوعی اعلام کردند و خواستند نظارت روی دادهها و جوابهای این مدلهای زبانی انجام گیرد. هوش مصنوعی باید به قضات کمک کند بدون سوگیری و پیش داوری به پروندهها رسیدگی کنند این رفتار باعث هرج و مرج است.
فارغ از همه اینها، حکمهای سنگینتر سیاه پوستان نسبت به سفیدپوستانی با جرم مشابه کاملا بیعدالتی است و برخلاف تمام اصول اخلای هوش مصنوعی است.