بایاس، پاشنه آشیل هوش مصنوعی

عنوان خبر جدید است اما موضوع نه: «نرم افزار تشخیص چهره آمازون که توسط سازمانهای مجری قانون، به کار گرفته شده، دچار خطاهایی است که حکایت از یک بایاس نژادپرستی دارد.»


گزارشها نشان می‌دهد، سیستم تشخیص چهره Rekognition آمازون، با اینکه در تشخیص چهره آقایان خوب عمل می کند، اما برای تشخیص چهره خانم ها با مشکلاتی مواجه است، بطوری که 19% مواقع زنان، به عنوان مرد تشخیص داده شده‌اند و این آمار برای زنان با پوست تیره 31% بوده است.
بدین ترتیب چنین سیستمی با چنین بایاس و خطای وحشتناکی نمی تواند ابزاری قابل اعتماد برای ارگانهای حقوقی باشد.
Amazon Facial Recognition Software Used By Law Enforcement Has Racial Bias, Per Report



پیشتر از این Jason Bloomberg در مقاله‌ای از '__بایاس__' به عنوان پاشنه آشیل هوش مصنوعی یاد کرده و معتقد است یک اصل اساسی در نرم افزار وجود دارد که می‌گوید:
> "garbage in, garbage out"


یعنی اگر به یک سیستم (هر چقدر هم پیشرفته) آشغال بخورانی، چیزی جز آشغال از آن تحویل نمیگیری. در مورد سیستم‌های هوش مصنوعی این «آشغال» همان دیتاست خواهد بود.


فرض کنید شما میخواهید از یک سیستم AI برای پیشنهاد فرد مناسب جهت استخدام در شرکتتان استفاده کنید.
بدین ترتیب شما لیستی از افراد موفق در این شغل در گذشته را آماده کرده و به عنوان دیتاست به سیستم می‌خورانید. سیستم نیز کاندیداها را با افراد دیتاست مقایسه کرده و بهترین گزینه را معرفی می‌کند.


حالا اگر دیتاست شما بایاس داشت چه؟ مثلا غالبا شامل "آقایان جوان سفیدپوست" باشد؟
بله نتیجه چنین سیستمی احتمالا یک پیشنهاد بایاس خواهد بود.


این که خود الگوریتم نیز به نوعی بایاس داشته باشد، یک بحث دیگر است، اما بقول Max Pagels: «دیتا چیزی نیست جز یک مشت عدد. و در آماده سازی یک دیتاست باید وسواس زیادی به خرج داد تا از بایاس‌های اجتماعی در آن جلوگیری شود»
Bias Is AI's Achilles Heel. Here's How To Fix It