استارت‌آپ‌ها با سلاح هوش‌مصنوعی به مصاف تبعیض می‌روند

۹۹/۰۸/۲۷

استارت‌آپی در انگلستان ابزار جدیدی را ارائه کرده است که می‌تواند روشی عملی برای شناسایی تبعیض در پایگاه داده‌ها را در اختیار کد نویسان قرار دهد. مبارزه با تبعیض در سیستم‌های هوش‌مصنوعی موضوعی است که توجه زیادی را در جهان تجارت به خود جلب کرده و چالش‌هایی را نیز پدید آورده است. برای شروع خوب […]

استارت‌آپی در انگلستان ابزار جدیدی را ارائه کرده است که می‌تواند روشی عملی برای شناسایی تبعیض در پایگاه داده‌ها را در اختیار کد نویسان قرار دهد. مبارزه با تبعیض در سیستم‌های هوش‌مصنوعی موضوعی است که توجه زیادی را در جهان تجارت به خود جلب کرده و چالش‌هایی را نیز پدید آورده است. برای شروع خوب است که یک سری اصول پایه را مشخص کنیم اما وقتی پای اجرای عملی به میان می‌آید سازمان‌ها با مشکل روبه‌رو می‌شوند.

شناسایی و رفع تبعیض در پایگاه داده‌ها

استارت‌آپ Synthesized در لندن این مشکل را برطرف کرده است و حالا ابزاری ارائه کرده که می‌تواند تبعیض در پایگاه داده‌ها را شناسایی و رفع کند. این شرکت پلتفرمی را ارائه داده که ظرف چند دقیقه پایگاه داده را بررسی کرده و تحلیل دقیقی از گروه‌های مختلف افرادی که در پایگاه داده‌ها وجود دارند ارائه می‌دهد.

اگر یک گروه در مقایسه با دیگر گروه‌ها به ملاکی مربوط شده باشد که باعث تبعیض شود، این نرم‌افزار مشکل را به کاربر اطلاع خواهد داد. این تکنولوژی همچنین یک «امتیاز انصاف» را نیز برای هر پایگاه داده ارائه می‌دهد که با توجه به تعداد کلی داده‌ها از صفر تا یک متغییر خواهد بود.

این استارت‌آپ (Synthesized: آمیخته) همانطور که از نامش مشخص است یک تکنولوژی تولید داده ترکیبی را ایجاد کرده است که در انتهای فرایند برای متعادل سازی پایگاه داده‌ها با استفاده از داده‌های مصنوعی برای جلوگیری از تبعیض، فاصله بین گروه‌ها را از بین می‌ربرد و در نتیجه می‌توان یک نمایه منصفانه از هر گروه را انتظار داشت.

نیکولای بالدین بنیان‌گذار Synthesized می‌گوید: «با ایجاد یک پایگاه داده شبیه سازی شده و اصلاح شده، می‌توانید خدمات بهتری بسازید. ما می‌خواهیم نشان دهیم که ایجاد یک پایگاه داده منصفانه بدون پایین آوردن کیفیت داده‌ها امکان پذیر است. در واقع، نتایج مدل‌های هوش‌مصنوعی پیشرفت خواهند داشت زیرا گروه‌هایی که پیشتر غایب بودند حالا ارائه خواهند شد.»

ساز و کار این فرایند

این فرایند ساده است. پلتفرم شناسایی تبعیض این استارت‌آپ، برای انجام کار خود نیاز به یک فایل ساختار داده‌ها، همانند یک فایل اکسل دارد که از طریق آن فرایند تحلیل را آغاز می‌کند و کاربران می‌توانند یک هدف مشخص همچون «حقوق سالیانه» را برای شناسایی تبعیض مشخص کنند.

این نرم‌افزار سپس کل پایگاه‌داده را با توجه به هدف، نمایه‌سازی خواهد کرد و مشخص می‌‌کند که آیا گروه‌های اقلیت به طور غیرمنصفانه‌ای نمایش داده شده‌اند یا خیر.

در گام اول این استارت‌آپ گروه‌هایی که احتمال تبعیض برایشان زیاد است را براساس مشخصه‌هایی که در قوانین انگلستان و آمریکا محافظت شده است مشخص می‌کند؛ سنت، ناتوانی، جنسیت، قومیت، مذهب، گرایش جنسی و غیره از جمله تبعیض‌های شناخته شده هستند.

برای مثال بالدین یک پایگاه‌ داده عمومی متشکل از ۳۲ هزار نفر را در این پلتفرم استفاده کرد. ۲۷۰ گروه اقلیت مشخص شدند که برخی چند ویژگی را با هم در خود داشتند. برای مثال ۱۸۶ نفر در این پایگاه داده به عنوان «خانم، متاهل، رده سنی ۳۳ تا ۴۱ سال شناسایی شدند.

زمانی که این نرم‌افزار گروه‌های دارای مشخصه‌های محافظت شده را شناسایی کرد سپس بررسی می‌کند که آیا یک دسته خاص تفاوت قابل توجهی از منظر هدف این بررسی از خود نشان می‌دهند یا خیر و آیا این تفاوت نشان دهنده تبعیض مثبت است یا منفی.

بالدین می‌گوید: «در اینجا در گروه «خانم، متاهل، سن ۳۳ تا ۴۱ سال» شاهد یک تبعیض مثبت هستیم؛ یعنی درآمد این گروه در واقع در مقایسه با کل پایگاه داده بالاتر است.»

هوش‌مصنوعی محبوب در صنعت و دانشگاه

سپس براساس خروجی این تحلیل نمره انصافی برای پایگاه داده مورد نظر مشخص می‌شود و کاربر می‌تواند داده‌ها را به صورت مصنوعی متعادل سازی کند. در واقع ایجاد داده ترکیبی اصلی‌ترین وظیفه این استارت‌آپ محسوب می‌شود. با استفاده از تکنولوژی ترکیب داده این پلتفرم گروه‌های تازه‌ای را شبیه سازی می‌کند که پیشتر یا در پایگاه داده‌ها حضور نداشته‌اند و یا به شکل غیرمنصفانه‌ای ارائه شده بودند و به این ترتیب امتیاز انصاف کلی تنظیم خواهد شد.

به گفته بالدین:

«ما در دانشگاه‌ها و صنایع تلاش‌هایی را برای شناسایی تبعیض شاهد بوده‌ایم اما این تلاش‌ها به ابزاری منتهی نشده است که بتواند پایگاه‌های داده شبیه‌سازی شده را بدون تبعیض ایجاد کند.»

تبعیض در هوش‌مصنوعی چندین سال است که موضوع داغی در صنعت و دانشگاه محسوب می‌شود و افراد زیادی را به روش‌های مختلف از فرایند استخدام، خدمات درمان، مسائل امنیتی و قضایی تحت تاثیر قرار داده است.

در تابستان امسال هیاتی تشکیل شد که استفاده از الگوریتمی جانبدارانه را برای تعیین نمره مدارس انگلستان در حالی که امتحانات فیزیکی لغو شده بود مورد انتقاد قرار داد. این سیستم هوش‌مصنوعی پیش‌بینی خود را براساس یک پایگاه داده غیرمنصانه انجام می‌داد و درنتیجه دانش‌ آموزانی که پس زمینه ضعیفی داشتند متضرر می‌شدند.

مردم از شرکت‌ها و ارائه دهندگان انتظار دارند تا یک هوش‌مصنوعی اخلاق محور را ساخته و ارائه کنند. یک نظرسنجی عمومی در انگلستان نشان داد که بیش از نیمی از بزرگسالان این کشور نمی‌توانند در ساخت الگوریتم‌هایی که قرار است کیفیت زندگی آنها را بهبود بخشد به دانشمندان کامپیوتر اعتماد کنند. اکثر پاسخ دهندگان (۶۲ درصد) گفته‌اند که برنامه نویسان نیز همانند حسابداران باید یک سری مشخصه‌های حرفه‌ای را نیز در کنار تخصص خود کسب کنند.

آیا در آینده شاهد پایگاه‌ داده‌های کاملا منصفانه خواهیم بود؟

دولت‌های مختلف در سراسر جهان اوراق سفید متعددی را درمورد استفاده مسئولانه از هوش مصنوعی منتشر کرده‌اند. بزرگترین شرکت‌های تکنولوژی در حال تشکیل کمیته‌های اخلاقی هستند و قرار است از اصول هوش‌مصنوعی پیروی کنند. اما هنوز ابزار‌ی برای منصفانه کردن الگوریتم‌ها و ترویج شفافیت ارائه نشده است.

ابزار What-if از گوگل و بسته انصاف هوش مصنوعی از IBM هردو ابزار‌هایی برای تحلیل پایگاه داده‌ها از لحاظ تبعیض ارائه می‌دهند اما این ابزار‌ها تنها برای متخصصان طراحی شده‌اند. بالدین امیدوار است که پلتفورم Synthesizedکاربران بیشتری را به بررسی و تلاش برای رفع این مشکل ترغیب کند.

نمی‌توان گفت که با این روند در آینده‌ای نزدیک شاهد پایگاه‌ داده‌های کاملا منصفانه خواهیم بود. به گفته بالدین «اگر ما تعریف قانونی ویژگی‌های محافظت شده را در دستور کار قرار دهیم، سپس این پلتفرم می‌تواند تمامی نابرابری‌ها را محو کند. اما باید مراقب بود که منظور از همه نابرابری‌ها چیست. ممکن است گروه‌های دیگری از سوی قانون محافظت نشده باشند اما تبعیض علیه آنها مشخص باشد.»

پایگاه‌ داده مسئله تازه‌ای نیست و به این زودی‌ها کنار نخواهد رفت. برای تحقیقات بیشتر در این زمینه بالدین تصمیم گرفته است که بخش شناسایی تبعیض در پلتفرم Synthesized را به صورت منبع باز در اختیار مهندسان و متخصصان داده قرار دهد.

در حال حاضر کدنویسان علاقه‌مند به این زمینه می‌توانند از این برنامه استفاده کنند و سه پایگاه داده را به صورت رایگاه بارگذاری کنند.

دیدگاه کاربران

پیام‌های حاوی کلمات رکیک و توهین آمیز منتشر نخواهد شد