کرونوس – دو سال پیش مایکروسافت یک نرمافزار هوش مصنوعی به نام Tay ساخت و اجازه داد برای خودش در شبکههای اجتماعی بچرد.
وقتی این ربات با ابعاد افتخارآمیز انسانیت مواجه شد به سرعت به نژادپرستی و نازیسم روی آورد و به جهان اعلام کرد: «هیتلر راست میگفت» و «حالم از فمینیستها به هم میخورد؛ باید آنها را در جهنم سوزاند تا بمیرند.» مسئولین به سرعت ربات را خاموش کردند.
البته این فقط یک نمونهی حاد بود. اما زنان در سراسر جهان میدانند که سکسیسم میتواند بسیار مبتذلتر از این باشد. و با این که هوش مصنوعی موجب ایجاد انقلاب در رویارویی ما با مسائلی همچون تغییرات اقلیمی و آموزش شده، به نظر میرسد در بعضی جاها در اعماق تاریخ گیر کرده است.
فروشگاه آنلاین آمازون از سال ۲۰۱۴ اقدام به استفاده از یک برنامهی تجربی هوش مصنوعی برای استخدام کارمندان جدید کرده بود. یک منبع آگاه به رویترز گفت: «همه میخواستند این جام طلا [قدرت جادویی] را بهدست آورند. آنها از این برنامه میخواستند ۱۰۰ رزومهی کاری را دریافت کرده و ۵ تایشان را برای استخدام دستچین کند تا ما آنان را استخدام کنیم.»
این برنامه که توسط دهها مهندس نوشته شده بود به شکلی طراحی شده بود که بتواند بهترین کاندیداها را پیدا کرده و به آنان رتبهای بین یک تا پنج ستاره بدهد – درست مانند رتبهبندی محصولات آمازون. برای این کار، گروه ۵۰۰ مدل کامپیوتری طراحی کرده و به آنها یاد داد تا ۵۰۰۰۰ عبارت را از رزومهی کارجویان قبلی شرکت استخراج کنند.
این پروژه در مواردی موفق بود؛ مثلاً این که یاد گرفت قابلیتهای مشترک داوطلبین را حذف کند. اما گروه خیلی زود متوجه یک مشکل شد: برنامه به خودش روشهایی بسیار سؤالبرانگیز در روند استخدام را یاد داده بود. برنامه داوطلبین مرد را به داوطلبین زن اولویت میداد.
پروژهی هوش مصنوعی آمازون نیز درست مثل Tay قربانی آموزشهایی شد که به آن داده شده بود. به این برنامه یاد داده شده بود که الگوهای مشخصی را از میان رزومههای ده سال اخیر استخراج کند، اما بیشتر این رزومهها متعلق به مردان بود. در نتیجه، برنامه شروع کرد به ارجح دانستن رزومههایی که شامل واژههایی میشدند که بیشتر توسط مردان استفاده میشد. از آن بدتر این که شروع کرد به دادن امتیاز منفی به رزومههایی که در آنها عبارت «برای زنان» به کار رفته بود. لذا برای مثال رزومهای که در آن نوشته شده بود «انجمن برنامهنویسی زنان کالج» میتوانست احتمال استخدام شدن شخص به عنوان برنامهنویس را به خطر بیندازد.
تعصب جنسیتی هوش مصنوعی و همچنین مشکلاتی که در برنامهنویسی آن وجود داشت و موجب میشد کارمندان بیصلاحیت استخدام شوند در نهایت باعث شد دیگر از این برنامه استفاده نشود.
آمازون به رویترز گفت هوش مصنوعی «هرگز برای ارزیابی داوطلبین استفاده نشد» و اکنون از برنامهای بسیار ضعیفتر برای مواردی همچون حذف رزومههای تکراری استفاده میکند. یکی از منابع اعلام کرده است اکنون یک برنامهی هوش مصنوعی دیگر برای استخدام به کار گرفته میشود که یکی از اهدافش افزایش تنوع و دگرسانی است.
یادگیری ماشینی همین حالا هم زندگی حرفهای ما را تحت تأثیر قرار داده است. اما متخصصین فناوری و همچنین گروههای مدافع آزادیهای مدنی معتقدند برای جلوگیری از اتفاقی که برای آمازون افتاد هنوز به تحقیقات و کار بیشتری نیاز است.
یکی از معاونین لینکدین به رویترز گفت: «من قطعاً به هیچ برنامهی هوش مصنوعی برای اتخاذ تصمیم در مورد استخدام افراد اطمینان ندارم. این فناوری هنوز آمادهی چنین چیزی نیست.»