داستان هوش مصنوعی از جایی شروع شد که ریاضی دانان، مهندسان و روان شناسان، تلاش کردند تا قدرت یادگیری مغز انسان را به نرم افزار نیز منتقل کنند. اما شاید تنها راه بهره مندی از مزایای واقعی هوش مصنوعی ، کنار گذاشتن محدودیت های تفکر انسانی باشد.
تابستان ۱۹۵۶ بود که ۱۰ دانشمند در کالج دارتموث گرد یکدیگر آمده و هوش مصنوعی را اختراع کردند. محققان مختلفی از رشته های مهندسی، ریاضیات، روان شناسی، اقتصاد و علوم سیاسی فکر های خود را روی هم گذاشته تا ببینند آیا توصیف دقیقی برای فرایند یادگیری و نحوه تفکر انسان وجود دارد که بتوان آن را به ماشین منتقل کرد یا خیر. پس از گذشت یک دهه، همان دانشمندان توانستند نقش موثری در پیشرفت چشمگیر رباتیک، پردازش زبان طبیعی و بینایی کامپیوتری ایفا کنند.
با اینکه زمان زیادی از آن ماجرا می گذرد، اما رباتیک، پردازش زبان طبیعی و بینایی کامپیوتری، همچنان جزء محبوب ترین حوزه های تحقیقاتی به حساب می آیند. به بیان دیگر، ما می خواهیم به هوش مصنوعی بیاموزیم تا مانند انسان حرکت کند، مانند انسان حرف بزند و مانند انسان ببیند.
هدف از انجام این کار کاملا واضح است. ما تمایل داریم وظایفی همچون رانندگی، خواندن قرارداد های قانونی یا خرید مواد غذایی را به ماشین ها بسپاریم. بدین ترتیب زمان بیشتری برای پرداختن به امور سرگرم کننده خواهیم داشت و ماشین ها، کار های روزمره و خسته کننده ما را به صورت خودکار انجام می دهند.
طبق جدیدترین یافته های محققین، از آنجا که هوش مصنوعی از تفکر انسانی الگو گرفته، پس می تواند تعصبات و تبعیض های انسانی را نیز به ارث ببرد. تعصبات در الگوریتم استخدام آمازون که تبعیض بسیاری علیه زنان قائل می شد، یا در الگوریتم COMPAS دولت آمریکا که سیاه پوستان را به طرز نامناسبی تنبیه می کند، کاملا مشهود هستند. بجز این موارد نمونه های دیگری هم از مسئله تعصب در هوش مصنوعی مشاهده شده است.
در هر دو مورد، مشکل از مجموعه داده های ناقص آغاز شده است. تعداد کثیری از کارکنان آمازون مذکر و بسیاری از زندانیان آمریکا سیاه پوست بوده اند. اگرچه این آمار و ارقام نتیجه تبعیض ها و تعصبات فرهنگی هستند، اما الگوریتم به هیچ عنوان نمی توانسته این موضوع را درک کند. در عوض نتیجه گرفته که باید داده هایی که قبلا به آن خورانده شده را عینا تکرار (کپی) کند؛ امری که در نهایت منجر به تشدید تبعیض های تعبیه شده در داده ها می شود.
رفع این مشکل به صورت دستی، امکان پذیر اما پرخطر است؛ چراکه در صورت اعمال اصلاحات نادرست ، تبعیض های موجود به مراتب بدتر شده و احتمال بروز تعصبات جدید نیز افزایش می یابد. خوشبختانه پیشرفت های اخیر در حیطه ی الگوریتم های هوش مصنوعی باعث شده تا این تعصبات اهمیت خود را از دست بدهند. لذا مهندسین باید از یافته های جدید استقبال کرده و آن ها را بپذیرند.
روش های جدید خطر وجود تعصبات در نتایج را محدود می کنند؛ چه این مشکل مربوط به مجموعه داده ها باشد و چه از جانب خود مهندسان صورت گرفته باشد. همچنین ظهور تکنیک های متعدد موجب کاهش تعامل مهندسان با هوش مصنوعی و حذف وظایف تکراری و خسته کننده می شوند.
وقتی دانش بشر حرف اول را می زند
سناریوی زیر را در نظر بگیرید:
فرض کنید مجموعه داده بسیار بزرگی از افراد مختلف، و اینکه آیا به کرونا مبتلا هستند یا خیر را در اختیار دارید. وضعیت ابتلای افراد به کووید توسط خود انسان ها یعنی پزشکان، پرستاران یا داروسازان و با برچسب های COVID و no-COVID به این مجموعه اضافه شده است. حال مراکز بهداشتی مایل هستند بدانند که آیا ویروس کرونا از قبل در بدن فرد وجود داشته یا خیر.
اینجاست که یادگیری ماشین نظارت شده به کمک ما می آید. یک الگوریتم می تواند داده ها را دریافت کرده و از نقش متغیر های مختلف همچون شغل، درآمد ناخالص، وضعیت خانوادگی، نژاد یا کد پستی در ابتلای فرد به کووید آگاه شود. به عنوان مثال، الگوریتم می تواند احتمال وجود ویروس در بدن یک پرستار لاتین که دارای سه فرزند بوده و در نیویورک زندگی می کند را تخمین بزند. در نتیجه، ممکن است تاریخ واکسیناسیون یا حق بیمه او عوض شود تا از طریق تخصیص کارآمد منابع محدود، افراد بیشتری نجات پیدا کنند.
این فرایند در نگاه اول بسیار مفید و کارا به نظر می رسد، اما گیر و دار هایی نیز وجود دارد. به عنوان مثال یکی از اعضای کادر پزشکی ممکن است تحت فشار کار زیاد، داده ها را به اشتباه برچسب گذاری کند و بدین ترتیب سبب خطا در مجموعه داده و نتایج غیر قابل اعتماد و نامعتبر شود. این نوع اشتباهات به ویژه در بازار کار و سیستم مدیریت زندان ، آسیب های بسیاری را به بار می آورد.
یادگیری ماشین نظارت شده راه حل ایده آلی برای رفع مشکلات است، اما نقش بیش از حد انسان در ایجاد داده ها جلوی موفقیت کار را می گیرد. در دنیایی که هنوز نابرابری های جنسیتی و تبعیض نژادی بیداد می کند، تعصبات انسانی فراگیر و مخرب هستند. هوش مصنوعی که متکی به دخالت انسان است، نیز همواره این تبعیض ها و تعصبات را در خود دارد.
وقتی داده ها حرف اول را می زنند
خوشبختانه راه حل دیگری نیز وجود دارد که نیازی به برچسب گذاری های انسانی نداشته و تنها با داده های نسبتاً واقعی و بی طرف کار می کند. حذف برچسب های COVID و no-COVID در مثال فوق کار معقولانه ای است؛ چراکه به علت خطای انسانی ممکن است داده اشتباهی وارد مجموعه شود. از طرفی احتمال ناقص بودن داده ها نیز وجود دارد.
افرادی که از نظر اجتماعی و اقتصادی در جایگاه پایین تری هستند، دسترسی کمتری به منابع تشخیص دهنده دارند. این دسته از افراد ممکن است با وجود ابتلا به کووید، هیچگاه آزمایشی نداده باشند و این موضوع سبب تحریف و به اصطلاح مایل شدن مجموعه داده می شود.
بنابراین جهت رسیدن به نتایج قابل اعتماد تر باید برچسب ها را حذف کرد تا بلکه بدین ترتیب خیال بیمه گران و ارائه دهندگان واکسن نیز آسوده شود. یک مدل یادگیری ماشین بدون نظارت می تواند داده ها را بر حسب کد پستی یا شغل فرد خوشه بندی کرده و گروه های مختلفی را ایجاد نماید. این مدل می تواند به سادگی هر ورودی جدید را به یکی از این گروه ها اختصاص دهد.
سپس می توان داده های گروه بندی شده را با داده های معتبر دیگری همچون مرگ و میر های بیش از حد در یک منطقه جغرافیایی یا در یک حرفه مشخص تطبیق داد. به این ترتیب صرف نظر از میزان دسترسی افراد به مراکز آزمایشگاهی، می توان درباره احتمال ابتلای شخص به کووید اظهار نظر کرد.
البته این فرایند تماما ماشینی نیست و برخی مراحل کار را همچنان باید به صورت دستی انجام داد؛ زیرا تطبیق داده گروه بندی شده با داده های مربوط به مرگ و میر بیش از حد، باید توسط یک دانشمند داده انجام گیرد. با این حال نتایج برای بیمه گران و ارائه دهندگان واکسن بسیار قابل اعتماد تر از قبل خواهد بود.
استفاده از ماشین برای حذف تعصبات
علیرغم مزایایی که تا به اینجا به آن اشاره کردیم، شما همچنان باید اطلاعات مربوط به واکسن یا سیاست های بیمه را به دست انسان بسپارید. مثلا در رابطه با واکسیناسیون، ممکن است فرد مسئول تصمیم بگیرد که رنگین پوستان آخر از همه واکسن را دریافت کنند تا بلکه بدین ترتیب کمتر از سیستم بهداشتی استفاده شده و جلوی ازدحام در بیمارستان ها گرفته شود. لازم به ذکر نیست که این تصمیم در واقع یک سیاست ناعادلانه، آن هم بر اساس مفروضات نژادپرستانه است.
با واگذاری تصمیم گیری به ماشین، از تأثیر تبعیض افراد در تصمیم ها جلوگیری می کنیم. مفهوم یادگیری تقویتی نیز همین است. شما همان مجموعه داده های قبلی را آماده می کنید، اما این بار چون از برچسب گذاری های دستی و دخالت انسان خبری نیست، به نتایج قابل اعتمادتری می رسید. همچنین می توانید اطلاعات مربوط به سیاست های بیمه یا نحوه ی کار واکسن ها را نیز برای ماشین مشخص کنید. در انتها چند هدف کلیدی مانند عدم استفاده بیش از حد از منابع بیمارستانی و عدالت اجتماعی و غیره را اضافه می کنید.
در یادگیری تقویتی، ماشین بابت یافتن سیاست بیمه یا تاریخ واکسن مطابق با اهداف کلیدی، پاداش دریافت می کند. با آموزش روی مجموعه داده، ماشین قادر خواهد بود تا سیاست ها و تاریخ هایی را انتخاب کند که سبب بهینه سازی این اهداف می شوند. ضمنا این فرایند، دخالت انسان در وارد کردن داده ها یا تصمیم گیری را حذف می کند. با اینکه مدل هنوز کامل نیست و جای بسیاری برای پیشرفت دارد، اما می تواند سریع تر، آسان تر، عادلانه تر و عاری از هرگونه سوگیری و تعصبات انسانی، تصمیم گیری کند.
کاهش بیشتر تعصبات انسانی
هر دانشمند داده ای می داند که یک مدل یادگیری ماشین، خواه از نوع نظارت شده یا بدون نظارت باشد و خواه از نوع تقویتی، نمی تواند برای تمام مسائل مختلف به کار گرفته شود. به عنوان مثال، یک ارائه دهنده بیمه ممکن است تمایلی به دانستن وضعیت فرد مبتلا به کووید نداشته و تنها به سیاست های کاری اهمیت دهد. این موضوع سبب تغییر مسئله و عدم کارایی یادگیری تقویتی خواهد شد.
خوشبختانه چند روش معمول برای رسیدن به نتایج بی طرفانه وجود دارد که حتی در صورت محدودیت انتخاب مدل نیز می توانند به ما کمک کنند؛ روش هایی که اغلب ریشه در خود مجموعه داده دارند.
اول از همه، اگر فکر می کنید یک نقطه داده خاص، بی خود و بی جهت تحت تاثیر نابرابری های موجود قرار گرفته، بد نیست داده غیر قابل اعتماد را کورسازی کنید. به عنوان مثال، از آنجایی که می دانیم برچسب های COVID و no-COVID ممکن است بنا به دلایل متعددی دقیق نباشند، چشم پوشی از آن می تواند ما را به نتایج دقیق تری برساند.
البته روش فوق را نباید با تاکتیک کور سازی داده های حساس اشتباه گرفت. برای مثال، با کورسازی داده های مربوط به نژاد افراد، می تواند از تبعیض جلوگیری کرد. با این حال احتمال دارد که معایب این روش بیشتر از مزایای آن باشد؛ چراکه در این صورت ماشین می تواند به جای داده های مربوط به نژاد، نکاتی را درباره سیاست بیمه و کد پستی فرا بگیرد، حال آنکه کد پستی در بسیاری از مواقع ارتباط قوی با نژاد فرد دارد. در نتیجه یک پرستار لاتین از نیویورک و یک پرستار سفیدپوست از اوهایو علیرغم داده های یکسان، مشمول بیمه های غیر یکسانی می شوند و این ناعادلانه است.
جهت اطمینان از عدم وقوع این امر، می توان وزن هایی را به داده های مربوط به نژاد اضافه کرد. مدل یادگیری ماشین ممکن است سریع به این نتیجه برسد که مردم لاتین بیشتر به کووید مبتلا می شوند. لذا کمک های بیمه ای بیشتری را برای این قشر طلب می کند تا بلکه بدین ترتیب خطر ابتلا را کاهش دهد. بنابراین اگر وزن داده های مربوط به نژاد لاتین را کمی بالاتر از وزن داده های مربوط به سفیدپوستان تنظیم کنیم، تعادل برقرار می شود؛ به طوریکه هر دو پرستار لاتین و سفیدپوست تحت سیاست بیمه مشابهی قرار گیرند.
روش وزن دار کردن داده ها باید با دقت صورت گیرد؛ چراکه در صورت کوچک بودن گروه ها می تواند نتایج را به هم بزند. به عنوان مثال فرض کنید که تنها تعداد انگشت شماری از بومیان در مجموعه داده وجود دارند و از قضا همه آن ها راننده تاکسی هستند. حال مدل مذکور ممکن است تصمیماتی را درباره رانندگان تاکسی و بیمه درمانی مطلوب آن ها در سایر نقاط مجموعه داده اتخاذ کند. اگر وزن مربوط به نژاد بومیان آمریکا بیش از حد زیاد باشد، آنگاه یک بومی آمریکایی جدید نیز همان بیمه مربوط به رانندگان تاکسی را دریافت خواهد کرد؛ هر چند که در حرفه دیگری مشغول به فعالیت باشد.
حذف تبعیض های موجود در یک مدل ناکامل آن هم به صورت دستی، بسیار طاقت فرسا و نیازمند آزمایش های متعدد، عقل سلیم (یا قضاوت عقلانی، یا فهم متعارف) و پاکبینی انسانی است. همچنین این کار تنها یک راه حل موقت به حساب می آید. برای کارایی بلندمدت باید سعی کنیم تا تعصب و دخالت های انسان را از میان برداشته و بپذیریم که ماشین ها در صورت تعیین اهداف مناسب، بسیار بهتر و منصفانه تر از انسان ها عمل می کنند.
هوش مصنوعی انسان محور عالی است، اما فراموش نکنیم که انسان ها دارای نقص هستند
آموزش ویژگی های انسانی مانند حرکت کردن، حرف زدن و فکر کردن به هوش مصنوعی، هدف افتخارآمیزی است. اما نحوه تفکر و صحبت کردن انسان ها به خصوص هنگام رویایی با افراد محروم، اشتباه و زننده است. فیلتر کردن تمام تعصبات و نادانی انسان ها توسط گروهی از دانشمندان داده، امر دشوار و بزرگی خواهد بود؛ به ویژه اگر تنوع خاصی در اعضای گروه وجود نداشته باشد.
اما ماشین ها بر خلاف انسان در محیطی فارغ از اختلاف های نژادی و اقتصادی رشد کرده اند. به همین خاطر، داده های قابل دسترس را گرفته و کاری که باید را روی آن ها انجام می دهند. بدیهی است که در صورت ناقص بودن مجموعه داده یا دخالت بیش از حد انسان ناقص، خروجی نیز کامل و مطلوب نخواهد بود. با این حال به کمک مدل های بهتر می توان ایرادات موجود در مجموعه داده را به نوعی جبران کرد.
هوش مصنوعی امروزه بسیار پرقدرت عمل می کند اما هنوز تبعیضات انسانی را در خود دارد. هوش مصنوعی انسان محور با وجود نقص های متعدد هیچ گاه کنار گذاشته نمی شود؛ چراکه وظایف کسل کننده بسیاری وجود دارد که انسان ترجیح می دهد انجام آن ها را به هوش مصنوعی بسپارد. با این حال باید به خاطر داشته باشیم که گاهی با دخالت نکردن در کار ماشین ها می توانیم به نتایج بهتری دست پیدا کنیم.