ابزارهای هوش مصنوعی برای کاربردهای مختلف از وسایل نقلیه خودران تا تفسیر تصاویر پزشکی نویدبخش هستند. با این حال، یک مطالعه جدید نشان میدهد که این ابزارهای هوش مصنوعی نسبت به حملات هدفمندی که به طور مؤثر سیستمهای هوش مصنوعی را مجبور به تصمیمگیری بد میکنند، از آنچه قبلاً تصور می شد آسیب پذیرتر هستند.
به این حالت به اصطلاح “حملات خصمانه” گفته می شود که در آن فرد داده های تغذیه شده به یک سیستم هوش مصنوعی را دستکاری می کند تا آن را گیج کند. به عنوان مثال، ممکن است کسی بداند که قرار دادن نوع خاصی از استیکر در یک نقطه خاص روی علامت توقف می تواند به طور موثر علامت توقف را برای یک سیستم هوش مصنوعی نامرئی کند.
یا یک هکر می تواند کدی را روی یک ماشین اشعه ایکس نصب کند که داده های تصویر را به گونه ای تغییر می دهد که باعث می شود یک سیستم هوش مصنوعی تشخیص های نادرست بدهد.
تیانفو وو، یکی از نویسندگان مقاله ای در مورد کار جدید و استادیار مهندسی برق و کامپیوتر در دانشگاه ایالتی کارولینای شمالی می گوید: ” در بیشتر مواقع، شما می توانید انواع و اقسام تغییرات را در یک علامت توقف ایجاد کنید و هوش مصنوعی که برای شناسایی علائم توقف آموزش دیده است، هنوز هم می داند که این یک علامت توقف است. با این حال، اگر هوش مصنوعی آسیبپذیری داشته باشد و مهاجم آن آسیبپذیری را بشناسد، مهاجم میتواند از این آسیبپذیری استفاده کرده و حادثهای ایجاد کند.
مطالعه جدید وو و همکارانش روی تعیین میزان رایج بودن این نوع آسیب پذیری های خصمانه در شبکه های عصبی عمیق هوش مصنوعی متمرکز بود. آن ها دریافتند که آسیب پذیری ها بسیار شایع تر از آن چیزی هستند که قبلا تصور می شد.
وو میگوید: «علاوه بر این، متوجه شدیم که مهاجمان میتوانند از این آسیبپذیریها استفاده کنند و هوش مصنوعی را وادار کنند که دادهها را به هر شکلی که میخواهند تفسیر کند. برای مثال با استفاده از علامت توقف، میتوانید سیستم هوش مصنوعی را به این فکر منحرف کنید که علامت توقف یک صندوق پستی، یا علامت محدودیت سرعت، یا چراغ سبز و غیره است، به سادگی با استفاده از برچسبهای کمی متفاوت – یا هر آسیبپذیری که باشد می توان هوش مصنوعی را دچار انحراف کرد.
“این فوق العاده مهم است ، زیرا اگر یک سیستم هوش مصنوعی در برابر این نوع حملات قوی نباشد ، شما مایل نخواهید بود این سیستم را به کاربرد عملی برسانید به ویژه برای کاربردهایی که می تواند بر زندگی انسان تأثیر بگذارد.”
محققان برای آزمایش آسیب پذیری شبکه های عصبی عمیق در برابر این حملات خصمانه، بخشی از نرم افزار به نام QuadAttacK را توسعه دادند. این نرم افزار می تواند برای آزمایش هر شبکه عصبی عمیق برای آسیب پذیری های خصمانه استفاده شود.
اساساً، اگر یک سیستم هوش مصنوعی آموزشدیده دارید و آن را با دادههای تمیز آزمایش میکنید، سیستم هوش مصنوعی طبق پیشبینیشده رفتار میکند. QuadAttacK این عملیات را تماشا میکند و میآموزد که چگونه هوش مصنوعی در رابطه با دادهها تصمیم میگیرد. این به QuadAttacK اجازه میدهد تا تعیین کند که چگونه داده ها را می توان برای فریب دادن هوش مصنوعی دستکاری کرد. سپس QuadAttacK شروع به ارسال داده های دستکاری شده به سیستم هوش مصنوعی می کند تا ببیند هوش مصنوعی چگونه پاسخ می دهد. اگر QuadAttacK آسیب پذیری را شناسایی کرده باشد، می تواند به سرعت هوش مصنوعی را وادار کند که هر آنچه را که QuadAttacK می خواهد ببیند.”
در آزمایش اثبات مفهوم، محققان از QuadAttacK برای آزمایش چهار شبکه عصبی عمیق استفاده کردند: دو شبکه عصبی کانولوشن (ResNet-50 و DenseNet-121) و دو ترانسفورماتور بینایی (ViT-B و DEiT-S). این چهار شبکه به این دلیل انتخاب شدند که در سیستم های هوش مصنوعی در سراسر جهان استفاده گسترده ای دارند.
وو میگوید: «ما شگفتزده شدیم که متوجه شدیم هر چهار شبکه در برابر حملات خصمانه بسیار آسیبپذیر هستند. ما بهویژه از میزانی که میتوانیم حملات را تنظیم کنیم تا شبکهها آنچه را که ما میخواستیم ببینند، تعجب کردیم.»
تیم تحقیقاتی، QuadAttacK را در دسترس عموم قرار داده است تا جامعه تحقیقاتی بتوانند خودشان از آن برای آزمایش شبکه های عصبی برای آسیب پذیری استفاده کنند. این برنامه را می توانید در اینجا پیدا کنید:
https://thomaspaniagua.github.io/quadattack_web
وو میگوید: «اکنون که میتوانیم این آسیبپذیریها را بهتر شناسایی کنیم، قدم بعدی یافتن راه حلهایی برای به حداقل رساندن این آسیبپذیریها است. ما در حال حاضر راهحلهای بالقوهای داریم اما برای ارائه نتایج نهایی آن هنوز به زمان نیاز داریم.»
منبع : ScienceDaily