یک ابزار جدید مدیریت کلاس هوش مصنوعی با قابلیتهای تشخیص چهره اخیرا با وعده هایی همچون بررسی حضور در کلاس , ارزیابی حالات عاطفی دانش آموزان و نظارت بر کلاسها به لحاظ حواسپرتی , بیحوصلگی و سردرگمی مورد توجه قرار گرفته است .
اما این فناوری و پیشرفتهای مشابه، سوالات زیادی را به لحاظ حقوقی، اخلاقی و آزادیهای مدنی در ذهن مردم به وجود آورده است؛ این موضوع شبیه به برنامههای نظارتی دانشگاه است که به طور گسترده در طول همهگیری کووید ۱۹ به تصویب رسید و اجرا شد.
ابزار مدیریت کلاس درس با هوش مصنوعی حاصل کار تیمی در کالج گیلفورد به رهبری Chafic Bou-Saba، دانشیار فناوری محاسبات و سیستمهای اطلاعاتی می باشد.
بر اساس مقالاتی که برنامه جدید خود را پوشش می دهد، بو صبا به طور کلی ابزار مدیریت کلاس درس را به عنوان یک موهبت برای مربیانی توصیف می کند که یا تمایل ندارند و یا قادر به مدیریت مستقیم دانش آموزان خود نیستند، در حالی که با این سیستم به طور همزمان تجربیات تحصیلی افراد کلاس خود را نیز بهبود می بخشد.
بو صبا در یک خبر که در وب سایت گیلفورد منتشر شد گفت: «وقتی در یک کلاس درس هستید، درک هر دانش آموز و درک حالات هر یک از آنها آسان نیست.
ما میخواهیم ببینیم آیا راهی برای ارتباط پاسخهای دانشآموزان (از روی چهره) با نحوه یادگیری آنها در کلاس وجود دارد یا خیر.
Bou-Saba می گوید: در کلاسهای مجهز به این برنامه، این ابزار «در صورت نیاز، رفتار دانشآموزان را با فیلمبرداری پنج تا ۱۰ ثانیهای مستند و آنالیز میکند». از این طریق، مربیان میتوانند با دانشآموزان گفتگو کنند یا آنها را به خاطر عدم توجه به تدریس یا تعامل با دانشآموزان دیگر در زمانی که معلم مشغول درس دادن است توبیخ کنند.
چاد مارلو، مشاور ارشد سیاستگذاری ACLU (اتحادیه آزادیهای مدنی آمریکا) و نویسنده اصلی گزارش “صنعت نظارت ادتک” از جمله کسانی است که نگران این فناوری در حال ظهور است.
او می گوید ابزارهای مدیریت کلاس درس هوش مصنوعی با استفاده از تشخیص چهره میتواند برای افرادی که با دانشآموزان معمولی متفاوت هستند مشکلساز باشد.
او در ادامه می گوید : «برای مثال، افراد دارای معلولیت یا افراد دارای مشکلات عصبی ممکن است متفاوت از دانش آموزان عادی رفتار کنند، اما طبیعتاً این بدان معنا نیست که آنها خسته، گیج یا پریشان هستند.
در واقع، یک دانشآموز مبتلا به اختلال کمتوجهی-بیشفعالی احتمالاً گاهی اوقات حواسش پرت به نظر میرسد، زیرا ممکن است در حال بی قراری یا نگاه کردن به اطراف باشد، اما چنین نتیجهگیری اشتباه است که او حواسش به کلاس و تدریس معلم نیست!»
او گفت که تفاوتهای فرهنگی همچنین میتواند چالشهایی را برای هوش مصنوعی ایجاد کند، زیرا «دانشآموزانی با پیشینههای فرهنگی متفاوت ممکن است بر اساس تفسیر نادرست هوش مصنوعی از رفتارها یا ظاهرشان، علامتگذاری شوند در حالیکه این نیز یک نکته چالشی برای ابزار جدید تشخیص چهره هوش مصنوعی به شمار می آید».
او همچنین اشاره کرد که برنامه های تشخیص چهره در شناسایی چهره افراد رنگین پوست، زنان و جوانان دقت کمتری دارند که می تواند بر ردیابی حضور و غیاب مبتنی بر هوش مصنوعی تأثیر منفی بگذارد.
علاوه بر این، مارلو این سوال را مطرح کرد که چنین برنامه هایی واقعاً چقدر خوب کار می کنند.
او گفت : «برای هر شخصی تشخیص احساس یک فرد بر اساس بیان و رفتارش بسیار دشوار است چه رسد به یک سیستم رایانه ای! برای مثال، برخی افراد ممکن است چهرهای داشته باشند که حتی زمانی که خوشحال نیستند نیز خوشحال به نظر برسند و برعکس فرد دیگری ممکن است ناراحت به نظر برسد درحالیکه واقعیت چیز دیگری است.
مارلو گفت که غیر مسئولانه است که بگوییم این برنامه ها، به ویژه آنهایی که برای تشخیص احساسات هستند، واقعاً کار می کنند.
Erik Learned-Miller، محقق بینایی کامپیوتر و استاد اطلاعات و علوم کامپیوتر در دانشگاه ماساچوست می گوید که او با برخی از نگرانیهای مارلو شریک است و خاطرنشان کرد که بسیاری از احساسات ظاهری افراد «درجه بالایی از ابهام دارند».
او گفت که افراد مبتلا به مشکلات عصبی ممکن است توسط چنین ابزارهایی به اشتباه ارزیابی شوند، البته او مایل نیست که تمام استفادههای ابزارهای مدیریت کلاس را که بر هوش مصنوعی و تشخیص چهره متکی هستند، نادیده گرفته شود.
یک از سازندگان این ابزار می گوید : “اگر ابزار با این پیش فرض که ۱۰۰٪ قابل اعتماد است استفاده شود، قطعا ایجاد مشکل می کند.” با این حال، اگر از آن به عنوان راهی برای هشدار دادن به معلم در مورد «مشکل احتمالی» استفاده شود، میتواند مفید باشد.»
مارلو می گوید که برای دانشجویانی که مخالف استفاده از چنین فناوریهایی هستند، باید برای ارتقای آگاهی بیشتر در مورد کاستیها و عدم کارایی اثباتشده برنامهها و همچنین «تأثیر منفی نظارت بر تجربه دانشجوییشان» تلاش های مضاعفی صورت پذیرد.
او همچنین می گوید که چنین برنامههایی نباید مورد استفاده قرار گیرند مگر اینکه آزمایشهای مستقل، مبتنی بر داده و قابل تأیید نشان دهد که در شناسایی مشکلاتی که ادعا میشود برای رفع آنها ساخته شدهاند بخوبی عمل می کنند. او افزود که آنها همچنین باید فقط در صورتی استفاده شوند که گزینه های بهتر و جایگزینی برای رسیدگی به مشکل وجود نداشته باشد.