چالش های مدیریت کلاس با ابزار جدید تشخیص چهره هوش مصنوعی

چالش های مدیریت کلاس با ابزار جدید تشخیص چهره هوش مصنوعی

یک ابزار جدید مدیریت کلاس هوش مصنوعی با قابلیت‌های تشخیص چهره اخیرا با وعده هایی همچون بررسی حضور در کلاس , ارزیابی حالات عاطفی دانش آموزان و نظارت بر کلاس‌ها به لحاظ حواس‌پرتی , بی‌حوصلگی و سردرگمی مورد توجه قرار گرفته‌ است .

اما این فناوری و پیشرفت‌های مشابه، سوالات زیادی را به لحاظ حقوقی، اخلاقی و آزادی‌های مدنی در ذهن مردم به وجود آورده است؛ این موضوع شبیه به برنامه‌های نظارتی دانشگاه است که به طور گسترده در طول همه‌گیری کووید ۱۹ به تصویب رسید و اجرا شد.

ابزار مدیریت کلاس درس با هوش مصنوعی حاصل کار تیمی در کالج گیلفورد به رهبری Chafic Bou-Saba، دانشیار فناوری محاسبات و سیستم‌های اطلاعاتی می باشد.

بر اساس مقالاتی که برنامه جدید خود را پوشش می دهد، بو صبا به طور کلی ابزار مدیریت کلاس درس را به عنوان یک موهبت برای مربیانی توصیف می کند که یا تمایل ندارند و یا قادر به مدیریت مستقیم دانش آموزان خود نیستند، در حالی که با این سیستم به طور همزمان تجربیات تحصیلی افراد کلاس خود را نیز بهبود می بخشد.

بو صبا در یک خبر که در وب سایت گیلفورد منتشر شد گفت: «وقتی در یک کلاس درس هستید، درک هر دانش آموز و درک حالات هر یک از آنها آسان نیست.

ما می‌خواهیم ببینیم آیا راهی برای ارتباط پاسخ‌های دانش‌آموزان (از روی چهره) با نحوه یادگیری آنها در کلاس وجود دارد یا خیر.

Bou-Saba می گوید: در کلاس‌های مجهز به این برنامه، این ابزار «در صورت نیاز، رفتار دانش‌آموزان را با فیلم‌برداری پنج تا ۱۰ ثانیه‌ای مستند و آنالیز می‌کند». از این طریق، مربیان می‌توانند با دانش‌آموزان گفتگو کنند یا آنها را به خاطر عدم توجه به تدریس یا تعامل با دانش‌آموزان دیگر در زمانی که معلم مشغول درس دادن است توبیخ کنند.

چاد مارلو، مشاور ارشد سیاستگذاری ACLU (اتحادیه آزادی‌های مدنی آمریکا) و نویسنده اصلی گزارش “صنعت نظارت ادتک” از جمله کسانی است که نگران این فناوری در حال ظهور است.

او می گوید ابزارهای مدیریت کلاس درس هوش مصنوعی با استفاده از تشخیص چهره می‌تواند برای افرادی که با دانش‌آموزان معمولی متفاوت هستند مشکل‌ساز باشد.

او در ادامه می گوید : «برای مثال، افراد دارای معلولیت یا افراد دارای مشکلات عصبی ممکن است متفاوت از دانش آموزان عادی رفتار کنند، اما طبیعتاً این بدان معنا نیست که آنها خسته، گیج یا پریشان هستند.

در واقع، یک دانش‌آموز مبتلا به اختلال کم‌توجهی-بیش‌فعالی احتمالاً گاهی اوقات حواسش پرت به نظر می‌رسد، زیرا ممکن است در حال بی قراری یا نگاه کردن به اطراف باشد، اما چنین نتیجه‌گیری اشتباه است که او حواسش به کلاس و تدریس معلم نیست!»

او گفت که تفاوت‌های فرهنگی همچنین می‌تواند چالش‌هایی را برای هوش مصنوعی ایجاد کند، زیرا «دانش‌آموزانی با پیشینه‌های فرهنگی متفاوت ممکن است بر اساس تفسیر نادرست هوش مصنوعی از رفتارها یا ظاهرشان، علامت‌گذاری شوند در حالیکه این نیز یک نکته چالشی برای ابزار جدید تشخیص چهره هوش مصنوعی به شمار می آید».

او همچنین اشاره کرد که برنامه های تشخیص چهره در شناسایی چهره افراد رنگین پوست، زنان و جوانان دقت کمتری دارند که می تواند بر ردیابی حضور و غیاب مبتنی بر هوش مصنوعی تأثیر منفی بگذارد.

علاوه بر این، مارلو این سوال را مطرح کرد که چنین برنامه هایی واقعاً چقدر خوب کار می کنند.

او گفت : «برای هر شخصی تشخیص احساس یک فرد بر اساس بیان و رفتارش بسیار دشوار است چه رسد به یک سیستم رایانه ای! برای مثال، برخی افراد ممکن است چهره‌ای داشته باشند که حتی زمانی که خوشحال نیستند نیز خوشحال به نظر برسند و برعکس فرد دیگری ممکن است ناراحت به نظر برسد درحالیکه واقعیت چیز دیگری است.

مارلو گفت که غیر مسئولانه است که بگوییم این برنامه ها، به ویژه آنهایی که برای تشخیص احساسات هستند، واقعاً کار می کنند.

Erik Learned-Miller، محقق بینایی کامپیوتر و استاد اطلاعات و علوم کامپیوتر در دانشگاه ماساچوست می گوید که او با برخی از نگرانی‌های مارلو شریک است و خاطرنشان کرد که بسیاری از احساسات ظاهری افراد «درجه بالایی از ابهام دارند».

او گفت که افراد مبتلا به مشکلات عصبی ممکن است توسط چنین ابزارهایی به اشتباه ارزیابی شوند، البته او مایل نیست که تمام استفاده‌های ابزارهای مدیریت کلاس را که بر هوش مصنوعی و تشخیص چهره متکی هستند، نادیده گرفته شود.

یک از سازندگان این ابزار می گوید : “اگر ابزار با این پیش فرض که ۱۰۰٪ قابل اعتماد است استفاده شود، قطعا ایجاد مشکل می کند.” با این حال، اگر از آن به عنوان راهی برای هشدار دادن به معلم در مورد «مشکل احتمالی» استفاده شود، می‌تواند مفید باشد.»

مارلو می گوید که برای دانشجویانی که مخالف استفاده از چنین فناوری‌هایی هستند، باید برای ارتقای آگاهی بیشتر در مورد کاستی‌ها و عدم کارایی اثبات‌شده برنامه‌ها و همچنین «تأثیر منفی نظارت بر تجربه دانشجویی‌شان» تلاش های مضاعفی صورت پذیرد.

او همچنین می گوید که چنین برنامه‌هایی نباید مورد استفاده قرار گیرند مگر اینکه آزمایش‌های مستقل، مبتنی بر داده و قابل تأیید نشان دهد که در شناسایی مشکلاتی که ادعا می‌شود برای رفع آنها ساخته شده‌اند بخوبی عمل می کنند. او افزود که آنها همچنین باید فقط در صورتی استفاده شوند که گزینه های بهتر و جایگزینی برای رسیدگی به مشکل وجود نداشته باشد.

همچنین ببینید

گوگل، جمینی نانو را برای تمام اپلیکیشن های اندرویدی باز می کند

گوگل، جمینی نانو را برای تمام اپلیکیشن های اندرویدی باز می کند

روز گذشته، گوگل خبر مهمی در رابطه با دسترس پذیری مدل هوش مصنوعی جمینی نانو …

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *