آمریکا پاسخ چین به اوپنایآی را در لیست سیاه قرار داد
واشنگتن شرکت Zhipu چین، مهمترین استارتآپ این کشور در حوزه توسعه مدلهای بزرگ زبانی، را…
۲۸ دی ۱۴۰۳
۶ خرداد ۱۴۰۲
زمان مطالعه : ۵ دقیقه
صنعت آموزش در ابتدای موج جدید هوش مصنوعی واکنش تندی به این ابزارها نشان داد به طوریکه در یک سری از مدارس آمریکا استفاده از چنین ابزارهایی به دلیل نگرانی از تقلب ممنوع شد. با این حال روند تغییر و توسعه ابزارهای هوش مصنوعی همچنان ادامه دارد و مدارس و دانشگاهها به جای جنگ بی ثمر با موج جدید تکنولوژی باید برای رفع چالشهای اصلی استفاده از این ابزارها در صنعت آموزش تمرکز کنند.
به گزارش پیوست، مدارس و دانشگاهها در ابتدا برای جلوگیری از تقلب آسان که با هوش مصنوعی ممکن شده بود بعضا به ممنوعیت این ابزار در کلاس درس روی آوردند. با این حال چنین رویکردی به ابزارهای تکنولوژی فاقد بازدارندگی لازم است و به نظر رویکرد دیگری مبنی بر استفاده از ابزارهای هوش مصنوعی برای کمک و بهبود صنعت آموزش منطقیتر است.
وزارت آموزش ایالات متحده گزارش جدیدی از هوش مصنوعی و تاثیر آن بر آینده آموزش و یادگیری منتشر کرده است. در این گزارش بلند بالا به سه چالش اصلی استفاده از این تکنولوژی در صنعت آموزش اشاره شده که در ادامه به بررسی آنها میپردازیم.
یکی از چالشهای اصلی استفاده معلمان و اساتید از بین رفتن تعادل بین انسان و تکنولوژی است.
از آنجایی که هوش مصنوعی جدید با یک دستور ساده میتواند بسیاری از کارها را انجام دهد، در مواردی معلم به طور کامل از فرایند حذف میشود. پروفسور اینه مولنار، از مولفان این گزارش میگوید در آموزش ترکیبی (ترکیب انسان و هوش مصنوع) باید به چند سوال پاسخ داد: چه زمانی معلم باید کنترل را به دست بگیرد؟ چه چیز را میتوان به سیستم رایانشی واگذار کرد؟ معلم چطور میتواند بر هوش مصنوعی نظارت کرده و تصمیمات آن را تغییر دهد و یا در صورت نیاز کنترل را به دست بگیرد؟
به گفته مولنار ایجاد یک تعادل کامل بین تکنولوژی و انسان در حوزه آموزش ممکن نیست. او با بررسی محصولات هوش مصنوعی چند گزینه را پیشنهاد کرده است:
از آنجایی که هنوز در مراحل اولیه و آشنایی با استفاده از هوش مصنوعی در صنعت آموزش هستیم به بررسی و بحث بیشتری درمورد نحوه استفاده از این تکنولوژی نیاز است اما نمیتوان چالشهای روشنی مثل خروج کامل انسان از چرخه آموزش یا عدم کنترل استاد بر روند ارائه اطلاعات را نادیده گرفت.
با اینکه تکنولوژی به انجام بهتر وظایف معلم و اساتید کمک میکند اما با خطراتی در حوزه نظارت و جاسوسی همراه است.
درست همانند استفاده از دستیارهای صوتی از جمله محصولات گوگل و آمازون، فواید این محصولات خطراتی را در زمینه نظارت و جاسوسی به دنبال دارد. با اینکه خیلی راحت و با یک دستور زبانی میتوانید موسیقی پخش کنید یا ایمیلی را ارسال کنید اما وجود دستیار صوتی شاید به صحبتهای خصوصی ما هم گوش دهد.
معلمها و اساتید هم با این مشکل روبر هستند. با اینکه هوش مصنوعی میتواند با گوش دادن به صحبتهای معلم و کلاس درس منابع یا راهکارهایی را برای آموزش بهتر ارائه کند اما همین دادهها ممکن است برای نظارت استفاده شود.
در چنین شرایطی عدم اعتماد کافی شما را فواید هوش مصنوعی بیبهره میسازد و اعتماد بیش از حد هم به نظارت شرکتها و نقض حریم خصوصی منتهی میشود.
بنابراین ابزارهای تکنولوژی از جمله هوش مصنوعی باید تا حد زیادی امنیت دادههای کاربران و به ویژه معلمان را تامین کنند و به قوانین جامعی در حوزه حریم خصوصی و محافظت از دادهها نیاز است.
با اینکه تضمین امنیت کامل دادهها غیرممکن است و شرکت ارائه دهنده در بیشتر موارد به دادههای کاربران دسترسی دارد اما با آموزش بهتر درمورد زمان و نحوه استفاده درست میتوان آسیب احتمالی را به حداقل رساند.
یکی از کاربردهای مهم هوش مصنوعی در بحث آموزش تشخیص نقاط قوت و نیازهای دانشآموزان است.
برای این کار علاوه به دادهها و اطلاعات زیادی نیاز است که بعضا شامل دادههای جمعیتی (نژاد، سن، جنسیت و …) و علایق آنها میشود. با اینکه الزامی بر ارائه این اطلاعات وجود ندارد اما دادههای کاملتر، نتایج بهتری را به دنبال دارند.
در چنین شرایطی علاوه بر مساله حفظ حریم خصوصی و تعیین ضوابطی برای زمان حذف و نحوه پردازش اطلاعات، با احتمال سوگیری ابزارهای هوش مصنوعی روبرو هستیم.
از آنجایی که مهندسان هوش مصنوعی را با اطلاعات موجود آموزش میدهند، احتمال سوگیری در این دادهها وجود دارد و چنین سوگیریهایی با سیاستهای آموزش در تناقض است و شاید برای تمام گروهها و جمعیتی گوناگون مناسب نباشد.
برای جلوگیری از آسیب هوش مصنوعی در روند آموزش و در جهت استفاده بهتر از این تکنولوژی باید به چند اصل مهم پایبند بود.
یک اینکه ابزارهای هوش مصنوعی در صنعت آموزش باید از شفافیت کافی برخوردار باشند. تنها نتیجه یک تحلیل کافی نیست و هوش مصنوعی باید روند رسیدن به نتیجه را برای معلم توضیح دهد.
برای مثال اگر یک تکلیف خاص برای دانشآموزی به عنوان بهترین گزینه در نظر گرفته شد، معلم باید بداند که هوش مصنوعی بر چه اساس و با چه سازوکاری به این نتیجه رسیده است.
افزون بر این به دلیل احتمال سوگیری مدلهای AI و حفظ اختیارات معلم، اساتید باید امکان مداخل و اصلاح تصمیمات ابزارهای هوش مصنوعی را داشته باشند. شفافیت پیشنیاز این مرحله است و در صورتی که معلم با استدلال هوش مصنوعی برای اتخاذ یک تصمیم موافق نباشد باید بتواند به روند تصمیمگیری ورود کرده و آن را اصلاح و یا به طور کامل تغییر دهد.