آنا گزارش میدهد؛
ورود هوش مصنوعی به حوزه آموزش اتفاق تازهای نیست. از زمان مطرح شدن ایدۀ ماشین تدریس نزدیک به یک قرن میگذرد و حالا هوش مصنوعی در حال احیای این طرح قدیمی است.
خبرگزاری علم و فناوری آنا؛ دولت نیوزلند به تازگی تصمیم گرفته است هوش مصنوعی را به کلاسهای درس بیاورد، اما از آنجا که این فناوری به سرعت در حال تغییر است، مشخص نیست که چگونه به معلمها و دانشآموزان خدمت خواهد کرد.
چشمانداز وزیر علوم نیوزلند، جودیت کالینز (Judith Collins) این است که هر دانش آموز، معلم هوش مصنوعی خودش را داشته باشد. او در مصاحبه اخیر خود توضیح داد: «دیگر نیازی نیست هزینه زیادی برای استخدام معلم خصوصی بپردازید، میتوانید از هوش مصنوعی به عنوان معلم کمکی استفاده کنید.»
اما همانند خودِ هوش مصنوعی، مفهوم معلم هوش مصنوعی نیز هنوز در حال تکامل است. ایده ساخت «ماشین تدریس» به حدود ۱۰۰ سال پیش برمیگردد و «سیستمهای آموزشی هوشمند» از دهه ۱۹۸۰ با دستاوردهای محدود وجود داشتهاند.
پیشرفتهای اخیر هوش مصنوعی، امید به تحقق وعدههای این سیستمها را دوباره زنده کرده است. ماجرا این است که فناوری تکامل یافته، اما مفهوم اصلی ماشینی که برخی از مسئولیتهای معلم را بر عهده میگیرد یکسان باقی مانده است.
وقتی صحبت از معلمان هوش مصنوعی به میان میآید، سیاستگذاران باید بپرسند که محافظان این دادهها چه کسانی هستند؟ چه کسانی قرار است از این دادهها استفاده کنند؟ و چه کسی حق دسترسی به آنها را دارد؟
ریسک جایگزینی معلمها با هوش مصنوعی
معلم هوش مصنوعی میتواند نماینده یا جانشین معلم انسانی باشد، به یادگیری دانشآموز کمک کند و به اصطلاح «داربست» آموزشی را برای او بنا کند. «داربست» فضایی است بین کارهایی که یک یادگیرنده میتواند بدون کمک انجام دهد و آنچه که بعداً میتواند با حمایت آموزگار یاد بگیرد.
در تئوری، یک معلم هوش مصنوعی میتواند این نقش را بازی کند. اما خطرات ذاتی هم وجود دارند. اگر معلم شما در واقع داناتر نباشد چه؟ یا فقط بلد باشد به ظاهر یک چیزهایی سر هم کند، چه؟ یا مثلاً اگر سوگیری داشته باشد؟ یا اگر موارد کم اهمیت و سطحی را بر منابع موثق ترجیح دهد؟
این موضوع نگرانیهایی را در مورد عدالت ایجاد کرده است. از آنجایی که ابزارهای هوش مصنوعی مقادیر زیادی از دادههای فیلتر نشده را مصرف میکنند، خطر این است که سوگیریهای موجود در این دادهها دامن بزنند و کلیشههای جنسیتی و سایر نتایج منفی را تداوم ببخشند.
بهرهکشی از مردمان و فرهنگ بومی
به عنوان نمونه، برای مردمی از فرهنگهای بومی مانند اهالی قبیله مائوری، که در سده دهم میلادی از جزایر گرمسیر و استوایی اقیانوس آرام به جزایر معتدل نیوزیلند کوچ کردند و تمدن مائوری را بنا نهادند، هوش مصنوعی میتواند هم تهدید باشد و هم فرصت.
اگر سیستمهای هوش مصنوعی بر اساس دادههای مغرضانه یا بدون در نظر گرفتن دیدگاههای مختلف آموزش ببینند، به احتمال زیاد تصمیمگیریهای مبتنی بر این سیستمها باعث برتری یک گروه بر گروههای دیگر، تقویت کلیشهها و نادیده گرفتن یا کمارزشکردن روشهای مختلف زندگی و تفکر میشود.
این نگرانی فقط به تأثیر هوش مصنوعی بر زندگی ما محدود نمیشود، بلکه چگونگی مصرف و پردازش دادهها توسط هوش مصنوعی نیز اهمیت دارد. سیستمهای هوش مصنوعی بر اساس حجم وسیعی از دادهها آموزش میبینند، اغلب بدون اینکه منابع را راستیآزمایی کنند یا حقِ نسخهبرداری (کپیراست) سازندگان را رعایت کرده باشند.
چنین مسئلهای میتواند حقوق حاکمیت داده را در زندگی مردم بومی نقض کند و از میراث فرهنگی و دانش آنها سوء استفاده کند. این نوع از بهرهکشی میتواند نابرابری را تداوم بخشد و حقوق و مشارکت جوامع بومی را تضعیف کند.
وقتی صحبت از معلمان هوش مصنوعی به میان میآید، سیاستگذاران باید بپرسند که محافظان این دادهها چه کسانی هستند؟ چه کسانی قرار است از این دادهها استفاده کنند؟ و چه کسی حق دسترسی به آنها را دارد؟
معلم هوش مصنوعی میتواند نماینده یا جانشین معلم انسانی باشد، به یادگیری دانشآموز کمک کند و به اصطلاح «داربست» آموزشی را برای او بنا کند
رویکرد بسته و محدود
راه حلی که معمولاً برای این مشکل پیشنهاد میشود، آموزش سیستمهای هوش مصنوعی بر روی دادههایِ بهدقت تنظیمشده است. به عنوان مثال، انتشارات آموزشی پیرسون (Pearson) در انگلیس، به تازگی هوش مصنوعی را در ۵۰ کتاب درسی خود ادغام کرده است. این به دانش آموزان اجازه میدهد تا برای تعامل با متون درسی از چتباتهای هوش مصنوعی استفاده کنند.
به گفته پیرسون، این ابزارها با استفاده از رویکرد «اطلاعات بسته و محدود» توسعه یافتهاند. هوش مصنوعی فقط بر اساس مطالب این کتابها آموزش دیده است. پیرسون ادعا میکند که این روش ریسک بیدقتی و خطا را کاهش میدهد.
با این حال، رویکرد استفاده از اطلاعات بسته و محدود نیز دارای اشکالات عمدهای است، زیرا محتوا را به موارد انتخابشده و مورد تأیید تأمینکننده محدود میکند. این کار برای دانش فرهنگی و حقوق فرهنگی چه معنایی دارد؟ دیدگاههای انتقادی؟ نوآوری در یادگیری؟
پیرسون به خاطر محتوای برخی از کتابهایش مورد انتقاد قرار گرفته است. این شرکت در سال ۲۰۱۷ به دلیل یک محتوای یکی از کتابهای درسی پزشکی که «نژادپرستانه» تلقی میشد عذرخواهی کرد.
حال اگر قرار باشد بر اساس دادههای محلی در نیوزلند، یک معلم خصوصی هوش مصنوعی ساخته شود چگونه میتوان مطمئن شد که این مربی آداب و رسوم قبیله مائوری که به آن تیکانگا (Tikanga) میگویند را یاد گرفته است؟ محققان این فرهنگ بومی تأکید دارند که ملاحظات اخلاقی مهمی در حوزه دانش مائوری وجود دارد.
حفاظت از دانش
وقتی صحبت از معلمان هوش مصنوعی به میان میآید، سیاستگذاران باید بپرسند که محافظان این دادهها چه کسانی هستند؟ چه کسانی قرار است از این دادهها استفاده کنند؟ و چه کسی حق دسترسی به آنها را دارد؟
اگر این محافظت به خوبی انجام شود، استفاده از رویکرد «اطلاعات بسته و محدود» ممکن است یک مسیر جامع، فراگیر و پایدار فرهنگی برای یادگیری بهتر ارائه دهد. با این حال، با توجه به چالشهای چنین تعهدی، فارغ از هزینهها، شانس موفقیت در عمل بسیار کم است.
در همین حال، ما نمیتوانیم فقط منتظر معلمان هوش مصنوعی باشیم. هوش مصنوعی در مدارس یک واقعیت است که آمده تا بماند و ما باید دانش آموزان را برای آنچه در حال حاضر و آینده با آن روبهرو میشوند آماده کنیم. ابزارهای خاص مهم هستند، اما تمرکز ما باید بر توسعه سواد هوش مصنوعی در همۀ بخشهای آموزشی باشد.
به همین دلیل است که محققان میخواهند مفهوم سواد هوش مصنوعی را توسعه دهند و این که میخواهند ببینند چگونه میتوان ارزیابی انتقادی و استفاده اخلاقی از هوش مصنوعی را تقویت کرد. پس از این مراحل میتوان از هوش مصنوعی به عنوان مکمل و در مواردی جایگزین نیروی انسانی استفاده کرد.
توسعه سواد هوش مصنوعی با چارچوبهای مناسب باید یک اولویت باشد و همه دانشآموزان در هر مقطعی باید آن را یاد بگیرند. تنها از این راه است که میتوانیم ضمن حفظ ارزشهای اصلی آموزش از مزایای هوش مصنوعی بهره بگیریم.
این گزارش از پایگاه اینترنتی کانورسیشن به فارسی برگردان شده است.
source