آنا گزارش می‌دهد؛

هوش مصنوعی یا معلم خصوصی؛ به کدام اعتماد کنیم؟

ورود هوش مصنوعی به حوزه آموزش اتفاق تازه‌ای نیست. از زمان مطرح شدن ایدۀ ماشین تدریس نزدیک به یک قرن می‌گذرد و حالا هوش مصنوعی در حال احیای این طرح قدیمی است.

خبرگزاری علم و فناوری آنا؛ دولت نیوزلند به تازگی تصمیم گرفته است هوش مصنوعی را به کلاس‌های درس بیاورد، اما از آنجا که این فناوری به سرعت در حال تغییر است، مشخص نیست که چگونه به معلم‌ها و دانش‌آموزان خدمت خواهد کرد.

چشم‌انداز وزیر علوم نیوزلند، جودیت کالینز (Judith Collins) این است که هر دانش آموز، معلم هوش مصنوعی خودش را داشته باشد. او در مصاحبه اخیر خود توضیح داد: «دیگر نیازی نیست هزینه زیادی برای استخدام معلم خصوصی بپردازید، می‌توانید از هوش مصنوعی به عنوان معلم کمکی استفاده کنید.»

اما همانند خودِ هوش مصنوعی، مفهوم معلم هوش مصنوعی نیز هنوز در حال تکامل است. ایده ساخت «ماشین تدریس» به حدود ۱۰۰ سال پیش برمی‌گردد و «سیستم‌های آموزشی هوشمند» از دهه ۱۹۸۰ با دستاورد‌های محدود وجود داشته‌اند.

پیشرفت‌های اخیر هوش مصنوعی، امید به تحقق وعده‌های این سیستم‌ها را دوباره زنده کرده است. ماجرا این است که فناوری تکامل یافته، اما مفهوم اصلی ماشینی که برخی از مسئولیت‌های معلم را بر عهده می‌گیرد یکسان باقی مانده است.

وقتی صحبت از معلمان هوش مصنوعی به میان می‌آید، سیاست‌گذاران باید بپرسند که محافظان این داده‌ها چه کسانی هستند؟ چه کسانی قرار است از این داده‌ها استفاده کنند؟ و چه کسی حق دسترسی به آنها را دارد؟

ریسک جایگزینی معلم‌ها با هوش مصنوعی

معلم هوش مصنوعی می‌تواند نماینده یا جانشین معلم انسانی باشد، به یادگیری دانش‌آموز کمک کند و به اصطلاح «داربست» آموزشی را برای او بنا کند. «داربست» فضایی است بین کار‌هایی که یک یادگیرنده می‌تواند بدون کمک انجام دهد و آنچه که بعداً می‌تواند با حمایت آموزگار یاد بگیرد.

در تئوری، یک معلم هوش مصنوعی می‌تواند این نقش را بازی کند. اما خطرات ذاتی هم وجود دارند. اگر معلم شما در واقع داناتر نباشد چه؟ یا فقط بلد باشد به ظاهر یک چیز‌هایی سر هم کند، چه؟ یا مثلاً اگر سوگیری داشته باشد؟ یا اگر موارد کم اهمیت و سطحی را بر منابع موثق ترجیح دهد؟

این موضوع نگرانی‌هایی را در مورد عدالت ایجاد کرده است. از آنجایی که ابزار‌های هوش مصنوعی مقادیر زیادی از داده‌های فیلتر نشده را مصرف می‌کنند، خطر این است که سوگیری‌های موجود در این داده‌ها دامن بزنند و کلیشه‌های جنسیتی و سایر نتایج منفی را تداوم ببخشند.

بهره‌کشی از مردمان و فرهنگ بومی

به عنوان نمونه، برای مردمی از فرهنگ‌های بومی مانند اهالی قبیله مائوری، که در سده دهم میلادی از جزایر گرمسیر و استوایی اقیانوس آرام به جزایر معتدل نیوزیلند کوچ کردند و تمدن مائوری را بنا نهادند، هوش مصنوعی می‌تواند هم تهدید باشد و هم فرصت.

اگر سیستم‌های هوش مصنوعی بر اساس داده‌های مغرضانه یا بدون در نظر گرفتن دیدگاه‌های مختلف آموزش ببینند، به احتمال زیاد تصمیم‌گیری‌های مبتنی بر این سیستم‌ها باعث برتری یک گروه بر گروه‌های دیگر، تقویت کلیشه‌ها و نادیده گرفتن یا کم‌ارزش‌کردن روش‌های مختلف زندگی و تفکر می‌شود.

این نگرانی فقط به تأثیر هوش مصنوعی بر زندگی ما محدود نمی‌شود، بلکه چگونگی مصرف و پردازش داده‌ها توسط هوش مصنوعی نیز اهمیت دارد. سیستم‌های هوش مصنوعی بر اساس حجم وسیعی از داده‌ها آموزش می‌بینند، اغلب بدون اینکه منابع را راستی‌آزمایی کنند یا حقِ نسخه‌برداری (کپی‌راست) سازندگان را رعایت کرده باشند.

چنین مسئله‌ای می‌تواند حقوق حاکمیت داده را در زندگی مردم بومی نقض کند و از میراث فرهنگی و دانش آنها سوء استفاده کند. این نوع از بهره‌کشی می‌تواند نابرابری را تداوم بخشد و حقوق و مشارکت جوامع بومی را تضعیف کند.

وقتی صحبت از معلمان هوش مصنوعی به میان می‌آید، سیاست‌گذاران باید بپرسند که محافظان این داده‌ها چه کسانی هستند؟ چه کسانی قرار است از این داده‌ها استفاده کنند؟ و چه کسی حق دسترسی به آن‌ها را دارد؟

معلم هوش مصنوعی می‌تواند نماینده یا جانشین معلم انسانی باشد، به یادگیری دانش‌آموز کمک کند و به اصطلاح «داربست» آموزشی را برای او بنا کند

رویکرد بسته و محدود

راه حلی که معمولاً برای این مشکل پیشنهاد می‌شود، آموزش سیستم‌های هوش مصنوعی بر روی داده‌هایِ به‌دقت تنظیم‌شده است. به عنوان مثال، انتشارات آموزشی پیرسون (Pearson) در انگلیس، به تازگی هوش مصنوعی را در ۵۰ کتاب درسی خود ادغام کرده است. این به دانش آموزان اجازه می‌دهد تا برای تعامل با متون درسی از چت‌بات‌های هوش مصنوعی استفاده کنند.

به گفته پیرسون، این ابزار‌ها با استفاده از رویکرد «اطلاعات بسته و محدود» توسعه یافته‌اند. هوش مصنوعی فقط بر اساس مطالب این کتاب‌ها آموزش دیده است. پیرسون ادعا می‌کند که این روش ریسک بی‌دقتی و خطا را کاهش می‌دهد.

با این حال، رویکرد استفاده از اطلاعات بسته و محدود نیز دارای اشکالات عمده‌ای است، زیرا محتوا را به موارد انتخاب‌شده و مورد تأیید تأمین‌کننده محدود می‌کند. این کار برای دانش فرهنگی و حقوق فرهنگی چه معنایی دارد؟ دیدگاه‌های انتقادی؟ نوآوری در یادگیری؟
پیرسون به خاطر محتوای برخی از کتاب‌هایش مورد انتقاد قرار گرفته است. این شرکت در سال ۲۰۱۷ به دلیل یک محتوای یکی از کتاب‌های درسی پزشکی که «نژادپرستانه» تلقی می‌شد عذرخواهی کرد.

حال اگر قرار باشد بر اساس داده‌های محلی در نیوزلند، یک معلم خصوصی هوش مصنوعی ساخته شود چگونه می‌توان مطمئن شد که این مربی آداب و رسوم قبیله مائوری که به آن تیکانگا (Tikanga) می‌گویند را یاد گرفته است؟ محققان این فرهنگ بومی تأکید دارند که ملاحظات اخلاقی مهمی در حوزه دانش مائوری وجود دارد.

حفاظت از دانش

وقتی صحبت از معلمان هوش مصنوعی به میان می‌آید، سیاست‌گذاران باید بپرسند که محافظان این داده‌ها چه کسانی هستند؟ چه کسانی قرار است از این داده‌ها استفاده کنند؟ و چه کسی حق دسترسی به آنها را دارد؟

اگر این محافظت به خوبی انجام شود، استفاده از رویکرد «اطلاعات بسته و محدود» ممکن است یک مسیر جامع، فراگیر و پایدار فرهنگی برای یادگیری بهتر ارائه دهد. با این حال، با توجه به چالش‌های چنین تعهدی، فارغ از هزینه‌ها، شانس موفقیت در عمل بسیار کم است.

در همین حال، ما نمی‌توانیم فقط منتظر معلمان هوش مصنوعی باشیم. هوش مصنوعی در مدارس یک واقعیت است که آمده تا بماند و ما باید دانش آموزان را برای آنچه در حال حاضر و آینده با آن روبه‌رو می‌شوند آماده کنیم. ابزار‌های خاص مهم هستند، اما تمرکز ما باید بر توسعه سواد هوش مصنوعی در همۀ بخش‌های آموزشی باشد.

به همین دلیل است که محققان می‌خواهند مفهوم سواد هوش مصنوعی را توسعه دهند و این که می‌خواهند ببینند چگونه می‌توان ارزیابی انتقادی و استفاده اخلاقی از هوش مصنوعی را تقویت کرد. پس از این مراحل می‌توان از هوش مصنوعی به عنوان مکمل و در مواردی جایگزین نیروی انسانی استفاده کرد.
توسعه سواد هوش مصنوعی با چارچوب‌های مناسب باید یک اولویت باشد و همه دانش‌آموزان در هر مقطعی باید آن را یاد بگیرند. تنها از این راه است که می‌توانیم ضمن حفظ ارزش‌های اصلی آموزش از مزایای هوش مصنوعی بهره بگیریم.

این گزارش از پایگاه اینترنتی کانورسیشن به فارسی برگردان شده است.

source

توسط mohtavaclick.ir