رشد بزرگی در فهم نحوه مدیریت توالی‌های طولانی داده‌ها توسط الگوریتم‌های یادگیری ماشینی را شاهد هستیم. پیشگامان علم در دانشگاه MIT یک مدل هوش مصنوعی جدید را با الهام از نوسانات عصبی مغز تولید کرده‌اند. هدف این مدل، پیشرفت در جهت درک بهتر الگوهای متوالی در داده‌ها است.

یکی از چالش‌های اصلی در استفاده از هوش مصنوعی در تحلیل داده‌های پیچیده، مدیریت ناپایداری توالی‌های طولانی است. مدل‌های فضای حالت حال حاضر اغلب به علل مختلفی مانند ناپایداری یا نیاز به منابع محاسباتی زیاد دچار مشكل هستند. اما تیم های سازنده مدل LinOSS یک راه حل نوین به وجود آوردند که از اصول نوسان‌گرهای هارمونیک و مشاهده شده در شبکه‌های عصبی بیولوژیکی الهام گرفته است.

این تیم تحقیقاتی که توسط کنستانتین راش و دانیلا راس در دانشگاه MIT هدایت می‌شود، اساساً به این نکته توجه داشته است که چگونه می‌توان پایداری و کارایی مدل را تضمین کرد. به فیزیک و اصول تعیین شده در مغز نیاز بوده است تا بتوان الگوهای دوربرد را در حین یادگیری پیش‌بینی کرد. LinOSS، با الهام از این اصول، توانسته به پیش‌بینی پایدار و کارآمد برسد. این کار بدون محدودیت‌های زیاد بر پارامترهای مدل صورت گرفته است.

هیچ الگوریتم مفیدی تا به حال به نحو قابل توجهی قادر به پیش‌بینی پایدار نیست. LinOSS، با استفاده از مدل خطی نوسانی، در پیش‌بینی توالی‌های طولانی و پیچیده حائز موفقیت شده است. پیش‌بینی‌ها بر اساس تجربیات حاکی از توانایی رده‌بندی و پیش‌بینی درست‌تر، به ویژه در مورد توالی‌های طولانی، حکایت دارد.

اگرچه LINOSS تکنیک کمکی در پیش بینی توالی‌های طولانی و پیچیده دارد، اما ضعف یا نقص آن نیست. پیچیدگی بررسی و برخی خطاها، عواملی هستند که هنوز سر لوای این جدیدترین تکنیک روندها و پیش بین‌ها هستند.

توسط mohtavaclick.ir