اخبار علمی

mne.Annotations

حاشیه‌نویسی سیگنال پیوسته با استفاده از پکیج MNE پایتون

با استفاده از پکیج MNE پایتون می‌توانیم سیگنال پیوسته را نشانه‌گذاری یا به اصطلاح حاشیه‌نویسی کنیم و همچنین از این حاشیه‌نویسی‌ها در مراحل بعدی پردازش استفاده کنیم. در این مقاله، روند انجام آن را توضیح می‌دهیم.
7-Generative Adversarial Netwrok

مقدمه‌ای بر Generative Adversarial Networks (GANs) یا شبکه‌های مولد تخاصمی

شبکه‌های GAN حوزه‌ای مهیج و به سرعت در حال تغییر هستند که نوید مدل‌های مولد با قابلیت بالا را می‌دهند. برای مثال می‌توانند نمونه‌های واقعی در طیف وسیعی از مسائل تولید کنند، مانند تبدیل تصاویر تابستان به زمستان، تبدیل تصاویر…
تابع هزینه cross entropy و تفاوت آن با مربعات خطا

تابع هزینه cross entropy و تفاوت آن با مربعات خطا

تابع هزینه یک تابع ریاضیاتی است که عملکرد یک شبکه عصبی را در انجام یک تسک خاص اندازه گیری می‌کند. توابع هزینه نقش اساسی در یادگیری شبکه های عصبی دارند و به شبکه های عصبی کمک می‌کنند در راستای هدف…
EEG .gdf file format

خواندن و پردازش داده ی EEG فرمت .gdf با استفاده از پکیج MNE-Python

فرمت داده‌ی General Data Format (GDF) برای سیگنال‌های پزشکی یک فرمت فایل داده‌ی پزشکی و علمی است. هدف GDF ترکیب و ادغام بهترین ویژگی‌های همه‌ی فرمت‌های فایل بیوسیگنال در یک فرمت فایل واحد است. در این مقاله بررسی می‌کنیم که…
شبکه عصبی پرسپترون چند لایه و مسائل غیرخطی

شبکه عصبی پرسپترون چند لایه و مسائل غیرخطی

شبکه عصبی پرسپترون چندلایه از سه نوع لایه ورودی، پنهان و خروجی تشکیل شده است. شبکه عصبی MLP از قانون یادگیری پس انتشار خطا برای تنظیم وزنهای سیناپسی خود استفاده می‌کند. از شبکه عصبی MLP میتوان در مسائل طبقه بندی،…
plot_sensors() in MNE-Python

رسم موقعیت مکانی الکترودهای سیگنال EEG با استفاده از پکیج MNE پایتون

در این مقاله توضیح می‌دهیم که چطور می‌توان با استفاده از پکیج MNE پایتون، موقعیت مکانی حسگرها را خواند و رسم کرد و پکیچ MNE چطور موقعیت مکانی حسگرها را تشخیص می‌دهد.
pattern mode, batch mode and mini-batch mode in training neural networks

حالت های ارائه داده آموزشی به شبکه های عصبی (pattern, mini-batch, batch-mode)

در آموزش شبکه های عصبی، داده های آموزش را میتوان به سه شکل pattern mode, batch-mode و mini-batch به شبکه عصبی ارائه داد. هرکدام از این حالتها مزایا و معایب خودشون را دارند. در این پست میخواهیم با هر سه…
Attention Mechanism in Deep Learning

مکانیزیم Attention در یادگیری عمیق

با پیچیده‌تر شدن مدل‌های یادگیری عمیق، نیاز به روش‌های موثر پردازش میزان زیادی داده، اهمیت فزاینده‌ای پیدا کرده است. یکی از این روش‎ها، مکانیزیم توجه است که به مدل امکانی می‌دهد تا در هنگام پیش بینی بر مرتبط‌ترین اطلاعات، تمرکز…
پارامترهای ارزیابی در مسائل رگرسیون و طبقه بندی

پارامترهای ارزیابی در مسائل رگرسیون و طبقه بندی

در طراحی و تعیین پارامترهای یک مدل یادگیری ماشین، روشها و پارامترهای ارزیابی نقش بسیار مهمی دارند. چرا که به ما کمک می‌کنند دید درستی به مدل طراحی شده داشته باشیم و متوجه بشویم که مدل یادگیری ماشین underfit ،overfit…
EEG Frequency Analysis

کار با داده‌های حوزه‌ی فرکانس در پکیج MNE پایتون

در این مقاله یاد می‌گیریم که با استفاده از پکیج MNE پایتون چطور بازنمایی‌های حوزه فرکانس داده‌ی خود را تجسم سازی کنیم و برای این منظور کلاس‌های Spectrum و EpochsSpectrum را معرفی می‌کنیم.
گرادیان نزولی

 گرادیان نزولی و نقش آن در فرایند یادگیری شبکه های عصبی

گرادیان نزولی (gradient descent) یک الگوریتم بهینه سازی است که در شبکه های عصبی با کمک آن وزنهای سیناپسی تنظیم می شوند. به عبارتی با کمک گرادیان نزولی، شبکه های عصبی آموزش دیده و دانش لازم برای حل مئسله را…

ترنسفورمرها (Transformers) چطور کار می‌کنند؟

ترنسفورمرها نوعی از معماری شبکه عصبی هستند که محبوبیت زیادی پیدا کرده‌اند. ترنسفورما اخیراً توسط OpenAI در مدل‌های زبانی مورد استفاده قرار گرفته‌اند همچنین اخیراً توسط DeepMind برای AlphaStar استفاده شده‌اند. ترنسفورمرها برای حل مسائل انتقال توالی (Sequence Transduction) یا…