اخبار علمی

مفهوم Batch normalization در یادگیری عمیق

مفهوم Batch normalization در یادگیری عمیق

Batch Normalization یا نرمالسازی دسته‌ای به عنوان یکی از تکنیکهای Generalization در یادگیری عمیق محسوب می‌‌‌شود که بطور مستقیم،‌‌‌ در بهینه‌سازی مدلها نقش دارد. در واقع، پارامترهای ورودی را به کمک Adaptive normalization در مقیاسی مشابه قرار می‌دهد و اینگونه…
مفهوم Dropoutدر یادگیری عمیق

مفهوم Dropout در یادگیری عمیق

یکی از موانع بزرگ در الگوریتم های یادگیری عمیق، Overfitting است که برای مقابله با این پدیده، راهکارهای متعددی تاکنون توسط محققان ارائه شده است که در قالب تکنیکهای Generalization معرفی و در مقالات مورد استفاده قرار می‌گیرد. در این…
Generative_AI

تاریخچه Generative AI

این روزها، هوش مصنوعی در همه جا وجود دارد و نمی‌توان از آن اجتناب کرد. موج هوش مصنوعی مولد یا Generative AI پس از راه اندازی ChatGPT توسط OpenAI بوجود آمد. آیا می‌دانستید Generative AI از دهه 1950 وجود داشته…
Generative AI chatbot

معرفی چت بات هایی که با Generative AI کار می کنند

سال‍ها قبل، تهیه یک پروپوزال، تحقیق در مورد یک موضوع، نوشتن یک قطعه کد یا نوشتن چند ایمیل مودبانه برای مشتریان، کاری طاقت فرسا بود. سپس چت بات هوش مصنوعی (AI) محاوره ای و مولد متولد شد. اکنون، دیگر می‌توانید…
Types of GANs

انواع شبکه‌های GAN

در این مقاله به بررسی انواع مختلف شبکه‌های Generative Adversarial Networks (GAN) می‌پردازیم که می‌توانند داده‌های جدید تولید کنند و کاربردهای آنها را بررسی می‌کنیم.

مدلسازی Generative در برابر Discriminative

از چشم انداز آکادمیکی، پیشرفت‌های حاصل در discriminative modeling را ساده‌تر می‌توان بررسی کرد؛ زیرا می‌توانیم عملکرد شبکه‌ها را با استفاده از معیارهای عملکردی، ارزیابی کنیم، اما ارزیابی مدل‌های generative دشوار است. به خصوص زمانی که کیفیت خروجی‌های تولید شده…
Variational Autoencoder

Variational Autoencoder(VAE) چیست و چه تفاوتی با Autoencoder معمولی دارد؟

در این مقاله می‌خواهیم ساختار Variational autoencoder (VAE) را بررسی کنیم و ببینیم چه تفاوتی با Autoencoder معمولی دارد. مدل های VAE ساده ترین نوع مدل‌های مولد یا Generative modelها هستند که می توانند داده ی جدید تولید کنند.
autoencoder architecture

پیاده سازی یک autoencoder ساده در کراس

می خواهیم به نحوه ی پیاده سازی autoencoderها در کراس نگاهی بیندازیم، معماری شبکه عصبی که سعی می کند بازنمایی فشرده ای از داده ی ورودی به دست دهد.
Adversarial Traning

مفهوم آموزش خصمانه (Adversarial Training)

در بسیاری از مواقع شبکه‌های عصبی که روی دیتاست‌های تست i.i.d ارزیابی می‌شوند، به عملکردی نزدیک به عملکرد انسانی دست پیدا می‌کنند. طبیعی است که تعجب کنیم آیا واقعاً این مدل‌ها، درکی در سطح انسان از تسک‌ها کسب کرده‌اند؟ به…

Early Stopping در یادگیری ماشین چیست؟

زمانی که مدل‌های یادگیری ماشین را آموزش می‌دهیم ممکن است این مدل‌ها روی داده‌ی آموزش بیش از حد آموزش ببینند و یا به اصطلاح داده‌ی آموزشی را حفظ کنند و بیش برازش (Overfitting) رخ دهد. اغلب در چنین مواقعی می‌بینیم…
Representation Learning

یادگیری بازنمایی یا Representation Learning چیست؟

یادگیری بازنمایی یا Representation Learningروشی برای آموزش یک مدل یادگیری ماشین است تا بتواند مفیدترین بازنمایی داده‌ی ورودی را یاد بگیرد. این بازنمایی‌ها که اغلب به عنوان ویژگی (feature) شناخته می‌شوند، حالت‌های داخلی مدل هستند که می‌توانند داده‌های ورودی را…
محاسبه چگالی طیفی توان PSD طبق روش welch

محاسبه چگالی طیفی توان PSD طبق روش welch

چگالی طیفی توان (Power spectral density) توزیع توان در بازه های فرکانسی را مشخص می‌کند و متیوانیم با کمک تبدیل فوریه آنرا محاسبه کنیم. از آنجا که PSD اطلاعات زیادی در مورد پدیده‌ای که بررسی می‌کنیم ارائه می‌دهد در پردازش…