اخبار علمی
مفهوم Batch normalization در یادگیری عمیق
Batch Normalization یا نرمالسازی دستهای به عنوان یکی از تکنیکهای Generalization در یادگیری عمیق محسوب میشود که بطور مستقیم، در بهینهسازی مدلها نقش دارد. در واقع، پارامترهای ورودی را به کمک Adaptive normalization در مقیاسی مشابه قرار میدهد و اینگونه…
مفهوم Dropout در یادگیری عمیق
یکی از موانع بزرگ در الگوریتم های یادگیری عمیق، Overfitting است که برای مقابله با این پدیده، راهکارهای متعددی تاکنون توسط محققان ارائه شده است که در قالب تکنیکهای Generalization معرفی و در مقالات مورد استفاده قرار میگیرد. در این…
تاریخچه Generative AI
این روزها، هوش مصنوعی در همه جا وجود دارد و نمیتوان از آن اجتناب کرد. موج هوش مصنوعی مولد یا Generative AI پس از راه اندازی ChatGPT توسط OpenAI بوجود آمد. آیا میدانستید Generative AI از دهه 1950 وجود داشته…
معرفی چت بات هایی که با Generative AI کار می کنند
سالها قبل، تهیه یک پروپوزال، تحقیق در مورد یک موضوع، نوشتن یک قطعه کد یا نوشتن چند ایمیل مودبانه برای مشتریان، کاری طاقت فرسا بود. سپس چت بات هوش مصنوعی (AI) محاوره ای و مولد متولد شد. اکنون، دیگر میتوانید…
انواع شبکههای GAN
در این مقاله به بررسی انواع مختلف شبکههای Generative Adversarial Networks (GAN) میپردازیم که میتوانند دادههای جدید تولید کنند و کاربردهای آنها را بررسی میکنیم.
مدلسازی Generative در برابر Discriminative
از چشم انداز آکادمیکی، پیشرفتهای حاصل در discriminative modeling را سادهتر میتوان بررسی کرد؛ زیرا میتوانیم عملکرد شبکهها را با استفاده از معیارهای عملکردی، ارزیابی کنیم، اما ارزیابی مدلهای generative دشوار است. به خصوص زمانی که کیفیت خروجیهای تولید شده…
Variational Autoencoder(VAE) چیست و چه تفاوتی با Autoencoder معمولی دارد؟
در این مقاله میخواهیم ساختار Variational autoencoder (VAE) را بررسی کنیم و ببینیم چه تفاوتی با Autoencoder معمولی دارد. مدل های VAE ساده ترین نوع مدلهای مولد یا Generative modelها هستند که می توانند داده ی جدید تولید کنند.
پیاده سازی یک autoencoder ساده در کراس
می خواهیم به نحوه ی پیاده سازی autoencoderها در کراس نگاهی بیندازیم، معماری شبکه عصبی که سعی می کند بازنمایی فشرده ای از داده ی ورودی به دست دهد.
مفهوم آموزش خصمانه (Adversarial Training)
در بسیاری از مواقع شبکههای عصبی که روی دیتاستهای تست i.i.d ارزیابی میشوند، به عملکردی نزدیک به عملکرد انسانی دست پیدا میکنند. طبیعی است که تعجب کنیم آیا واقعاً این مدلها، درکی در سطح انسان از تسکها کسب کردهاند؟ به…
Early Stopping در یادگیری ماشین چیست؟
زمانی که مدلهای یادگیری ماشین را آموزش میدهیم ممکن است این مدلها روی دادهی آموزش بیش از حد آموزش ببینند و یا به اصطلاح دادهی آموزشی را حفظ کنند و بیش برازش (Overfitting) رخ دهد. اغلب در چنین مواقعی میبینیم…
یادگیری بازنمایی یا Representation Learning چیست؟
یادگیری بازنمایی یا Representation Learningروشی برای آموزش یک مدل یادگیری ماشین است تا بتواند مفیدترین بازنمایی دادهی ورودی را یاد بگیرد. این بازنماییها که اغلب به عنوان ویژگی (feature) شناخته میشوند، حالتهای داخلی مدل هستند که میتوانند دادههای ورودی را…
محاسبه چگالی طیفی توان PSD طبق روش welch
چگالی طیفی توان (Power spectral density) توزیع توان در بازه های فرکانسی را مشخص میکند و متیوانیم با کمک تبدیل فوریه آنرا محاسبه کنیم. از آنجا که PSD اطلاعات زیادی در مورد پدیدهای که بررسی میکنیم ارائه میدهد در پردازش…