دانشمند متا، Yann LeCun، می گوید که هوش مصنوعی مشاغل را برای همیشه از بین نمی برد


پروفسور Yann LeCun یکی از سه پدرخوانده هوش مصنوعی شناخته می شود، به عنوان  دانشمند ارشد هوش مصنوعی متا کار می‌کند. به نظر Yann LeCun ترس برخی از کارشناسان از اینکه هوش مصنوعی خطری برای بشریت است به طرز عجیبی مضحک هست! کامپیوترها در آینده از انسانها باهوش تر خواهند بود ، خب اگر فکر میکنی برای بشریت خطر داره، اونو نسازید!

اخیرا یکی ازمشاوران دولت بریتانیا به BBC گفته که برخی از ابزار قدرتمند هوش مصنوعی احتمالا نیاز به ممنوعیت داشته باشند. در سال 2018 Yann LeCun به همراهGeoffrey Hinton  و  Yoshua Bengio جایزه تورنیگ رو به برای پیشرفت هایشان در هوش مصنوعی برنده جایزه تورینگ شد و هر سه به عنوان “پدرخوانده های هوش مصنوعی” شناخته شدند.

Yann LeCun به همراهGeoffrey Hinton و Yoshua Bengio

در حال حاضر یان لیکان به عنوان دانشمند ارشد متا، شرکت مادر فیسبوک، اینستاگرام و واتساپ کار می‌کند. ایشان با نظریه Geoffrey Hinton  و  Yoshua Bengioمخالف است و فکر نمی‌کند که هوش مصنوعی خطری برای نسل بشر باشد.

 

هوش مصنوعی جهان را تسخیر خواهد کرد؟ نه! این ماهیت بشر هست که همیشه نسبت به ماشینها چنین فرافکنی داشته باشد. او افزود، این یک اشتباه بزرگ خواهد بود که تحقیقات هوش مصنوعی را “تحت قفل و کلید” نگه داریم.

افرادی که فکر میکنند هوش مصنوعی ممکنه خطری برای نسل بشر باشه، به این خاطر است که نمی‌تونند تصور کنند که چطور میشه اون رو ایمن کرد!

مثل این می مونه که در سال 1930 از یکی بپرسی چطوری میخوای turbo-jet رو ایمن بسازی؟ خب turbo-jetها اون موقع هنوز اختراع ساخته نشده بودند، الان هم هوش مصنوعی سطح انسانی ساخته نشده است!

« turbo-jetها در نهایت به‌طور باورنکردنی قابل اعتماد و ایمن ساخته شدند» و همین امر در مورد هوش مصنوعی نیز اتفاق خواهد افتاد.

شرکت متا یک برنامه تحقیقاقی وسیعی برای هوش مصنوعی دارد و ساخت سیستمهای هوشمند در سطح انسان یکی از اهداف آن است. علاوه بر این، این شرکت از هوش مصنوعی برای کمک به شناسایی پست های مضر رسانه های اجتماعی استفاده می کند.

 

Yann LeCun در یک رویداد برای مطبوعات دعوت شده، در مورد کار خود “به اصطلاح هوش مصنوعی هدفمند” صحبت کرد که هدف آن تولید سیستم‌های ایمن است که می‌توانند به خاطر بسپارند، استدلال کنند، برنامه‌ریزی کنند و حس مشترک داشته باشند – ویژگی‌هایی که چت ربات‌های محبوبی مانند ChatGPT ندارند.

او گفت «هیچ تردیدی» وجود ندارد که هوش مصنوعی از هوش انسانی پیشی بگیرد. اما محققان هنوز مفاهیم اساسی را برای رسیدن به آن سطح را ندارند، که رسیدن به آن سال‌ها شاید هم دهه‌ها طول بکشد.

 

وقتی که مردم در مورد ماشین‌های سطح انسان یا بالاتر که ممکن است در آینده وجود داشته باشند، نگرانی‌هایی را مطرح می‌کنند، به هوش عمومی مصنوعی (AGI) اشاره می‌کنند. اینها سیستم هایی هستند که مانند انسان ها می توانند طیف وسیعی از مشکلات را حل کنند.

او گفت، این ترس وجود دارد که زمانی که AGI وجود داشته باشد، دانشمندان “یک سیستم فوق هوشمند را راه اندازی می‌کنند که در عرض چند دقیقه جهان را تسخیر می کند.”. خب این خیلی مسخره است!

 

LeCun در پاسخ به سوال خبرنگار BBC گفت که: پیشرفت‌های پیشرونده‌ای وجود خواهد داشت – شاید شما هوش مصنوعی به قدرت مغز یک موش را داشته باشید. این قرار نیست دنیا را تحت کنترل خود درآورد، و او استدلال کرد که “هنوز قرار است در یک مرکز داده در جایی با سوئیچ خاموش اجرا شود”. وی افزود: و اگر متوجه شدید که امن نیست، آن را نسازید.

تاثیر هوش مصنوعی بر مشاغل

استدلال شده که هوش مصنوعی پتانسیل جایگزینی خیلی از مشاغل را خواهد شد، و از اینرو برخی از شرکت ها استخدام برای برخی نقش‌ها را متوقف کرده اند.

قرار نیست که هوش مصنوعی افراد زیادی را برای همیشه بیکار کند! ولی خب کارها عوض خواهد شد و ما الان هیچ دیدی نداریم که 20 سال دیگه برجسته ترین شغلها چی خواهند بود!

او گفت که رایانه‌های هوشمند «رنسانس جدیدی برای بشریت» ایجاد می‌کنند، همانطور که اینترنت یا چاپخانه انجام دادند.

پروفسور LeCun روز سه شنبه قبل از رای گیری در مورد قانون هوش مصنوعی اروپا که برای تنظیم قانون هوش مصنوعی طراحی شده است، صحبت می کرد.

او از مکالمات خود با استارت‌آپ‌های هوش مصنوعی در اروپا گفت: «آنها اصلاً این قانون را دوست ندارند، فکر می‌کنند خیلی گسترده است، شاید خیلی محدودکننده». او گفت که در زمینه قانون کارشناس نیست.

پروفسور LeCun گفت که او مخالف مقررات نیست – اما از نظر او هر برنامه به قوانین خاص خود نیاز دارد، برای مثال قوانین متفاوتی بر سیستم‌های هوش مصنوعی در خودروها و آنهایی که تصاویر پزشکی را اسکن می‌کنند، باید حاکم باشد.

 

 

 


دیدگاه ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

code

1 دیدگاه

  1. parnianzamanii1994

    مفید بود